La evolución del almacenamiento descentralizado: de FIL a Shelby
El almacenamiento fue uno de los sectores más populares en la industria de blockchain. Filecoin, como el proyecto líder de la última corrida alcista, tuvo un valor de mercado que superó los diez mil millones de dólares en un momento dado. Arweave, con su concepto de almacenamiento permanente, alcanzó un valor máximo de 3.500 millones de dólares. Sin embargo, a medida que la utilidad del almacenamiento de datos fríos fue cuestionada, la necesidad de almacenamiento permanente también fue desafiada, y el futuro del almacenamiento descentralizado se volvió incierto por un tiempo.
Recientemente, la aparición de Walrus ha traído nueva vitalidad a un sector de almacenamiento que había estado en silencio por mucho tiempo. El proyecto Shelby, lanzado en colaboración entre Aptos y Jump Crypto, tiene como objetivo llevar el almacenamiento descentralizado a nuevas alturas en el ámbito de los datos calientes. Entonces, ¿puede el almacenamiento descentralizado resurgir y proporcionar apoyo a una amplia variedad de escenarios de aplicación? ¿O es simplemente otra ronda de especulación de conceptos? Este artículo analizará la evolución del almacenamiento descentralizado a partir de las trayectorias de desarrollo de cuatro proyectos: Filecoin, Arweave, Walrus y Shelby, explorando la posibilidad de la generalización del almacenamiento descentralizado.
FIL: Almacenamiento superficial, en realidad minería
Filecoin es uno de los primeros proyectos de Descentralización que surgió, su dirección de desarrollo gira en torno a la Descentralización, que es una característica común de los primeros proyectos de blockchain. Filecoin combina almacenamiento con Descentralización, intentando resolver el problema de confianza de los proveedores de servicios de almacenamiento de datos centralizados. Sin embargo, ciertos aspectos sacrificados para lograr la Descentralización se convirtieron precisamente en los puntos críticos que proyectos posteriores como Arweave o Walrus intentaron resolver.
IPFS: limitaciones de la arquitectura de Descentralización
IPFS(Sistema de Archivos Interplanetario)se lanzó en 2015, con el objetivo de revolucionar el protocolo HTTP tradicional a través de la direccionamiento por contenido. Sin embargo, la mayor desventaja de IPFS es que la velocidad de obtención es extremadamente lenta. En una era donde los servicios de datos tradicionales pueden alcanzar tiempos de respuesta en milisegundos, obtener un archivo mediante IPFS aún puede llevar más de diez segundos, lo que dificulta su promoción en aplicaciones prácticas.
El protocolo P2P subyacente de IPFS es principalmente adecuado para "datos fríos", es decir, contenido estático que no cambia con frecuencia. Sin embargo, al tratar con datos calientes, como páginas web dinámicas, juegos en línea o aplicaciones de IA, el protocolo P2P no presenta ventajas significativas en comparación con el CDN tradicional.
A pesar de que IPFS no es una blockchain en sí misma, su diseño basado en un grafo acíclico dirigido (DAG) se alinea estrechamente con muchas cadenas públicas y protocolos Web3, lo que lo convierte en una base ideal para la construcción de blockchain. Por lo tanto, incluso si carece de valor práctico, ya es suficiente como marco subyacente para llevar la narrativa de blockchain.
La esencia de la minería bajo la capa de almacenamiento
El diseño original de IPFS es permitir que los usuarios, al almacenar datos, también se conviertan en parte de la red de almacenamiento. Sin embargo, sin incentivos económicos, es difícil que los usuarios usen este sistema de manera voluntaria, y mucho menos que se conviertan en nodos de almacenamiento activos. Esto significa que la mayoría de los usuarios solo almacenarán archivos en IPFS, pero no contribuirán con su espacio de almacenamiento ni almacenarán los archivos de otros. Es en este contexto que surge Filecoin.
En el modelo de economía de tokens de Filecoin, hay tres roles principales: los usuarios son responsables de pagar tarifas por almacenar datos; los mineros de almacenamiento reciben incentivos en tokens por almacenar los datos de los usuarios; los mineros de recuperación proporcionan datos cuando los usuarios los necesitan y obtienen incentivos.
Este modelo presenta un espacio potencial para el fraude. Los mineros de almacenamiento pueden llenar datos basura después de proporcionar espacio de almacenamiento para obtener recompensas. Dado que estos datos basura no se recuperan, incluso si se pierden, no activan el mecanismo de penalización. Esto permite a los mineros de almacenamiento eliminar los datos basura y repetir este proceso. El consenso de prueba de replicación de Filecoin solo puede asegurar que los datos del usuario no sean eliminados sin autorización, pero no puede evitar que los mineros llenen datos basura.
La operación de Filecoin depende en gran medida de la inversión continua de los mineros en la economía de tokens, en lugar de basarse en la demanda real de almacenamiento distribuido por parte de los usuarios finales. Aunque el proyecto sigue en iteración continua, en esta etapa, la construcción del ecosistema de Filecoin se ajusta más a la definición de un proyecto de almacenamiento "basado en la minería" que a uno "impulsado por aplicaciones".
Arweave: Ventajas y limitaciones del largo plazo
En comparación con Filecoin, que intenta construir una "nube de datos" descentralizada, incentivada y verificable, Arweave se dirige a un extremo en otra dirección del almacenamiento: proporcionar la capacidad de almacenamiento permanente para los datos. Arweave no intenta construir una plataforma de computación distribuida; todo su sistema se desarrolla en torno a una suposición central: los datos importantes deben almacenarse de una vez y permanecer para siempre en la red. Este extremo enfoque a largo plazo hace que Arweave sea muy diferente de Filecoin en términos de mecanismos, modelos de incentivos, requisitos de hardware y perspectivas narrativas.
Arweave toma a Bitcoin como objeto de estudio, intentando optimizar continuamente su red de almacenamiento permanente en ciclos largos medidos en años. A Arweave no le importa el marketing, ni las tendencias de desarrollo del mercado o la competencia. Simplemente avanza en el camino de iterar la arquitectura de la red, sin importar si nadie se interesa, porque esa es la esencia del equipo de desarrollo de Arweave: el largo plazo. Gracias al largo plazo, Arweave fue muy apreciado en el último mercado alcista; y también debido al largo plazo, incluso si cae al fondo, Arweave aún podría sobrevivir a varias rondas de mercados alcistas y bajistas. Pero, ¿tendrá Arweave un lugar en el futuro del almacenamiento descentralizado? El valor de la existencia del almacenamiento permanente solo puede ser demostrado con el tiempo.
La red principal de Arweave ha pasado de la versión 1.5 a la reciente 2.9. Aunque ha perdido la atención del mercado, ha estado trabajando para permitir que un mayor número de mineros participe en la red con el menor costo posible y para incentivar a los mineros a almacenar datos al máximo, lo que mejora constantemente la robustez de toda la red. Arweave es consciente de que no se ajusta a las preferencias del mercado, ha adoptado un enfoque conservador, no abraza a la comunidad minera, su ecosistema está completamente estancado, actualizando la red principal con el mínimo costo y disminuyendo continuamente el umbral de hardware sin comprometer la seguridad de la red.
Revisión del camino de actualización de 1.5 a 2.9
La versión 1.5 de Arweave expuso una vulnerabilidad que permite a los mineros depender de la apilación de GPU en lugar de almacenamiento real para optimizar la probabilidad de minado. Para frenar esta tendencia, la versión 1.7 introduce el algoritmo RandomX, limitando el uso de potencia de cálculo especializada y exigiendo la participación de CPU generales en la minería, debilitando así la centralización de la potencia de cálculo.
En la versión 2.0, Arweave adopta SPoA, convirtiendo la prueba de datos en una ruta simplificada de estructura de árbol de Merkle, e introduce transacciones de formato 2 para reducir la carga de sincronización. Esta arquitectura alivia la presión sobre el ancho de banda de la red, mejorando significativamente la capacidad de colaboración de los nodos. Sin embargo, algunos mineros aún pueden eludir la responsabilidad de mantener datos reales a través de estrategias de piscinas de almacenamiento centralizado de alta velocidad.
Para corregir este sesgo, 2.4 lanzó el mecanismo SPoRA, introduciendo índices globales y acceso aleatorio a hashes lentos, lo que obliga a los mineros a poseer realmente bloques de datos para participar en la producción efectiva de bloques, debilitando así el efecto de apilamiento de potencia de cálculo desde el mecanismo. El resultado es que los mineros comenzaron a centrarse en la velocidad de acceso al almacenamiento, impulsando la aplicación de SSD y dispositivos de lectura y escritura de alta velocidad. 2.6 introdujo cadenas de hashes para controlar el ritmo de producción de bloques, equilibrando el beneficio marginal de los dispositivos de alto rendimiento y proporcionando un espacio de participación justo para los mineros medianos y pequeños.
Las versiones posteriores refuerzan aún más la capacidad de colaboración en la red y la diversidad de almacenamiento: la 2.7 introduce minería colaborativa y mecanismos de pool, mejorando la competitividad de los pequeños mineros; la 2.8 lanza un mecanismo de empaquetado compuesto, permitiendo que dispositivos de gran capacidad y baja velocidad participen de manera flexible; la 2.9 introduce un nuevo proceso de empaquetado en formato replica_2_9, aumentando significativamente la eficiencia y reduciendo la dependencia computacional, completando el ciclo del modelo de minería orientado a datos.
En general, la ruta de actualización de Arweave presenta claramente su estrategia a largo plazo orientada al almacenamiento: al resistir constantemente la tendencia a la concentración de poder de cálculo, continúa reduciendo las barreras de entrada, garantizando la posibilidad de funcionamiento a largo plazo del protocolo.
Walrus: Un nuevo intento de almacenamiento de datos calientes
El enfoque de diseño de Walrus es completamente diferente al de Filecoin y Arweave. El punto de partida de Filecoin es crear un sistema de almacenamiento descentralizado y verificable, a costa del almacenamiento de datos fríos; el punto de partida de Arweave es construir una biblioteca de Alejandría en la cadena que pueda almacenar datos de forma permanente, a costa de tener muy pocos escenarios; el punto de partida de Walrus es optimizar el protocolo de almacenamiento de datos calientes en términos de costos de almacenamiento.
RedStuff: Aplicaciones innovadoras de la codificación de borrado
En términos de diseño de costos de almacenamiento, Walrus considera que los gastos de almacenamiento de Filecoin y Arweave son irrazonables. Ambos utilizan una arquitectura de replicación completa, cuya principal ventaja es que cada nodo tiene una copia completa, lo que proporciona una fuerte capacidad de tolerancia a fallos y la independencia entre nodos. Este tipo de arquitectura garantiza que, incluso si algunos nodos están desconectados, la red aún tiene disponibilidad de datos. Sin embargo, esto también significa que el sistema necesita redundancia de múltiples copias para mantener la robustez, lo que a su vez incrementa los costos de almacenamiento. Especialmente en el diseño de Arweave, el mecanismo de consenso en sí mismo fomenta el almacenamiento redundante de nodos para mejorar la seguridad de los datos. En comparación, Filecoin es más flexible en el control de costos, pero a costa de que algunos almacenamiento de bajo costo pueden presentar un mayor riesgo de pérdida de datos. Walrus intenta encontrar un equilibrio entre ambos, su mecanismo controla los costos de replicación mientras que, a través de una forma de redundancia estructurada, mejora la disponibilidad, estableciendo así un nuevo camino de compromiso entre la disponibilidad de datos y la eficiencia de costos.
La tecnología RedStuff creada por Walrus es la clave para reducir la redundancia de nodos, y proviene de la codificación Reed-Solomon ( RS ). La codificación RS es un algoritmo de código de borrado muy tradicional, y el código de borrado es una técnica que permite duplicar un conjunto de datos mediante la adición de fragmentos redundantes, que se puede usar para reconstruir los datos originales. Desde CD-ROM hasta comunicaciones por satélite y códigos QR, se utiliza con frecuencia en la vida cotidiana.
El código de corrección permite a los usuarios obtener un bloque, por ejemplo, de 1MB de tamaño, y luego "ampliarlo" a 2MB, donde el 1MB adicional se llama datos especiales de corrección. Si se pierde algún byte en el bloque, los usuarios pueden recuperar fácilmente esos bytes a través del código. Incluso si se pierde un bloque de hasta 1MB, se puede recuperar todo el bloque. La misma técnica permite a las computadoras leer todos los datos en un CD-ROM, incluso si está dañado.
Actualmente, el más utilizado es el código RS. La forma de implementación es, comenzando con k bloques de información, construir polinomios relacionados y evaluarlos en diferentes coordenadas x para obtener bloques codificados. Al usar códigos de borrado RS, la probabilidad de que se pierdan grandes bloques de datos por muestreo aleatorio es muy baja.
La característica más destacada de RedStuff es que, mediante la mejora del algoritmo de codificación de borrado, Walrus puede codificar rápidamente y de manera robusta bloques de datos no estructurados en fragmentos más pequeños, que se almacenan distribuidos en una red de nodos de almacenamiento. Incluso si se pierden hasta dos tercios de los fragmentos, se puede reconstruir rápidamente el bloque de datos original utilizando fragmentos parciales. Esto se hace posible manteniendo un factor de replicación de solo 4 a 5 veces.
Por lo tanto, es razonable definir a Walrus como un protocolo ligero de redundancia y recuperación rediseñado en torno a un escenario de Descentralización. En comparación con los códigos de borrado tradicionales ( como Reed-Solomon ), RedStuff ya no persigue una estricta consistencia matemática, sino que ha hecho compromisos realistas en cuanto a la distribución de datos, la verificación de almacenamiento y los costos computacionales. Este modelo renuncia al mecanismo de decodificación instantánea requerido por la programación centralizada y, en su lugar, verifica en la cadena si los nodos tienen copias específicas de datos mediante pruebas, adaptándose así a una estructura de red más dinámica y marginal.
El núcleo del diseño de RedStuff es dividir los datos en dos categorías: fragmentos principales y fragmentos secundarios. Los fragmentos principales se utilizan para recuperar los datos originales, su generación y distribución están sujetas a estrictas restricciones, el umbral de recuperación es f+1 y se requieren 2f+1 firmas como respaldo de disponibilidad; los fragmentos secundarios se generan mediante operaciones simples como combinaciones XOR, su función es proporcionar tolerancia a fallos elástica y mejorar la robustez del sistema en general. Esta estructura, en esencia, reduce los requisitos de consistencia de datos: permite que diferentes nodos almacenen versiones de datos diferentes durante cortos períodos de tiempo, enfatizando el camino práctico de "consistencia eventual". Aunque es similar a los requisitos flexibles en sistemas como Arweave para bloques retrógrados, ha logrado cierto efecto en la reducción de la carga en la red, pero al mismo tiempo ha debilitado la disponibilidad inmediata de los datos y la garantía de integridad.
No se puede ignorar que, aunque RedStuff ha logrado un almacenamiento efectivo en entornos de baja potencia de cálculo y baja banda ancha, en esencia sigue siendo una "variante" de un sistema de código de corrección de errores. Sacrifica una parte de la determinación de lectura de datos a cambio del control de costos y la escalabilidad en un entorno de Descentralización. Sin embargo, a nivel de aplicación, aún está por verse si esta arquitectura puede soportar escenarios de datos de gran escala y alta frecuencia de interacción. Más allá de esto, RedStuff no ha superado realmente los cálculos de codificación que han existido a largo plazo en los códigos de corrección de errores.
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
10 me gusta
Recompensa
10
4
Compartir
Comentar
0/400
DeFiDoctor
· hace16h
Observación clínica: los datos calientes son solo esos viejos problemas con un nuevo disfraz.
Ver originalesResponder0
AirdropCollector
· hace16h
¿El viejo fil va a ser eliminado?
Ver originalesResponder0
TokenAlchemist
· hace16h
vector ineficiente detectado... sigo alcista en fil pero la narrativa de almacenamiento en frío está muerta fr
De datos fríos a datos calientes: el camino de la evolución del almacenamiento descentralizado
La evolución del almacenamiento descentralizado: de FIL a Shelby
El almacenamiento fue uno de los sectores más populares en la industria de blockchain. Filecoin, como el proyecto líder de la última corrida alcista, tuvo un valor de mercado que superó los diez mil millones de dólares en un momento dado. Arweave, con su concepto de almacenamiento permanente, alcanzó un valor máximo de 3.500 millones de dólares. Sin embargo, a medida que la utilidad del almacenamiento de datos fríos fue cuestionada, la necesidad de almacenamiento permanente también fue desafiada, y el futuro del almacenamiento descentralizado se volvió incierto por un tiempo.
Recientemente, la aparición de Walrus ha traído nueva vitalidad a un sector de almacenamiento que había estado en silencio por mucho tiempo. El proyecto Shelby, lanzado en colaboración entre Aptos y Jump Crypto, tiene como objetivo llevar el almacenamiento descentralizado a nuevas alturas en el ámbito de los datos calientes. Entonces, ¿puede el almacenamiento descentralizado resurgir y proporcionar apoyo a una amplia variedad de escenarios de aplicación? ¿O es simplemente otra ronda de especulación de conceptos? Este artículo analizará la evolución del almacenamiento descentralizado a partir de las trayectorias de desarrollo de cuatro proyectos: Filecoin, Arweave, Walrus y Shelby, explorando la posibilidad de la generalización del almacenamiento descentralizado.
FIL: Almacenamiento superficial, en realidad minería
Filecoin es uno de los primeros proyectos de Descentralización que surgió, su dirección de desarrollo gira en torno a la Descentralización, que es una característica común de los primeros proyectos de blockchain. Filecoin combina almacenamiento con Descentralización, intentando resolver el problema de confianza de los proveedores de servicios de almacenamiento de datos centralizados. Sin embargo, ciertos aspectos sacrificados para lograr la Descentralización se convirtieron precisamente en los puntos críticos que proyectos posteriores como Arweave o Walrus intentaron resolver.
IPFS: limitaciones de la arquitectura de Descentralización
IPFS(Sistema de Archivos Interplanetario)se lanzó en 2015, con el objetivo de revolucionar el protocolo HTTP tradicional a través de la direccionamiento por contenido. Sin embargo, la mayor desventaja de IPFS es que la velocidad de obtención es extremadamente lenta. En una era donde los servicios de datos tradicionales pueden alcanzar tiempos de respuesta en milisegundos, obtener un archivo mediante IPFS aún puede llevar más de diez segundos, lo que dificulta su promoción en aplicaciones prácticas.
El protocolo P2P subyacente de IPFS es principalmente adecuado para "datos fríos", es decir, contenido estático que no cambia con frecuencia. Sin embargo, al tratar con datos calientes, como páginas web dinámicas, juegos en línea o aplicaciones de IA, el protocolo P2P no presenta ventajas significativas en comparación con el CDN tradicional.
A pesar de que IPFS no es una blockchain en sí misma, su diseño basado en un grafo acíclico dirigido (DAG) se alinea estrechamente con muchas cadenas públicas y protocolos Web3, lo que lo convierte en una base ideal para la construcción de blockchain. Por lo tanto, incluso si carece de valor práctico, ya es suficiente como marco subyacente para llevar la narrativa de blockchain.
La esencia de la minería bajo la capa de almacenamiento
El diseño original de IPFS es permitir que los usuarios, al almacenar datos, también se conviertan en parte de la red de almacenamiento. Sin embargo, sin incentivos económicos, es difícil que los usuarios usen este sistema de manera voluntaria, y mucho menos que se conviertan en nodos de almacenamiento activos. Esto significa que la mayoría de los usuarios solo almacenarán archivos en IPFS, pero no contribuirán con su espacio de almacenamiento ni almacenarán los archivos de otros. Es en este contexto que surge Filecoin.
En el modelo de economía de tokens de Filecoin, hay tres roles principales: los usuarios son responsables de pagar tarifas por almacenar datos; los mineros de almacenamiento reciben incentivos en tokens por almacenar los datos de los usuarios; los mineros de recuperación proporcionan datos cuando los usuarios los necesitan y obtienen incentivos.
Este modelo presenta un espacio potencial para el fraude. Los mineros de almacenamiento pueden llenar datos basura después de proporcionar espacio de almacenamiento para obtener recompensas. Dado que estos datos basura no se recuperan, incluso si se pierden, no activan el mecanismo de penalización. Esto permite a los mineros de almacenamiento eliminar los datos basura y repetir este proceso. El consenso de prueba de replicación de Filecoin solo puede asegurar que los datos del usuario no sean eliminados sin autorización, pero no puede evitar que los mineros llenen datos basura.
La operación de Filecoin depende en gran medida de la inversión continua de los mineros en la economía de tokens, en lugar de basarse en la demanda real de almacenamiento distribuido por parte de los usuarios finales. Aunque el proyecto sigue en iteración continua, en esta etapa, la construcción del ecosistema de Filecoin se ajusta más a la definición de un proyecto de almacenamiento "basado en la minería" que a uno "impulsado por aplicaciones".
Arweave: Ventajas y limitaciones del largo plazo
En comparación con Filecoin, que intenta construir una "nube de datos" descentralizada, incentivada y verificable, Arweave se dirige a un extremo en otra dirección del almacenamiento: proporcionar la capacidad de almacenamiento permanente para los datos. Arweave no intenta construir una plataforma de computación distribuida; todo su sistema se desarrolla en torno a una suposición central: los datos importantes deben almacenarse de una vez y permanecer para siempre en la red. Este extremo enfoque a largo plazo hace que Arweave sea muy diferente de Filecoin en términos de mecanismos, modelos de incentivos, requisitos de hardware y perspectivas narrativas.
Arweave toma a Bitcoin como objeto de estudio, intentando optimizar continuamente su red de almacenamiento permanente en ciclos largos medidos en años. A Arweave no le importa el marketing, ni las tendencias de desarrollo del mercado o la competencia. Simplemente avanza en el camino de iterar la arquitectura de la red, sin importar si nadie se interesa, porque esa es la esencia del equipo de desarrollo de Arweave: el largo plazo. Gracias al largo plazo, Arweave fue muy apreciado en el último mercado alcista; y también debido al largo plazo, incluso si cae al fondo, Arweave aún podría sobrevivir a varias rondas de mercados alcistas y bajistas. Pero, ¿tendrá Arweave un lugar en el futuro del almacenamiento descentralizado? El valor de la existencia del almacenamiento permanente solo puede ser demostrado con el tiempo.
La red principal de Arweave ha pasado de la versión 1.5 a la reciente 2.9. Aunque ha perdido la atención del mercado, ha estado trabajando para permitir que un mayor número de mineros participe en la red con el menor costo posible y para incentivar a los mineros a almacenar datos al máximo, lo que mejora constantemente la robustez de toda la red. Arweave es consciente de que no se ajusta a las preferencias del mercado, ha adoptado un enfoque conservador, no abraza a la comunidad minera, su ecosistema está completamente estancado, actualizando la red principal con el mínimo costo y disminuyendo continuamente el umbral de hardware sin comprometer la seguridad de la red.
Revisión del camino de actualización de 1.5 a 2.9
La versión 1.5 de Arweave expuso una vulnerabilidad que permite a los mineros depender de la apilación de GPU en lugar de almacenamiento real para optimizar la probabilidad de minado. Para frenar esta tendencia, la versión 1.7 introduce el algoritmo RandomX, limitando el uso de potencia de cálculo especializada y exigiendo la participación de CPU generales en la minería, debilitando así la centralización de la potencia de cálculo.
En la versión 2.0, Arweave adopta SPoA, convirtiendo la prueba de datos en una ruta simplificada de estructura de árbol de Merkle, e introduce transacciones de formato 2 para reducir la carga de sincronización. Esta arquitectura alivia la presión sobre el ancho de banda de la red, mejorando significativamente la capacidad de colaboración de los nodos. Sin embargo, algunos mineros aún pueden eludir la responsabilidad de mantener datos reales a través de estrategias de piscinas de almacenamiento centralizado de alta velocidad.
Para corregir este sesgo, 2.4 lanzó el mecanismo SPoRA, introduciendo índices globales y acceso aleatorio a hashes lentos, lo que obliga a los mineros a poseer realmente bloques de datos para participar en la producción efectiva de bloques, debilitando así el efecto de apilamiento de potencia de cálculo desde el mecanismo. El resultado es que los mineros comenzaron a centrarse en la velocidad de acceso al almacenamiento, impulsando la aplicación de SSD y dispositivos de lectura y escritura de alta velocidad. 2.6 introdujo cadenas de hashes para controlar el ritmo de producción de bloques, equilibrando el beneficio marginal de los dispositivos de alto rendimiento y proporcionando un espacio de participación justo para los mineros medianos y pequeños.
Las versiones posteriores refuerzan aún más la capacidad de colaboración en la red y la diversidad de almacenamiento: la 2.7 introduce minería colaborativa y mecanismos de pool, mejorando la competitividad de los pequeños mineros; la 2.8 lanza un mecanismo de empaquetado compuesto, permitiendo que dispositivos de gran capacidad y baja velocidad participen de manera flexible; la 2.9 introduce un nuevo proceso de empaquetado en formato replica_2_9, aumentando significativamente la eficiencia y reduciendo la dependencia computacional, completando el ciclo del modelo de minería orientado a datos.
En general, la ruta de actualización de Arweave presenta claramente su estrategia a largo plazo orientada al almacenamiento: al resistir constantemente la tendencia a la concentración de poder de cálculo, continúa reduciendo las barreras de entrada, garantizando la posibilidad de funcionamiento a largo plazo del protocolo.
Walrus: Un nuevo intento de almacenamiento de datos calientes
El enfoque de diseño de Walrus es completamente diferente al de Filecoin y Arweave. El punto de partida de Filecoin es crear un sistema de almacenamiento descentralizado y verificable, a costa del almacenamiento de datos fríos; el punto de partida de Arweave es construir una biblioteca de Alejandría en la cadena que pueda almacenar datos de forma permanente, a costa de tener muy pocos escenarios; el punto de partida de Walrus es optimizar el protocolo de almacenamiento de datos calientes en términos de costos de almacenamiento.
RedStuff: Aplicaciones innovadoras de la codificación de borrado
En términos de diseño de costos de almacenamiento, Walrus considera que los gastos de almacenamiento de Filecoin y Arweave son irrazonables. Ambos utilizan una arquitectura de replicación completa, cuya principal ventaja es que cada nodo tiene una copia completa, lo que proporciona una fuerte capacidad de tolerancia a fallos y la independencia entre nodos. Este tipo de arquitectura garantiza que, incluso si algunos nodos están desconectados, la red aún tiene disponibilidad de datos. Sin embargo, esto también significa que el sistema necesita redundancia de múltiples copias para mantener la robustez, lo que a su vez incrementa los costos de almacenamiento. Especialmente en el diseño de Arweave, el mecanismo de consenso en sí mismo fomenta el almacenamiento redundante de nodos para mejorar la seguridad de los datos. En comparación, Filecoin es más flexible en el control de costos, pero a costa de que algunos almacenamiento de bajo costo pueden presentar un mayor riesgo de pérdida de datos. Walrus intenta encontrar un equilibrio entre ambos, su mecanismo controla los costos de replicación mientras que, a través de una forma de redundancia estructurada, mejora la disponibilidad, estableciendo así un nuevo camino de compromiso entre la disponibilidad de datos y la eficiencia de costos.
La tecnología RedStuff creada por Walrus es la clave para reducir la redundancia de nodos, y proviene de la codificación Reed-Solomon ( RS ). La codificación RS es un algoritmo de código de borrado muy tradicional, y el código de borrado es una técnica que permite duplicar un conjunto de datos mediante la adición de fragmentos redundantes, que se puede usar para reconstruir los datos originales. Desde CD-ROM hasta comunicaciones por satélite y códigos QR, se utiliza con frecuencia en la vida cotidiana.
El código de corrección permite a los usuarios obtener un bloque, por ejemplo, de 1MB de tamaño, y luego "ampliarlo" a 2MB, donde el 1MB adicional se llama datos especiales de corrección. Si se pierde algún byte en el bloque, los usuarios pueden recuperar fácilmente esos bytes a través del código. Incluso si se pierde un bloque de hasta 1MB, se puede recuperar todo el bloque. La misma técnica permite a las computadoras leer todos los datos en un CD-ROM, incluso si está dañado.
Actualmente, el más utilizado es el código RS. La forma de implementación es, comenzando con k bloques de información, construir polinomios relacionados y evaluarlos en diferentes coordenadas x para obtener bloques codificados. Al usar códigos de borrado RS, la probabilidad de que se pierdan grandes bloques de datos por muestreo aleatorio es muy baja.
La característica más destacada de RedStuff es que, mediante la mejora del algoritmo de codificación de borrado, Walrus puede codificar rápidamente y de manera robusta bloques de datos no estructurados en fragmentos más pequeños, que se almacenan distribuidos en una red de nodos de almacenamiento. Incluso si se pierden hasta dos tercios de los fragmentos, se puede reconstruir rápidamente el bloque de datos original utilizando fragmentos parciales. Esto se hace posible manteniendo un factor de replicación de solo 4 a 5 veces.
Por lo tanto, es razonable definir a Walrus como un protocolo ligero de redundancia y recuperación rediseñado en torno a un escenario de Descentralización. En comparación con los códigos de borrado tradicionales ( como Reed-Solomon ), RedStuff ya no persigue una estricta consistencia matemática, sino que ha hecho compromisos realistas en cuanto a la distribución de datos, la verificación de almacenamiento y los costos computacionales. Este modelo renuncia al mecanismo de decodificación instantánea requerido por la programación centralizada y, en su lugar, verifica en la cadena si los nodos tienen copias específicas de datos mediante pruebas, adaptándose así a una estructura de red más dinámica y marginal.
El núcleo del diseño de RedStuff es dividir los datos en dos categorías: fragmentos principales y fragmentos secundarios. Los fragmentos principales se utilizan para recuperar los datos originales, su generación y distribución están sujetas a estrictas restricciones, el umbral de recuperación es f+1 y se requieren 2f+1 firmas como respaldo de disponibilidad; los fragmentos secundarios se generan mediante operaciones simples como combinaciones XOR, su función es proporcionar tolerancia a fallos elástica y mejorar la robustez del sistema en general. Esta estructura, en esencia, reduce los requisitos de consistencia de datos: permite que diferentes nodos almacenen versiones de datos diferentes durante cortos períodos de tiempo, enfatizando el camino práctico de "consistencia eventual". Aunque es similar a los requisitos flexibles en sistemas como Arweave para bloques retrógrados, ha logrado cierto efecto en la reducción de la carga en la red, pero al mismo tiempo ha debilitado la disponibilidad inmediata de los datos y la garantía de integridad.
No se puede ignorar que, aunque RedStuff ha logrado un almacenamiento efectivo en entornos de baja potencia de cálculo y baja banda ancha, en esencia sigue siendo una "variante" de un sistema de código de corrección de errores. Sacrifica una parte de la determinación de lectura de datos a cambio del control de costos y la escalabilidad en un entorno de Descentralización. Sin embargo, a nivel de aplicación, aún está por verse si esta arquitectura puede soportar escenarios de datos de gran escala y alta frecuencia de interacción. Más allá de esto, RedStuff no ha superado realmente los cálculos de codificación que han existido a largo plazo en los códigos de corrección de errores.