OpenLedger construye una IA pagable: OP Stack + EigenDA como base para impulsar la economía de datos y modelos

Informe de investigación en profundidad de OpenLedger: construir una economía de agentes impulsada por datos y modelos combinables sobre la base de OP Stack + EigenDA

Uno, Introducción | La transición de la capa de modelo de Crypto AI

Los datos, modelos y potencia de cálculo son los tres elementos centrales de la infraestructura de IA, análogos a combustible (datos), motor (modelo) y energía (potencia de cálculo), siendo todos indispensables. Al igual que la trayectoria de evolución de la infraestructura en la industria de IA tradicional, el campo de Crypto AI también ha pasado por etapas similares. A principios de 2024, el mercado estuvo dominado temporalmente por proyectos de GPU descentralizados (, como ciertas plataformas de cálculo, ciertas plataformas de renderizado, ciertas redes, etc. ), enfatizando generalmente la lógica de crecimiento extensivo de "competir en potencia de cálculo". Sin embargo, a partir de 2025, el enfoque de la industria se ha desplazado gradualmente hacia los niveles de modelo y datos, marcando la transición de Crypto AI de la competencia por recursos básicos hacia una construcción de nivel medio más sostenible y con valor de aplicación.

OpenLedger Profundidad研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

Modelo General (LLM) vs Modelo Especializado (SLM)

Los modelos de lenguaje grandes (LLM) tradicionales dependen en gran medida de grandes conjuntos de datos y arquitecturas distribuidas complejas, con un tamaño de parámetros que varía de 70B a 500B, y el costo de entrenar uno puede alcanzar fácilmente varios millones de dólares. En cambio, el SLM (Modelo de Lenguaje Especializado) es un paradigma de ajuste fino ligero que permite reutilizar modelos básicos, generalmente basado en modelos de código abierto como LLaMA, Mistral, DeepSeek, combinando una pequeña cantidad de datos especializados de alta calidad y tecnologías como LoRA, para construir rápidamente modelos expertos con conocimientos específicos en un campo, reduciendo significativamente los costos de entrenamiento y las barreras técnicas.

Es importante destacar que SLM no se integrará en los pesos de LLM, sino que colaborará con LLM a través de llamadas a la arquitectura Agent, enrutamiento dinámico mediante un sistema de plugins, conexión en caliente de módulos LoRA y RAG (Generación Aumentada por Recuperación). Esta arquitectura conserva la capacidad de amplia cobertura de LLM y, al mismo tiempo, mejora el rendimiento profesional a través de módulos de ajuste fino, formando un sistema inteligente modular altamente flexible.

El valor y los límites de Crypto AI en la capa de modelo

Los proyectos de Crypto AI esencialmente son difíciles de mejorar directamente las capacidades centrales de los modelos de lenguaje grande (LLM), y la razón principal es

  • Barrera técnica demasiado alta: La escala de datos, los recursos de computación y la capacidad de ingeniería requeridos para entrenar un Modelo Fundamental son extremadamente grandes; actualmente, solo gigantes tecnológicos como Estados Unidos (cierta empresa, etc.) y China (cierta empresa, etc.) tienen la capacidad correspondiente.
  • Limitaciones del ecosistema de código abierto: aunque modelos fundamentales como LLaMA y Mixtral ya están disponibles como código abierto, la clave para impulsar las innovaciones en los modelos sigue estando concentrada en instituciones de investigación y sistemas de ingeniería de código cerrado, y el espacio de participación de los proyectos en cadena en el nivel del modelo central es limitado.

Sin embargo, sobre modelos básicos de código abierto, los proyectos de Crypto AI aún pueden extender su valor mediante el ajuste fino de modelos de lenguaje especializados (SLM), combinando la verificabilidad y los mecanismos de incentivos de Web3. Como "capa de interfaz periférica" de la cadena de industria de IA, se manifiesta en dos direcciones centrales:

  • Capa de verificación confiable: a través del registro en cadena de la ruta de generación del modelo, la contribución de datos y el uso, se mejora la trazabilidad y la capacidad de resistencia a la manipulación de las salidas de IA.
  • Mecanismo de incentivos: Con la ayuda del Token nativo, se utilizan para incentivar comportamientos como la carga de datos, la llamada a modelos y la ejecución de agentes, construyendo un ciclo positivo de entrenamiento y servicio de modelos.

Clasificación de tipos de modelos de IA y análisis de aplicabilidad de blockchain

Como se puede ver, los puntos de enfoque viables para los proyectos de tipo Crypto AI se concentran principalmente en la ligera afinación de SLM pequeños, la integración y verificación de datos en cadena de la arquitectura RAG, así como en el despliegue local y los incentivos de modelos Edge. Combinando la verificabilidad de blockchain y el mecanismo de tokens, Crypto puede ofrecer un valor único para estos escenarios de modelos de recursos medios y bajos, formando un valor diferencial en la "capa de interfaz" de la IA.

Cadena de blockchain AI basada en datos y modelos, que puede realizar un registro claro e inalterable en la cadena de cada fuente de contribución de datos y modelos, mejorando significativamente la credibilidad de los datos y la trazabilidad del entrenamiento de modelos. Al mismo tiempo, a través del mecanismo de contratos inteligentes, se activa automáticamente la distribución de recompensas cuando se llama a los datos o modelos, transformando el comportamiento de la IA en un valor tokenizado medible y negociable, construyendo un sistema de incentivos sostenible. Además, los usuarios de la comunidad también pueden evaluar el rendimiento del modelo a través de votaciones con tokens, participar en la formulación e iteración de reglas, y mejorar la estructura de gobernanza descentralizada.

OpenLedger Profundidad研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

Dos, Resumen del proyecto | Visión de la cadena AI de OpenLedger

OpenLedger es uno de los pocos proyectos de blockchain AI en el mercado que se centra en los incentivos de datos y modelos. Fue el primero en proponer el concepto de "Payable AI", con el objetivo de construir un entorno de operación de AI justo, transparente y compuesto, incentivando a los contribuyentes de datos, desarrolladores de modelos y constructores de aplicaciones de AI a colaborar en la misma plataforma y obtener ingresos en cadena según sus contribuciones reales.

OpenLedger proporciona un ciclo completo que va desde la «provisión de datos» hasta el «despliegue de modelos» y luego hasta la «llamada a la participación de ganancias», cuyos módulos centrales incluyen:

  • Fábrica de Modelos: sin necesidad de programación, se puede utilizar LoRA para el ajuste fino y el entrenamiento de modelos personalizados basados en LLM de código abierto;
  • OpenLoRA: soporta la coexistencia de miles de modelos, carga dinámica según demanda, reduciendo significativamente los costos de implementación;
  • PoA (Prueba de Atribución): Medición de contribuciones y distribución de recompensas a través del registro de llamadas en la cadena;
  • Datanets: Redes de datos estructurados orientadas a escenarios verticales, construidas y verificadas mediante la colaboración de la comunidad;
  • Plataforma de Propuestas de Modelos (Model Proposal Platform): mercado de modelos en cadena que se puede combinar, invocar y pagar.

A través de los módulos anteriores, OpenLedger ha construido una "infraestructura económica de agentes inteligentes" impulsada por datos y modelos combinables, promoviendo la on-chainización de la cadena de valor de la IA.

OpenLedger Profundidad研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

Y en la adopción de la tecnología blockchain, OpenLedger utiliza OP Stack + EigenDA como base para construir un entorno de ejecución de datos y contratos de alto rendimiento, bajo costo y verificable para modelos de IA.

  • Construido sobre OP Stack: basado en la pila tecnológica de Optimism, soporta una alta profundidad y ejecución de bajos costos;
  • Liquidación en la red principal de Ethereum: Asegurar la seguridad de las transacciones y la integridad de los activos;
  • Compatible con EVM: facilita a los desarrolladores desplegar y expandir rápidamente basado en Solidity;
  • EigenDA proporciona soporte de disponibilidad de datos: reduce significativamente los costos de almacenamiento y garantiza la verificabilidad de los datos.

En comparación con ciertas cadenas públicas que son más de nivel inferior y se centran en la soberanía de datos y la arquitectura de "AI Agents on BOS", OpenLedger se enfoca más en construir cadenas de IA especializadas orientadas a incentivos de datos y modelos, comprometida a lograr que el desarrollo y la llamada de modelos se realicen en la cadena con un bucle de valor que sea rastreable, combinable y sostenible. Es la infraestructura de incentivos de modelos en el mundo de Web3, combinando el alojamiento de modelos al estilo de ciertas plataformas de alojamiento de modelos, la facturación de uso al estilo de ciertas plataformas de pago y las interfaces combinables en cadena al estilo de ciertos servicios de infraestructura, promoviendo el camino para la realización de "modelos como activos".

Tres, los componentes centrales y la arquitectura técnica de OpenLedger

3.1 Fábrica de Modelos, fábrica de modelos sin código

ModelFactory es una plataforma de ajuste fino de modelos de lenguaje (LLM) a gran escala bajo el ecosistema de OpenLedger. A diferencia de los marcos de ajuste fino tradicionales, ModelFactory ofrece una operación completamente gráfica, sin necesidad de herramientas de línea de comandos o integración de API. Los usuarios pueden ajustar modelos basándose en conjuntos de datos autorizados y revisados completados en OpenLedger. Se ha logrado un flujo de trabajo integrado de autorización de datos, entrenamiento de modelos y despliegue, cuyo proceso central incluye:

  • Control de acceso a datos: el usuario envía una solicitud de datos, el proveedor revisa y aprueba, los datos se integran automáticamente en la interfaz de entrenamiento del modelo.
  • Selección y configuración del modelo: Soporta los LLM más populares (como LLaMA, Mistral), configurando los hiperparámetros a través de la GUI.
  • Ajuste ligero: motor LoRA / QLoRA integrado que muestra en tiempo real el progreso del entrenamiento.
  • Evaluación y despliegue de modelos: Herramienta de evaluación integrada, soporta la exportación para despliegue o llamada de uso compartido en ecosistemas.
  • Interfaz de verificación interactiva: Proporciona una interfaz de chat, que facilita la prueba directa de la capacidad de respuesta del modelo.
  • Generación de RAG de trazabilidad: Responder con citas de origen, mejorando la confianza y la auditabilidad.

La arquitectura del sistema Model Factory incluye seis módulos, abarcando la autenticación de identidad, los permisos de datos, el ajuste fino de modelos, la evaluación y el despliegue, así como el rastreo RAG, creando una plataforma de servicios de modelos integrada que es segura y controlable, interactiva en tiempo real y sostenible en su monetización.

OpenLedger Profundidad研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

El siguiente es un resumen de las capacidades de los grandes modelos de lenguaje que actualmente admite ModelFactory:

  • Serie LLaMA: con el ecosistema más amplio, comunidad activa y un fuerte rendimiento general, es uno de los modelos base de código abierto más predominantes en la actualidad.
  • Mistral: arquitectura eficiente, rendimiento de inferencia excepcional, adecuada para escenarios de despliegue flexible y recursos limitados.
  • Qwen: Producto de una empresa, destaca en tareas en chino, tiene una gran capacidad integral, ideal para ser la primera opción de los desarrolladores nacionales.
  • ChatGLM: Efecto de conversación en chino destacado, adecuado para atención al cliente en nichos y escenarios de localización.
  • Deepseek: se destaca en generación de código y razonamiento matemático, adecuado para herramientas de asistencia en desarrollo inteligente.
  • Gemma: Un modelo ligero lanzado por una empresa, con una estructura clara, fácil de manejar y experimentar rápidamente.
  • Falcon: Antes fue un referente de rendimiento, adecuado para investigaciones básicas o pruebas comparativas, pero la actividad de la comunidad ha disminuido.
  • BLOOM: Soporte multilingüe fuerte, pero el rendimiento de inferencia es débil, adecuado para investigaciones de cobertura lingüística.
  • GPT-2: un modelo clásico temprano, adecuado solo para fines de enseñanza y verificación, no se recomienda su uso en implementaciones reales.

Aunque la combinación de modelos de OpenLedger no incluye los últimos modelos MoE de alto rendimiento ni modelos multimodales, su estrategia no está desactualizada, sino que se basa en las restricciones realistas de implementación en cadena (costos de inferencia, adaptación RAG, compatibilidad LoRA, entorno EVM) para hacer una configuración de "prioridad práctica".

Model Factory como una cadena de herramientas sin código, todos los modelos incorporan un mecanismo de prueba de contribución, asegurando los derechos de los contribuyentes de datos y desarrolladores de modelos, con las ventajas de bajo umbral, monetización y combinabilidad, en comparación con las herramientas tradicionales de desarrollo de modelos:

  • Para los desarrolladores: ofrecer un camino completo para la incubación, distribución e ingresos del modelo;
  • Para la plataforma: formar un ecosistema de circulación y combinación de activos modelo;
  • Para los aplicadores: se pueden combinar modelos o agentes de la misma manera que se llama a una API.

OpenLedger Profundidad研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

3.2 OpenLoRA, la tokenización de activos en cadena del modelo de ajuste fino

LoRA (Adaptación de Bajo Rango) es un método eficiente de ajuste de parámetros que aprende nuevas tareas al insertar "matrices de bajo rango" en un modelo grande preentrenado, sin modificar los parámetros del modelo original, lo que reduce significativamente los costos de entrenamiento y las necesidades de almacenamiento. Los modelos de lenguaje grandes tradicionales (como LLaMA, GPT-3) suelen tener decenas de miles de millones e incluso cientos de miles de millones de parámetros. Para utilizarlos en tareas específicas (como preguntas legales, consultas médicas), es necesario realizar un ajuste (fine-tuning). La estrategia central de LoRA es: "congelar los parámetros del modelo grande original, entrenar solo las nuevas matrices de parámetros insertadas." Su eficiencia de parámetros, entrenamiento rápido y despliegue flexible lo convierten en el método de ajuste más adecuado para el despliegue y la llamada combinada de modelos Web3 en la actualidad.

OpenLoRA es un marco de inferencia ligero construido por OpenLedger, diseñado específicamente para el despliegue de múltiples modelos y el intercambio de recursos. Su objetivo principal es abordar los problemas comunes en el despliegue de modelos de IA, como los altos costos, la baja reutilización y el desperdicio de recursos de GPU, promoviendo la implementación de la "IA Pagable" (Payable AI).

Componente central de la arquitectura del sistema OpenLoRA, basado en la configuración modular.

Ver originales
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Recompensa
  • 6
  • Compartir
Comentar
0/400
WhaleSurfervip
· hace18h
Escribiste la tarea muy bien.
Ver originalesResponder0
GateUser-c802f0e8vip
· hace18h
¿Cuándo podrá aterrizar la economía de agentes inteligentes?
Ver originalesResponder0
ShadowStakervip
· hace18h
meh... otro L2 intentando resolver ai con palabras de moda. muéstrame las estadísticas de mev primero, para ser honesto
Ver originalesResponder0
PrivateKeyParanoiavip
· hace18h
La economía de los agentes inteligentes, ¿es solo un discurso de VC?
Ver originalesResponder0
GasWastervip
· hace18h
Otra vez es hora de Cupones de clip.
Ver originalesResponder0
Ser_This_Is_A_Casinovip
· hace18h
3啊 Justo esperando para irse a la luna!
Ver originalesResponder0
  • Anclado
Opere con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)