OpenLedger constrói AI pagável: Stack OP + base EigenDA impulsiona a economia de dados e modelos

OpenLedger Profundidade研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

Uma introdução | A transição da camada de modelo do Crypto AI

Dados, modelos e poder computacional são os três principais elementos da infraestrutura de IA, comparáveis a combustível (dados), motor (modelo) e energia (poder computacional), todos essenciais. Semelhante ao caminho de evolução da infraestrutura da indústria de IA tradicional, o campo do Crypto AI também passou por etapas semelhantes. No início de 2024, o mercado foi dominado por projetos de GPU descentralizados ( uma plataforma de computação, uma plataforma de renderização, uma rede, etc. ), enfatizando amplamente a lógica de crescimento extensivo de "combate ao poder computacional". No entanto, a partir de 2025, o foco da indústria começou a se deslocar gradualmente para os níveis de modelo e dados, marcando a transição do Crypto AI de uma competição por recursos básicos para uma construção de médio nível mais sustentável e com valor de aplicação.

OpenLedgerProfundidade研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

Modelo Geral (LLM) vs Modelo Especializado (SLM)

Os modelos de linguagem tradicionais (LLM) dependem fortemente de grandes conjuntos de dados e de arquiteturas distribuídas complexas, com escalas de parâmetros variando de 70B a 500B, e o custo de um único treinamento pode facilmente atingir milhões de dólares. O SLM (Modelo de Linguagem Especializado), como um paradigma de ajuste fino leve que permite a reutilização de modelos básicos, geralmente é baseado em modelos de código aberto como LLaMA, Mistral e DeepSeek, combinando uma pequena quantidade de dados profissionais de alta qualidade e tecnologias como LoRA, para construir rapidamente modelos de especialistas com conhecimento em domínios específicos, reduzindo significativamente os custos de treinamento e as barreiras técnicas.

É importante notar que o SLM não será integrado nos pesos do LLM, mas sim colaborará com o LLM através da arquitetura Agent, roteamento dinâmico do sistema de plugins, hot-plug do módulo LoRA, RAG (Geração Aumentada por Recuperação) e outras maneiras. Esta arquitetura mantém a ampla capacidade de cobertura do LLM, enquanto melhora o desempenho especializado através de módulos de ajuste fino, formando um sistema inteligente combinatório altamente flexível.

O valor e os limites da Crypto AI na camada de modelo

Os projetos de IA Crypto, essencialmente, têm dificuldade em melhorar diretamente as capacidades centrais dos Modelos de Linguagem de Grande Escala (LLM), e a razão principal é que

  • Barreiras técnicas excessivamente altas: a escala de dados, os recursos computacionais e a capacidade de engenharia necessários para treinar um Modelo Base são imensos, atualmente apenas gigantes da tecnologia como os EUA (certas empresas, etc.) e a China (certas empresas, etc.) possuem a capacidade correspondente.
  • Limitações do ecossistema de código aberto: embora modelos fundamentais mainstream como LLaMA e Mixtral tenham sido abertos, a verdadeira chave para impulsionar os avanços dos modelos ainda está concentrada em instituições de pesquisa e sistemas de engenharia de código fechado, com espaço limitado para projetos em blockchain na camada do modelo central.

No entanto, em cima de modelos de base de código aberto, os projetos de Crypto AI ainda podem estender seu valor através do ajuste fino de modelos de linguagem especializados (SLM), combinando a verificabilidade e mecanismos de incentivo do Web3. Como uma "camada de interface periférica" da cadeia industrial de IA, isso se manifesta em duas direções principais:

  • Camada de validação confiável: através do registro em cadeia do caminho de geração do modelo, contribuições de dados e utilização, aumenta a rastreabilidade e a resistência à adulteração das saídas de IA.
  • Mecanismo de incentivo: Através do Token nativo, utilizado para incentivar o upload de dados, chamadas de modelo, execução de agentes (Agent) e outras ações, construindo um ciclo positivo de treinamento e serviço de modelo.

Classificação de tipos de modelos de IA e análise de aplicabilidade em blockchain

Assim, pode-se ver que os pontos de viabilidade dos projetos de IA Crypto do tipo modelo estão principalmente concentrados na afinação leve de SLMs pequenos, na integração e verificação de dados on-chain da arquitetura RAG, e na implementação local e incentivos dos modelos Edge. Combinando a verificabilidade da blockchain e o mecanismo de tokens, o Crypto pode oferecer um valor único para esses cenários de modelos de recursos médios e baixos, formando um valor diferenciado na "camada de interface" da IA.

A cadeia de blocos AI baseada em dados e modelos pode registrar claramente e de forma imutável a origem da contribuição de cada dado e modelo, aumentando significativamente a confiabilidade dos dados e a rastreabilidade do treinamento do modelo. Ao mesmo tempo, através do mecanismo de contratos inteligentes, a distribuição de recompensas é automaticamente acionada quando dados ou modelos são utilizados, transformando o comportamento da IA em um valor tokenizado mensurável e negociável, construindo um sistema de incentivos sustentável. Além disso, os usuários da comunidade também podem avaliar o desempenho do modelo através de votação com tokens, participar da formulação e iteração de regras, aprimorando a estrutura de governança descentralizada.

OpenLedgerProfundidade研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

Dois, Visão Geral do Projeto | A visão da cadeia de IA da OpenLedger

OpenLedger é um dos poucos projetos de blockchain AI atualmente no mercado que se concentra em mecanismos de incentivo para dados e modelos. Foi o primeiro a propor o conceito de "Payable AI", com o objetivo de construir um ambiente operacional de AI justo, transparente e combinável, incentivando colaboradores de dados, desenvolvedores de modelos e construtores de aplicações de AI a colaborar na mesma plataforma e a receber rendimentos em cadeia com base nas contribuições reais.

OpenLedger oferece um ciclo completo que vai desde "fornecimento de dados" até "implantação de modelos" e "chamada de distribuição de lucros", sendo seus módulos centrais:

  • Fábrica de Modelos: sem necessidade de programação, é possível usar o LoRA para ajustar e treinar modelos personalizados com base em LLM de código aberto.
  • OpenLoRA: suporta a coexistência de mil modelos, carregamento dinâmico conforme necessário, reduzindo significativamente os custos de implementação;
  • PoA (Prova de Atribuição): Medição de contribuição e distribuição de recompensas através do registro de chamadas na cadeia;
  • Datanets: Rede de dados estruturados voltada para cenários verticais, construída e verificada pela colaboração da comunidade;
  • Plataforma de Propostas de Modelos (Model Proposal Platform): mercado de modelos on-chain que é combinável, chamável e pagável.

Através dos módulos acima, a OpenLedger construiu uma "infraestrutura econômica de agentes inteligentes" orientada por dados e com modelos combináveis, promovendo a cadeia de valor de IA na blockchain.

OpenLedgerProfundidade研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

E na adoção da tecnologia blockchain, a OpenLedger usa OP Stack + EigenDA como base, criando um ambiente de execução de dados e contratos de alto desempenho, baixo custo e verificável para modelos de IA.

  • Construído sobre a OP Stack: Baseado na pilha tecnológica da Optimism, suporta alta taxa de transferência e execução de baixas taxas.
  • Liquidar na rede principal do Ethereum: garantir a segurança das transações e a integridade dos ativos;
  • Compatível com EVM: Facilita aos desenvolvedores a rápida implementação e expansão com base em Solidity;
  • EigenDA fornece suporte à disponibilidade de dados: reduz significativamente os custos de armazenamento, garantindo a verificabilidade dos dados.

Comparado a certas blockchains públicas que são mais voltadas para a camada base e focadas na soberania dos dados, como a arquitetura de "AI Agents on BOS", a OpenLedger concentra-se mais na construção de uma blockchain dedicada à IA orientada para dados e incentivos de modelos, comprometendo-se a tornar o desenvolvimento e a invocação de modelos rastreáveis, combináveis e sustentáveis em um ciclo de valor. É a infraestrutura de incentivo de modelos no mundo Web3, combinando a hospedagem de modelos semelhante a uma plataforma de hospedagem de modelos, a cobrança de uso semelhante a uma plataforma de pagamento e interfaces combináveis na blockchain semelhantes a serviços de infraestrutura, promovendo o caminho para a realização de "modelos como ativos".

Três, os componentes centrais e a arquitetura técnica da OpenLedger

3.1 Fábrica de Modelos, modelo de fábrica sem código

ModelFactory é uma plataforma de ajuste fino de grandes modelos de linguagem (LLM) sob o ecossistema OpenLedger. Ao contrário dos frameworks tradicionais de ajuste fino, o ModelFactory oferece uma interface gráfica pura, sem necessidade de ferramentas de linha de comando ou integração de API. Os usuários podem ajustar o modelo com base em conjuntos de dados que foram autorizados e auditados na OpenLedger. Isso implementa um fluxo de trabalho integrado de autorização de dados, treinamento de modelos e implantação, e o processo central inclui:

  • Controle de acesso a dados: O usuário envia um pedido de dados, o provedor revisa e aprova, os dados são automaticamente integrados à interface de treinamento do modelo.
  • Seleção e configuração de modelos: Suporta LLMs populares (como LLaMA, Mistral), configurando hiperparâmetros através da interface gráfica.
  • Ajuste leve: motor LoRA / QLoRA embutido, exibição em tempo real do progresso do treinamento.
  • Avaliação e Implementação de Modelos: Ferramentas de avaliação integradas, suportando exportação para implementação ou compartilhamento de chamadas no ecossistema.
  • Interface de Verificação Interativa: fornece uma interface de chat, facilitando o teste direto da capacidade de resposta do modelo.
  • Geração de RAG: Respostas com citações de origem, aumentando a confiança e a auditabilidade.

A arquitetura do sistema Model Factory inclui seis grandes módulos, abrangendo autenticação de identidade, permissões de dados, ajuste fino de modelos, avaliação e implantação, além de rastreamento RAG, criando uma plataforma de serviços de modelos integrada, segura e controlável, com interação em tempo real e potencial de monetização sustentável.

OpenLedgerProfundidade研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

O resumo das capacidades dos grandes modelos de linguagem atualmente suportados pelo ModelFactory é o seguinte:

  • Série LLaMA: Ecossistema mais amplo, comunidade ativa, desempenho geral forte, é um dos modelos base de código aberto mais populares atualmente.
  • Mistral: Arquitetura eficiente, desempenho de inferência excelente, adequada para cenários de implantação flexíveis e recursos limitados.
  • Qwen: Produto de uma empresa, com excelente desempenho em tarefas em chinês, forte capacidade geral, ideal para desenvolvedores nacionais.
  • ChatGLM: Efeito de conversa em chinês destacado, adequado para serviços de atendimento em nichos e cenários de localização.
  • Deepseek: apresenta desempenho superior em geração de código e raciocínio matemático, adequado para ferramentas de assistência ao desenvolvimento inteligente.
  • Gemma: Um modelo leve lançado por uma empresa, com uma estrutura clara, fácil de começar rapidamente e experimentar.
  • Falcon: Foi uma referência de desempenho, adequada para pesquisa básica ou testes comparativos, mas a atividade da comunidade diminuiu.
  • BLOOM: Suporte multilíngue forte, mas desempenho de raciocínio fraco, adequado para pesquisas de cobertura linguística.
  • GPT-2: modelo clássico inicial, adequado apenas para fins de ensino e verificação, não recomendado para uso em implantação real.

Embora a combinação de modelos da OpenLedger não inclua os mais recentes modelos MoE de alto desempenho ou modelos multimodais, sua estratégia não está ultrapassada, mas sim baseada nas restrições práticas de implantação em cadeia (custo de inferência, adaptação RAG, compatibilidade LoRA, ambiente EVM) que resultam em uma configuração "prioridade prática".

Model Factory como uma cadeia de ferramentas sem código, todos os modelos incorporam um mecanismo de prova de contribuição, garantindo os direitos dos contribuidores de dados e dos desenvolvedores de modelos. Tem as vantagens de baixa barreira, monetizável e combinável, em comparação com as ferramentas tradicionais de desenvolvimento de modelos:

  • Para desenvolvedores: fornecer um caminho completo para incubação, distribuição e receita do modelo;
  • Para a plataforma: formar um ecossistema de circulação e combinação de ativos modelo;
  • Para os utilizadores: é possível combinar modelos ou agentes como se estivesse a chamar uma API.

OpenLedger Profundidade研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

3.2 OpenLoRA, a tokenização de ativos em cadeia de modelos de fine-tuning

LoRA (Low-Rank Adaptation) é um método de ajuste fino de parâmetros eficiente, que aprende novas tarefas através da inserção de "matrizes de baixa classificação" em grandes modelos pré-treinados, sem modificar os parâmetros do modelo original, reduzindo assim significativamente os custos de treinamento e as necessidades de armazenamento. Modelos de linguagem grandes tradicionais (como LLaMA, GPT-3) costumam ter dezenas de bilhões ou até trilhões de parâmetros. Para utilizá-los em tarefas específicas (como perguntas e respostas jurídicas, consultas médicas), é necessário realizar um ajuste fino. A estratégia central do LoRA é: "congelar os parâmetros do grande modelo original e treinar apenas as novas matrizes de parâmetros inseridas." Seus parâmetros são eficientes, o treinamento é rápido e a implantação é flexível, tornando-se o método de ajuste fino mais adequado atualmente para a implantação e chamada combinada de modelos Web3.

OpenLoRA é um framework de inferência leve projetado pela OpenLedger, especialmente para o deploy de múltiplos modelos e compartilhamento de recursos. Seu objetivo central é resolver os problemas comuns de alto custo, baixa reutilização e desperdício de recursos de GPU enfrentados atualmente na implementação de modelos de IA, promovendo a execução de "IA Pagável".

Componente central da arquitetura do sistema OpenLoRA, baseado em configuração modular.

Ver original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Recompensa
  • 6
  • Compartilhar
Comentário
0/400
WhaleSurfervip
· 17h atrás
A cópia do trabalho está realmente boa.
Ver originalResponder0
GateUser-c802f0e8vip
· 17h atrás
Quando é que a economia dos agentes inteligentes vai ser implementada?
Ver originalResponder0
ShadowStakervip
· 17h atrás
meh... outro L2 tentando resolver ai com palavras da moda. mostra-me as estatísticas de mev primeiro tbh
Ver originalResponder0
PrivateKeyParanoiavip
· 18h atrás
Economia de agentes inteligentes, é só conversa de VC.
Ver originalResponder0
GasWastervip
· 18h atrás
又到Cupões de Recorte时间惹
Ver originalResponder0
Ser_This_Is_A_Casinovip
· 18h atrás
3啊 就等着要 Até à lua 了!
Ver originalResponder0
  • Marcar
Faça trade de criptomoedas em qualquer lugar e a qualquer hora
qrCode
Escaneie o código para baixar o app da Gate
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)