Relatório de Pesquisa AI Layer1: Encontrando o solo fértil para DeAI na cadeia
Resumo
Nos últimos anos, empresas de tecnologia de ponta como OpenAI, Anthropic, Google e Meta têm impulsionado o desenvolvimento acelerado de modelos de linguagem de grande porte (LLM). Os LLM demonstraram habilidades sem precedentes em diversos setores, expandindo enormemente o espaço de imaginação humana e, em alguns cenários, mostrando potencial para substituir o trabalho humano. No entanto, o núcleo dessas tecnologias continua sob o controle firme de poucos gigantes da tecnologia centralizados. Com um capital robusto e controle sobre recursos computacionais caros, essas empresas estabeleceram barreiras quase intransponíveis, dificultando a competição para a grande maioria dos desenvolvedores e equipes de inovação.
Ao mesmo tempo, no início da rápida evolução da IA, a opinião pública tende a se concentrar nos avanços e conveniências trazidos pela tecnologia, enquanto a atenção a questões centrais como proteção da privacidade, transparência e segurança é relativamente insuficiente. A longo prazo, esses problemas terão um impacto profundo no desenvolvimento saudável da indústria de IA e na aceitação social. Se não forem adequadamente resolvidos, a controvérsia sobre se a IA deve "fazer o bem" ou "fazer o mal" se tornará cada vez mais proeminente, e os gigantes centralizados, impulsionados pelo instinto de lucro, muitas vezes carecem de motivação suficiente para enfrentar esses desafios de forma proativa.
A tecnologia de blockchain, graças às suas características de descentralização, transparência e resistência à censura, oferece novas possibilidades para o desenvolvimento sustentável da indústria de IA. Atualmente, já surgiram inúmeras aplicações "Web3 AI" nas principais blockchains. No entanto, uma análise mais profunda revela que esses projetos ainda enfrentam vários problemas: por um lado, o grau de descentralização é limitado, e etapas e infraestruturas-chave ainda dependem de serviços de nuvem centralizados, dificultando o suporte a um ecossistema verdadeiramente aberto; por outro lado, em comparação com os produtos de IA do mundo Web2, a IA na cadeia ainda apresenta limitações em termos de capacidade do modelo, utilização de dados e cenários de aplicação, e a profundidade e amplitude da inovação precisam ser aprimoradas.
Para realmente alcançar a visão de uma IA descentralizada, permitindo que a blockchain suporte aplicações de IA em larga escala de forma segura, eficiente e democrática, e que possa competir em desempenho com soluções centralizadas, precisamos projetar uma blockchain Layer 1 feita sob medida para IA. Isso proporcionará uma base sólida para a inovação aberta em IA, a democracia na governança e a segurança dos dados, promovendo o próspero desenvolvimento do ecossistema de IA descentralizada.
As principais características da camada 1 de IA
AI Layer 1, como uma blockchain projetada especificamente para aplicações de IA, tem sua arquitetura subjacente e design de desempenho fortemente centrados nas necessidades das tarefas de IA, visando apoiar de forma eficiente o desenvolvimento sustentável e a prosperidade do ecossistema de IA na cadeia. Especificamente, o AI Layer 1 deve possuir as seguintes capacidades principais:
Mecanismos de incentivo eficientes e consenso descentralizado
O núcleo do AI Layer 1 está em construir uma rede de compartilhamento de recursos abertos, como poder computacional e armazenamento. Diferente dos nós tradicionais de blockchain que se concentram principalmente na contabilidade do livro-razão, os nós do AI Layer 1 precisam assumir tarefas mais complexas, não apenas fornecendo poder computacional e completando o treinamento e a inferência de modelos de IA, mas também contribuindo com armazenamento, dados, largura de banda e outros recursos diversificados, quebrando assim o monopólio de gigantes centralizados na infraestrutura de IA. Isso impõe exigências mais elevadas para o consenso subjacente e o mecanismo de incentivos: o AI Layer 1 deve ser capaz de avaliar, incentivar e validar com precisão a contribuição real dos nós em tarefas como inferência e treinamento de IA, alcançando a segurança da rede e a alocação eficiente de recursos. Só assim é possível garantir a estabilidade e a prosperidade da rede, além de reduzir efetivamente o custo total de poder computacional.
Desempenho de alta qualidade e capacidade de suporte a tarefas heterogêneas
As tarefas de IA, especialmente o treinamento e a inferência de LLM, exigem um desempenho computacional e uma capacidade de processamento paralelo extremamente altos. Além disso, o ecossistema de IA na cadeia muitas vezes precisa apoiar uma variedade de tipos de tarefas, incluindo diferentes estruturas de modelos, processamento de dados, inferência, armazenamento e outros cenários diversos. A IA Layer 1 deve ser profundamente otimizada em sua arquitetura subjacente para atender às demandas de alta taxa de transferência, baixa latência e paralelismo flexível, e deve ter suporte nativo pré-configurado para recursos de computação heterogêneos, garantindo que várias tarefas de IA possam ser executadas de forma eficiente, permitindo uma expansão suave de "tarefas únicas" para um "ecossistema complexo e diversificado."
Verificabilidade e garantia de saída confiável
O AI Layer 1 não só deve prevenir riscos de segurança, como a má conduta de modelos e a manipulação de dados, mas também garantir a verificabilidade e a conformidade dos resultados gerados pela IA a partir da sua mecânica subjacente. Ao integrar tecnologias de ponta como Ambientes de Execução Confiáveis (TEE), Provas de Conhecimento Zero (ZK) e Cálculo Seguro Multi-Partes (MPC), a plataforma permite que cada inferência de modelo, treinamento e processo de tratamento de dados sejam verificados de forma independente, assegurando a justiça e a transparência do sistema de IA. Ao mesmo tempo, essa verificabilidade ajuda os usuários a compreender a lógica e a fundamentação das saídas de IA, realizando "o que se obtém é o que se deseja", aumentando a confiança e a satisfação dos usuários em relação aos produtos de IA.
Proteção da privacidade dos dados
As aplicações de IA frequentemente envolvem dados sensíveis dos usuários, sendo a proteção da privacidade dos dados especialmente crucial em áreas como finanças, saúde e redes sociais. O AI Layer 1 deve adotar tecnologias de processamento de dados baseadas em criptografia, protocolos de computação privada e gestão de permissões de dados, garantindo a segurança dos dados em todo o processo de inferência, treinamento e armazenamento, prevenindo eficazmente vazamentos e abusos de dados, e eliminando as preocupações dos usuários em relação à segurança dos dados.
Capacidade poderosa de suporte ao desenvolvimento e à carga do ecossistema
Como uma infraestrutura Layer 1 nativa de IA, a plataforma não só deve ter uma liderança técnica, mas também fornecer ferramentas de desenvolvimento completas, SDKs integrados, suporte operacional e mecanismos de incentivo para desenvolvedores, operadores de nós, prestadores de serviços de IA e outros participantes do ecossistema. Ao otimizar continuamente a usabilidade da plataforma e a experiência do desenvolvedor, promovemos a implementação de aplicações nativas de IA ricas e diversificadas, alcançando a prosperidade contínua do ecossistema de IA descentralizada.
Com base no contexto e nas expectativas acima, este artigo apresentará em detalhe seis projetos representativos de AI Layer1, incluindo Sentient, Sahara AI, Ritual, Gensyn, Bittensor e 0G, sistematizando os últimos avanços da pista, analisando o estado atual dos projetos e discutindo as tendências futuras.
Sentient: Construir modelos de IA descentralizados de código aberto e leais
Visão Geral do Projeto
Sentient é uma plataforma de protocolo de código aberto, que está a construir uma blockchain AI Layer1 ( na fase inicial como Layer 2, e depois migrará para Layer 1). Ao combinar AI Pipeline e tecnologia de blockchain, pretende construir uma economia de inteligência artificial descentralizada. O seu objetivo central é resolver os problemas de titularidade de modelos, rastreamento de chamadas e distribuição de valor no mercado LLM centralizado através da estrutura "OML" (aberta, lucrativa, leal), permitindo que os modelos de IA realizem uma estrutura de propriedade na cadeia, transparência nas chamadas e distribuição de valor. A visão da Sentient é permitir que qualquer pessoa possa construir, colaborar, possuir e monetizar produtos de IA, promovendo assim um ecossistema de rede de Agentes de IA justo e aberto.
A equipe da Sentient Foundation reúne os principais especialistas acadêmicos, empreendedores de blockchain e engenheiros do mundo, dedicando-se a construir uma plataforma AGI comunitária, de código aberto e verificável. Os membros principais incluem o professor Pramod Viswanath da Universidade de Princeton e o professor Himanshu Tyagi do Instituto Indiano de Ciência, responsáveis pela segurança e proteção da privacidade da IA, enquanto a estratégia de blockchain e a disposição ecológica são lideradas por Sandeep Nailwal, cofundador da Polygon. Os membros da equipe têm experiência em empresas renomadas como Meta, Coinbase, Polygon, bem como em universidades de destaque como a Universidade de Princeton e o Instituto Indiano de Tecnologia, abrangendo áreas como AI/ML, NLP e visão computacional, colaborando para a implementação do projeto.
Como um projeto de segunda empreitada de Sandeep Nailwal, cofundador da Polygon, a Sentient nasceu com um halo de prestígio, possuindo recursos abundantes, conexões e reconhecimento de mercado, o que oferece um forte respaldo para o desenvolvimento do projeto. Em meados de 2024, a Sentient completou uma rodada de financiamento seed de 85 milhões de dólares, liderada pelo Founders Fund, Pantera e Framework Ventures, com outros investidores incluindo Delphi, Hashkey e várias dezenas de VCs renomados.
arquitetura de design e camada de aplicação
Infraestrutura
Arquitetura Central
A arquitetura central do Sentient é composta por um Pipeline de IA e um sistema de na cadeia:
O pipeline de IA é a base para o desenvolvimento e treinamento de artefatos de "IA Leal", contendo dois processos centrais:
Planejamento de Dados (Data Curation): Processo de seleção de dados impulsionado pela comunidade, utilizado para o alinhamento do modelo.
Treino de Lealdade (Loyalty Training): garantir que o modelo mantenha um processo de treino consistente com a intenção da comunidade.
O sistema de blockchain proporciona transparência e controle descentralizado para os protocolos, garantindo a propriedade dos artefatos de IA, o rastreamento de uso, a distribuição de receitas e a governança justa. A arquitetura específica é dividida em quatro camadas:
Camada de armazenamento: armazena pesos do modelo e informações de registro de impressões digitais;
Camada de distribuição: o contrato de autorização controla a entrada da chamada do modelo;
Camada de acesso: verifica se o usuário está autorizado através de provas de permissão;
Camada de incentivo: o contrato de roteamento de receitas distribuirá o pagamento a cada chamada para os treinadores, implementadores e validadores.
O modelo OML
A estrutura OML (Aberto Open, Monetizável Monetizable, Leal Loyal) é o conceito central proposto pela Sentient, destinado a fornecer proteção clara de propriedade e mecanismos de incentivo econômico para modelos de IA de código aberto. Ao combinar tecnologia na cadeia e criptografia nativa da IA, possui as seguintes características:
Abertura: O modelo deve ser de código aberto, com código e estrutura de dados transparentes, facilitando a reprodução, auditoria e melhoria pela comunidade.
Monetização: Cada chamada ao modelo gera um fluxo de receita, o contrato na cadeia distribui os ganhos para os treinadores, implementadores e validadores.
Lealdade: O modelo pertence à comunidade de contribuidores, a direção de atualização e a governança são decididas pela DAO, e o uso e modificação estão sob controle de mecanismos criptográficos.
Criptografia nativa de IA (AI-native Cryptography)
A criptografia nativa de IA utiliza a continuidade dos modelos de IA, a estrutura de variedade de baixa dimensão e a propriedade de diferenciabilidade dos modelos para desenvolver um mecanismo de segurança leve "verificável, mas não removível". A sua tecnologia central é:
Impressão digital incorporada: durante o treinamento, insere-se um conjunto de pares chave-valor de query-response ocultos para formar a assinatura única do modelo;
Protocolo de verificação de propriedade: verificar se a impressão digital foi mantida através de um detector de terceiros (Prover) na forma de uma pergunta query;
Mecanismo de chamada de permissão: é necessário obter o "certificado de autorização" emitido pelo proprietário do modelo antes da chamada, e o sistema autoriza o modelo a decodificar a entrada e retornar a resposta correta com base nisso.
Este método permite realizar "chamadas autorizadas baseadas em comportamento + validação de pertencimento" sem custos de recriptografia.
Estrutura de execução segura e de atribuição de direitos para modelos
Sentient atualmente utiliza a segurança Melange: combinação de autenticação por impressão digital, execução TEE e contratos na cadeia para partilha de lucros. O método de impressão digital é a implementação da OML 1.0, enfatizando a ideia de "segurança otimista (Optimistic Security)", ou seja, conformidade por padrão, com a possibilidade de detecção e punição em caso de violação.
O mecanismo de impressões digitais é a implementação chave do OML, permitindo que o modelo gere assinaturas únicas durante a fase de treinamento através da inserção de pares específicos de "pergunta-resposta". Com essas assinaturas, os proprietários do modelo podem verificar a propriedade, evitando cópias e comercializações não autorizadas. Este mecanismo não só protege os direitos dos desenvolvedores do modelo, mas também fornece um registro rastreável na cadeia das atividades de uso do modelo.
Além disso, a Sentient lançou a estrutura de computação Enclave TEE, que utiliza ambientes de execução confiáveis (como o AWS Nitro Enclaves) para garantir que o modelo responda apenas a solicitações autorizadas, prevenindo o acesso e uso não autorizados. Embora o TEE dependa de hardware e apresente algumas vulnerabilidades de segurança, suas vantagens de alto desempenho e tempo real fazem dele uma opção atual para a implantação de modelos.
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
12 Curtidas
Recompensa
12
5
Compartilhar
Comentário
0/400
AirdropChaser
· 6h atrás
Não vou olhar mais, vamos investir na ideia de IA.
Ver originalResponder0
AirdropFreedom
· 6h atrás
deai? ai estragou tudo, não é?
Ver originalResponder0
EyeOfTheTokenStorm
· 6h atrás
Ações tipo A estão todas em cena, agora o embarque é preso.
Ver originalResponder0
WhaleMistaker
· 6h atrás
Monopólio, não é? Mais cedo ou mais tarde, vai entrar em colapso.
AI Layer1 Profundidade解析:6大项目点燃DeAI沃土
Relatório de Pesquisa AI Layer1: Encontrando o solo fértil para DeAI na cadeia
Resumo
Nos últimos anos, empresas de tecnologia de ponta como OpenAI, Anthropic, Google e Meta têm impulsionado o desenvolvimento acelerado de modelos de linguagem de grande porte (LLM). Os LLM demonstraram habilidades sem precedentes em diversos setores, expandindo enormemente o espaço de imaginação humana e, em alguns cenários, mostrando potencial para substituir o trabalho humano. No entanto, o núcleo dessas tecnologias continua sob o controle firme de poucos gigantes da tecnologia centralizados. Com um capital robusto e controle sobre recursos computacionais caros, essas empresas estabeleceram barreiras quase intransponíveis, dificultando a competição para a grande maioria dos desenvolvedores e equipes de inovação.
Ao mesmo tempo, no início da rápida evolução da IA, a opinião pública tende a se concentrar nos avanços e conveniências trazidos pela tecnologia, enquanto a atenção a questões centrais como proteção da privacidade, transparência e segurança é relativamente insuficiente. A longo prazo, esses problemas terão um impacto profundo no desenvolvimento saudável da indústria de IA e na aceitação social. Se não forem adequadamente resolvidos, a controvérsia sobre se a IA deve "fazer o bem" ou "fazer o mal" se tornará cada vez mais proeminente, e os gigantes centralizados, impulsionados pelo instinto de lucro, muitas vezes carecem de motivação suficiente para enfrentar esses desafios de forma proativa.
A tecnologia de blockchain, graças às suas características de descentralização, transparência e resistência à censura, oferece novas possibilidades para o desenvolvimento sustentável da indústria de IA. Atualmente, já surgiram inúmeras aplicações "Web3 AI" nas principais blockchains. No entanto, uma análise mais profunda revela que esses projetos ainda enfrentam vários problemas: por um lado, o grau de descentralização é limitado, e etapas e infraestruturas-chave ainda dependem de serviços de nuvem centralizados, dificultando o suporte a um ecossistema verdadeiramente aberto; por outro lado, em comparação com os produtos de IA do mundo Web2, a IA na cadeia ainda apresenta limitações em termos de capacidade do modelo, utilização de dados e cenários de aplicação, e a profundidade e amplitude da inovação precisam ser aprimoradas.
Para realmente alcançar a visão de uma IA descentralizada, permitindo que a blockchain suporte aplicações de IA em larga escala de forma segura, eficiente e democrática, e que possa competir em desempenho com soluções centralizadas, precisamos projetar uma blockchain Layer 1 feita sob medida para IA. Isso proporcionará uma base sólida para a inovação aberta em IA, a democracia na governança e a segurança dos dados, promovendo o próspero desenvolvimento do ecossistema de IA descentralizada.
As principais características da camada 1 de IA
AI Layer 1, como uma blockchain projetada especificamente para aplicações de IA, tem sua arquitetura subjacente e design de desempenho fortemente centrados nas necessidades das tarefas de IA, visando apoiar de forma eficiente o desenvolvimento sustentável e a prosperidade do ecossistema de IA na cadeia. Especificamente, o AI Layer 1 deve possuir as seguintes capacidades principais:
Mecanismos de incentivo eficientes e consenso descentralizado O núcleo do AI Layer 1 está em construir uma rede de compartilhamento de recursos abertos, como poder computacional e armazenamento. Diferente dos nós tradicionais de blockchain que se concentram principalmente na contabilidade do livro-razão, os nós do AI Layer 1 precisam assumir tarefas mais complexas, não apenas fornecendo poder computacional e completando o treinamento e a inferência de modelos de IA, mas também contribuindo com armazenamento, dados, largura de banda e outros recursos diversificados, quebrando assim o monopólio de gigantes centralizados na infraestrutura de IA. Isso impõe exigências mais elevadas para o consenso subjacente e o mecanismo de incentivos: o AI Layer 1 deve ser capaz de avaliar, incentivar e validar com precisão a contribuição real dos nós em tarefas como inferência e treinamento de IA, alcançando a segurança da rede e a alocação eficiente de recursos. Só assim é possível garantir a estabilidade e a prosperidade da rede, além de reduzir efetivamente o custo total de poder computacional.
Desempenho de alta qualidade e capacidade de suporte a tarefas heterogêneas As tarefas de IA, especialmente o treinamento e a inferência de LLM, exigem um desempenho computacional e uma capacidade de processamento paralelo extremamente altos. Além disso, o ecossistema de IA na cadeia muitas vezes precisa apoiar uma variedade de tipos de tarefas, incluindo diferentes estruturas de modelos, processamento de dados, inferência, armazenamento e outros cenários diversos. A IA Layer 1 deve ser profundamente otimizada em sua arquitetura subjacente para atender às demandas de alta taxa de transferência, baixa latência e paralelismo flexível, e deve ter suporte nativo pré-configurado para recursos de computação heterogêneos, garantindo que várias tarefas de IA possam ser executadas de forma eficiente, permitindo uma expansão suave de "tarefas únicas" para um "ecossistema complexo e diversificado."
Verificabilidade e garantia de saída confiável O AI Layer 1 não só deve prevenir riscos de segurança, como a má conduta de modelos e a manipulação de dados, mas também garantir a verificabilidade e a conformidade dos resultados gerados pela IA a partir da sua mecânica subjacente. Ao integrar tecnologias de ponta como Ambientes de Execução Confiáveis (TEE), Provas de Conhecimento Zero (ZK) e Cálculo Seguro Multi-Partes (MPC), a plataforma permite que cada inferência de modelo, treinamento e processo de tratamento de dados sejam verificados de forma independente, assegurando a justiça e a transparência do sistema de IA. Ao mesmo tempo, essa verificabilidade ajuda os usuários a compreender a lógica e a fundamentação das saídas de IA, realizando "o que se obtém é o que se deseja", aumentando a confiança e a satisfação dos usuários em relação aos produtos de IA.
Proteção da privacidade dos dados As aplicações de IA frequentemente envolvem dados sensíveis dos usuários, sendo a proteção da privacidade dos dados especialmente crucial em áreas como finanças, saúde e redes sociais. O AI Layer 1 deve adotar tecnologias de processamento de dados baseadas em criptografia, protocolos de computação privada e gestão de permissões de dados, garantindo a segurança dos dados em todo o processo de inferência, treinamento e armazenamento, prevenindo eficazmente vazamentos e abusos de dados, e eliminando as preocupações dos usuários em relação à segurança dos dados.
Capacidade poderosa de suporte ao desenvolvimento e à carga do ecossistema Como uma infraestrutura Layer 1 nativa de IA, a plataforma não só deve ter uma liderança técnica, mas também fornecer ferramentas de desenvolvimento completas, SDKs integrados, suporte operacional e mecanismos de incentivo para desenvolvedores, operadores de nós, prestadores de serviços de IA e outros participantes do ecossistema. Ao otimizar continuamente a usabilidade da plataforma e a experiência do desenvolvedor, promovemos a implementação de aplicações nativas de IA ricas e diversificadas, alcançando a prosperidade contínua do ecossistema de IA descentralizada.
Com base no contexto e nas expectativas acima, este artigo apresentará em detalhe seis projetos representativos de AI Layer1, incluindo Sentient, Sahara AI, Ritual, Gensyn, Bittensor e 0G, sistematizando os últimos avanços da pista, analisando o estado atual dos projetos e discutindo as tendências futuras.
Sentient: Construir modelos de IA descentralizados de código aberto e leais
Visão Geral do Projeto
Sentient é uma plataforma de protocolo de código aberto, que está a construir uma blockchain AI Layer1 ( na fase inicial como Layer 2, e depois migrará para Layer 1). Ao combinar AI Pipeline e tecnologia de blockchain, pretende construir uma economia de inteligência artificial descentralizada. O seu objetivo central é resolver os problemas de titularidade de modelos, rastreamento de chamadas e distribuição de valor no mercado LLM centralizado através da estrutura "OML" (aberta, lucrativa, leal), permitindo que os modelos de IA realizem uma estrutura de propriedade na cadeia, transparência nas chamadas e distribuição de valor. A visão da Sentient é permitir que qualquer pessoa possa construir, colaborar, possuir e monetizar produtos de IA, promovendo assim um ecossistema de rede de Agentes de IA justo e aberto.
A equipe da Sentient Foundation reúne os principais especialistas acadêmicos, empreendedores de blockchain e engenheiros do mundo, dedicando-se a construir uma plataforma AGI comunitária, de código aberto e verificável. Os membros principais incluem o professor Pramod Viswanath da Universidade de Princeton e o professor Himanshu Tyagi do Instituto Indiano de Ciência, responsáveis pela segurança e proteção da privacidade da IA, enquanto a estratégia de blockchain e a disposição ecológica são lideradas por Sandeep Nailwal, cofundador da Polygon. Os membros da equipe têm experiência em empresas renomadas como Meta, Coinbase, Polygon, bem como em universidades de destaque como a Universidade de Princeton e o Instituto Indiano de Tecnologia, abrangendo áreas como AI/ML, NLP e visão computacional, colaborando para a implementação do projeto.
Como um projeto de segunda empreitada de Sandeep Nailwal, cofundador da Polygon, a Sentient nasceu com um halo de prestígio, possuindo recursos abundantes, conexões e reconhecimento de mercado, o que oferece um forte respaldo para o desenvolvimento do projeto. Em meados de 2024, a Sentient completou uma rodada de financiamento seed de 85 milhões de dólares, liderada pelo Founders Fund, Pantera e Framework Ventures, com outros investidores incluindo Delphi, Hashkey e várias dezenas de VCs renomados.
arquitetura de design e camada de aplicação
Infraestrutura
Arquitetura Central
A arquitetura central do Sentient é composta por um Pipeline de IA e um sistema de na cadeia:
O pipeline de IA é a base para o desenvolvimento e treinamento de artefatos de "IA Leal", contendo dois processos centrais:
O sistema de blockchain proporciona transparência e controle descentralizado para os protocolos, garantindo a propriedade dos artefatos de IA, o rastreamento de uso, a distribuição de receitas e a governança justa. A arquitetura específica é dividida em quatro camadas:
O modelo OML
A estrutura OML (Aberto Open, Monetizável Monetizable, Leal Loyal) é o conceito central proposto pela Sentient, destinado a fornecer proteção clara de propriedade e mecanismos de incentivo econômico para modelos de IA de código aberto. Ao combinar tecnologia na cadeia e criptografia nativa da IA, possui as seguintes características:
Criptografia nativa de IA (AI-native Cryptography)
A criptografia nativa de IA utiliza a continuidade dos modelos de IA, a estrutura de variedade de baixa dimensão e a propriedade de diferenciabilidade dos modelos para desenvolver um mecanismo de segurança leve "verificável, mas não removível". A sua tecnologia central é:
Este método permite realizar "chamadas autorizadas baseadas em comportamento + validação de pertencimento" sem custos de recriptografia.
Estrutura de execução segura e de atribuição de direitos para modelos
Sentient atualmente utiliza a segurança Melange: combinação de autenticação por impressão digital, execução TEE e contratos na cadeia para partilha de lucros. O método de impressão digital é a implementação da OML 1.0, enfatizando a ideia de "segurança otimista (Optimistic Security)", ou seja, conformidade por padrão, com a possibilidade de detecção e punição em caso de violação.
O mecanismo de impressões digitais é a implementação chave do OML, permitindo que o modelo gere assinaturas únicas durante a fase de treinamento através da inserção de pares específicos de "pergunta-resposta". Com essas assinaturas, os proprietários do modelo podem verificar a propriedade, evitando cópias e comercializações não autorizadas. Este mecanismo não só protege os direitos dos desenvolvedores do modelo, mas também fornece um registro rastreável na cadeia das atividades de uso do modelo.
Além disso, a Sentient lançou a estrutura de computação Enclave TEE, que utiliza ambientes de execução confiáveis (como o AWS Nitro Enclaves) para garantir que o modelo responda apenas a solicitações autorizadas, prevenindo o acesso e uso não autorizados. Embora o TEE dependa de hardware e apresente algumas vulnerabilidades de segurança, suas vantagens de alto desempenho e tempo real fazem dele uma opção atual para a implantação de modelos.