Assistente de IA Manus alcança avanços significativos, gerando discussões profundas sobre segurança e eficiência
Recentemente, o assistente de IA Manus obteve resultados inovadores no teste de benchmark GAIA, superando o desempenho de grandes modelos de linguagem da mesma classe. Manus demonstrou a capacidade de completar tarefas complexas de forma independente, como negociações comerciais internacionais, que envolvem a decomposição de cláusulas contratuais, previsão de estratégias e geração de propostas, entre outros aspectos. Em comparação com sistemas tradicionais, a vantagem do Manus reside na decomposição dinâmica de objetivos, raciocínio multimodal e capacidade de aprendizado com memória aprimorada. Ele pode dividir grandes tarefas em centenas de subtarefas executáveis, processando simultaneamente vários tipos de dados e melhorando continuamente a eficiência de decisão e reduzindo a taxa de erro por meio de aprendizado por reforço.
O progresso do Manus gerou novamente discussões na indústria sobre o caminho de desenvolvimento da IA: o futuro será um modelo unificado em direção à inteligência artificial geral (AGI), ou um modelo colaborativo de sistemas multiagentes (MAS)? Esta questão surge da filosofia de design do Manus, que sugere duas possibilidades: primeiro, um caminho AGI que se aproxima da capacidade de decisão abrangente dos humanos através da melhoria contínua do nível de inteligência individual; segundo, um caminho MAS que atua como um super-coordenador, dirigindo milhares de agentes especializados a trabalharem em conjunto.
Esta discussão aborda, na verdade, a contradição central do desenvolvimento da IA: como equilibrar eficiência e segurança? À medida que a inteligência individual se aproxima da IAG, o risco da falta de transparência em seu processo de decisão também aumenta. Por outro lado, embora a colaboração entre múltiplos agentes possa dispersar riscos, pode perder momentos críticos de decisão devido a atrasos na comunicação.
O desenvolvimento do Manus também destaca os riscos de segurança inerentes à IA. Por exemplo, em cenários médicos, ele precisa acessar dados genômicos sensíveis dos pacientes; em negociações financeiras, pode ter acesso a informações financeiras não divulgadas da empresa. Além disso, os sistemas de IA podem apresentar viés algorítmico, como fazer sugestões salariais injustas para determinados grupos durante o processo de recrutamento. No que diz respeito à revisão de contratos legais, a taxa de erro em relação a cláusulas de indústrias emergentes também pode ser alta. Mais preocupante é que hackers podem interferir no julgamento do Manus durante as negociações, implantando frequências de voz específicas.
Estas questões destacam uma realidade preocupante: quanto mais inteligentes são os sistemas de IA, maior é a sua superfície de ataque potencial.
No campo do Web3, a segurança sempre foi um tópico de grande preocupação. A teoria do "triângulo impossível" proposta pelo fundador do Ethereum, Vitalik Buterin (as redes de blockchain não conseguem alcançar simultaneamente segurança, descentralização e escalabilidade) inspirou o desenvolvimento de várias tecnologias de criptografia:
Modelo de segurança de zero confiança: enfatiza a autenticação e autorização rigorosas para cada pedido de acesso.
Identidade Descentralizada (DID): Permite que entidades obtenham uma identificação verificável sem a necessidade de um registro centralizado.
Criptografia homomórfica totalmente (FHE): permite calcular dados em estado criptografado, protegendo a privacidade enquanto realiza o processamento de dados.
Dentre essas tecnologias, a criptografia homomórfica total é considerada a tecnologia chave para resolver problemas de segurança na era da IA. Ela pode desempenhar um papel nas seguintes áreas:
Camada de dados: Todas as informações inseridas pelos utilizadores (incluindo características biométricas e tom de voz) são processadas em estado criptografado, mesmo o sistema de IA em si não consegue decifrar os dados originais.
Nível de algoritmo: realizar "treinamento de modelo criptografado" através do FHE, garantindo que até os desenvolvedores não possam espiar o processo de decisão da IA.
Nível de colaboração: A comunicação entre múltiplos agentes utiliza criptografia de limite, de modo que mesmo que um único nó seja comprometido, não haverá vazamento de dados globais.
Na área de segurança Web3, vários projetos já se dedicaram a resolver esses problemas. Por exemplo, uPort é um dos primeiros projetos de identidade descentralizada lançado na mainnet do Ethereum; NKN fez tentativas no modelo de segurança de confiança zero; Mind Network é o primeiro projeto de FHE a ser lançado na mainnet e estabeleceu parcerias com várias instituições renomadas.
À medida que a tecnologia de IA se aproxima cada vez mais do nível de inteligência humana, torna-se cada vez mais importante estabelecer um sistema de defesa robusto. A criptografia totalmente homomórfica não só pode resolver os problemas de segurança atuais, mas também estabelece a base para o desenvolvimento na era da IA forte no futuro. No caminho para a AGI, a FHE já não é uma opção, mas uma condição necessária para garantir o funcionamento seguro dos sistemas de IA.
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
A quebra do Manus do assistente de IA gera reflexões sobre a segurança do Web3. A encriptação totalmente homomórfica torna-se uma tecnologia chave.
Assistente de IA Manus alcança avanços significativos, gerando discussões profundas sobre segurança e eficiência
Recentemente, o assistente de IA Manus obteve resultados inovadores no teste de benchmark GAIA, superando o desempenho de grandes modelos de linguagem da mesma classe. Manus demonstrou a capacidade de completar tarefas complexas de forma independente, como negociações comerciais internacionais, que envolvem a decomposição de cláusulas contratuais, previsão de estratégias e geração de propostas, entre outros aspectos. Em comparação com sistemas tradicionais, a vantagem do Manus reside na decomposição dinâmica de objetivos, raciocínio multimodal e capacidade de aprendizado com memória aprimorada. Ele pode dividir grandes tarefas em centenas de subtarefas executáveis, processando simultaneamente vários tipos de dados e melhorando continuamente a eficiência de decisão e reduzindo a taxa de erro por meio de aprendizado por reforço.
O progresso do Manus gerou novamente discussões na indústria sobre o caminho de desenvolvimento da IA: o futuro será um modelo unificado em direção à inteligência artificial geral (AGI), ou um modelo colaborativo de sistemas multiagentes (MAS)? Esta questão surge da filosofia de design do Manus, que sugere duas possibilidades: primeiro, um caminho AGI que se aproxima da capacidade de decisão abrangente dos humanos através da melhoria contínua do nível de inteligência individual; segundo, um caminho MAS que atua como um super-coordenador, dirigindo milhares de agentes especializados a trabalharem em conjunto.
Esta discussão aborda, na verdade, a contradição central do desenvolvimento da IA: como equilibrar eficiência e segurança? À medida que a inteligência individual se aproxima da IAG, o risco da falta de transparência em seu processo de decisão também aumenta. Por outro lado, embora a colaboração entre múltiplos agentes possa dispersar riscos, pode perder momentos críticos de decisão devido a atrasos na comunicação.
O desenvolvimento do Manus também destaca os riscos de segurança inerentes à IA. Por exemplo, em cenários médicos, ele precisa acessar dados genômicos sensíveis dos pacientes; em negociações financeiras, pode ter acesso a informações financeiras não divulgadas da empresa. Além disso, os sistemas de IA podem apresentar viés algorítmico, como fazer sugestões salariais injustas para determinados grupos durante o processo de recrutamento. No que diz respeito à revisão de contratos legais, a taxa de erro em relação a cláusulas de indústrias emergentes também pode ser alta. Mais preocupante é que hackers podem interferir no julgamento do Manus durante as negociações, implantando frequências de voz específicas.
Estas questões destacam uma realidade preocupante: quanto mais inteligentes são os sistemas de IA, maior é a sua superfície de ataque potencial.
No campo do Web3, a segurança sempre foi um tópico de grande preocupação. A teoria do "triângulo impossível" proposta pelo fundador do Ethereum, Vitalik Buterin (as redes de blockchain não conseguem alcançar simultaneamente segurança, descentralização e escalabilidade) inspirou o desenvolvimento de várias tecnologias de criptografia:
Dentre essas tecnologias, a criptografia homomórfica total é considerada a tecnologia chave para resolver problemas de segurança na era da IA. Ela pode desempenhar um papel nas seguintes áreas:
Na área de segurança Web3, vários projetos já se dedicaram a resolver esses problemas. Por exemplo, uPort é um dos primeiros projetos de identidade descentralizada lançado na mainnet do Ethereum; NKN fez tentativas no modelo de segurança de confiança zero; Mind Network é o primeiro projeto de FHE a ser lançado na mainnet e estabeleceu parcerias com várias instituições renomadas.
À medida que a tecnologia de IA se aproxima cada vez mais do nível de inteligência humana, torna-se cada vez mais importante estabelecer um sistema de defesa robusto. A criptografia totalmente homomórfica não só pode resolver os problemas de segurança atuais, mas também estabelece a base para o desenvolvimento na era da IA forte no futuro. No caminho para a AGI, a FHE já não é uma opção, mas uma condição necessária para garantir o funcionamento seguro dos sistemas de IA.