Nouveau sommet de l'IA : le modèle Manus surpasse ses pairs, le chiffrement homomorphe complet devient clé pour le Web3

robot
Création du résumé en cours

Nouvelle percée dans le développement de l'IA : le modèle Manus dépasse les grands modèles du même niveau, suscitant des inquiétudes en matière de sécurité

Récemment, le modèle Manus a réalisé des performances révolutionnaires dans le benchmark GAIA, surpassant les modèles de langage de grande taille de même niveau. Cet accomplissement démontre l'excellente capacité de Manus à traiter des tâches complexes, comme les négociations commerciales internationales, qui impliquent des compétences variées. Les avantages de Manus se manifestent principalement dans la décomposition dynamique des objectifs, le raisonnement multimodal et l'apprentissage renforcé par la mémoire. Il peut décomposer de grandes tâches en centaines de sous-tâches, tout en traitant différents types de données, et améliore constamment l'efficacité décisionnelle et réduit le taux d'erreur grâce à l'apprentissage par renforcement.

Cette avancée a de nouveau suscité des discussions dans l'industrie sur la trajectoire de développement de l'IA : doit-on privilégier une route vers une intelligence artificielle générale (AGI) avec une intelligence unifiée, ou opter pour une approche distribuée avec des systèmes multi-agents (MAS) collaborant ? Ces deux trajectoires ont leurs avantages et inconvénients. La voie AGI vise à rapprocher un système unique de la capacité décisionnelle globale de l'homme, tandis que la voie MAS se concentre sur la coordination de plusieurs agents intelligents dans des domaines spécialisés.

Manus apporte les premiers rayons de l'AGI, la sécurité de l'IA mérite également réflexion

Cependant, à mesure que les systèmes d'IA deviennent de plus en plus intelligents, leurs risques potentiels augmentent également. Les principales préoccupations incluent :

  1. Confidentialité des données : dans des domaines sensibles tels que la santé et la finance, les systèmes d'IA doivent accéder à une grande quantité de données privées.
  2. Biais algorithmique : L'IA peut manifester des tendances injustes ou discriminatoires dans certaines décisions.
  3. Vulnérabilités de sécurité : les systèmes hautement intelligents peuvent devenir des cibles importantes pour les attaques des hackers.

Pour faire face à ces défis, l'industrie explore diverses technologies cryptographiques et modèles de sécurité :

  • Modèle de sécurité Zero Trust : met l'accent sur la vérification stricte de chaque demande d'accès.
  • Identité décentralisée (DID) : permet une identification vérifiable et durable sans enregistrement centralisé.
  • Chiffrement totalement homomorphe (FHE) : permet de calculer des données en état chiffré, protégeant ainsi la vie privée.

Parmi eux, le chiffrement entièrement homomorphe est considéré comme l'une des technologies clés pour résoudre les problèmes de sécurité à l'ère de l'IA. Il peut protéger la vie privée des utilisateurs au niveau des données, réaliser un entraînement de modèles chiffrés au niveau des algorithmes et utiliser le chiffrement par seuil pour protéger les communications au niveau de la collaboration.

Bien que la technologie de sécurité soit un sujet brûlant dans le domaine des cryptomonnaies, de nombreux projets innovants n'ont pas reçu une attention suffisante. Par exemple, les projets de d'identité décentralisée à leurs débuts et les réseaux blockchain adoptant un modèle de confiance zéro n'ont pas réussi à maintenir leur popularité à long terme sur le marché. Actuellement, certains projets émergents de FHE tentent d'appliquer cette technologie à des scénarios pratiques et collaborent avec plusieurs géants de la technologie.

Avec l'avancée continue des technologies d'IA vers le niveau d'intelligence humaine, il devient de plus en plus important d'établir un puissant système de défense sécurisé. Des technologies telles que le chiffrement homomorphe complet peuvent non seulement résoudre les défis de sécurité actuels, mais aussi poser les bases de l'ère forte de l'IA à venir. Sur le chemin vers l'AGI, ces technologies de sécurité ne sont plus des options, mais des conditions nécessaires pour garantir le fonctionnement fiable des systèmes d'IA.

Voir l'original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Récompense
  • 6
  • Partager
Commentaire
0/400
RugDocScientistvip
· Il y a 10h
manus c'est juste du vent, en réalité ce n'est pas sans faille.
Voir l'originalRépondre0
NFTFreezervip
· Il y a 10h
La confidentialité avant tout, enfin un plat consistant.
Voir l'originalRépondre0
AirDropMissedvip
· Il y a 10h
J'ai hâte de commencer le Mining !!
Voir l'originalRépondre0
MetaverseLandladyvip
· Il y a 10h
C'est… vraiment absurde, même les modèles sont plus compétitifs que les humains.
Voir l'originalRépondre0
FOMOmonstervip
· Il y a 10h
Encore en train de parler d'IA ? C'est vraiment trop difficile de garantir la sécurité.
Voir l'originalRépondre0
OnChainSleuthvip
· Il y a 10h
La sécurité a enfin été prise au sérieux !
Voir l'originalRépondre0
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)