Le nouvel arrivant en IA Manus atteint le sommet du benchmark GAIA, la technologie Web3 pourrait devenir la clé de la sécurité de l'IA.

Le modèle AI Manus a réalisé des avancées révolutionnaires dans les tests de performance GAIA.

Récemment, le modèle AI Manus a obtenu des résultats de pointe dans le Benchmark GAIA, surpassant les modèles de langage de grande taille de même niveau. Cela signifie que Manus peut gérer de manière autonome des tâches complexes, telles que des négociations commerciales internationales, y compris l'analyse des clauses contractuelles, l'élaboration de stratégies et la génération de propositions.

Les avantages de Manus se manifestent principalement dans trois domaines : la décomposition dynamique des objectifs, le raisonnement multimodal et l'apprentissage renforcé de la mémoire. Il peut décomposer des tâches complexes en centaines de sous-tâches exécutables, tout en traitant divers types de données, et améliorer continuellement l'efficacité décisionnelle et réduire le taux d'erreurs grâce à l'apprentissage par renforcement.

L'apparition de Manus a de nouveau suscité des discussions dans l'industrie sur la trajectoire de développement de l'IA : faut-il se diriger vers une intelligence artificielle générale (AGI) ou favoriser la domination des systèmes multi-agents (MAS) en collaboration ? Ces deux voies ont leurs avantages et inconvénients :

  1. Chemin AGI : Améliorer continuellement les capacités d'un seul agent intelligent pour le rapprocher du niveau de prise de décision globale des humains.

  2. Chemin MAS : en tant que super coordinateur, diriger la collaboration de nombreux agents spécialisés.

Cette discussion reflète en réalité un problème central dans le développement de l'IA : comment trouver un équilibre entre efficacité et sécurité. À mesure que l'intelligence unitaire se rapproche de l'AGI, le risque d'opacité dans son processus décisionnel augmente également. Bien que la collaboration entre plusieurs agents intelligents puisse répartir les risques, elle peut également manquer des moments clés de décision en raison des délais de communication.

Manus apporte les premiers rayons de lumière pour l'AGI, la sécurité de l'IA mérite également réflexion

Les progrès de Manus mettent également en évidence les risques potentiels dans le développement de l'IA :

  1. Problèmes de confidentialité des données : dans des domaines tels que la santé et la finance, l'IA peut avoir besoin d'accéder à des informations sensibles personnelles ou d'entreprise.

  2. Biais algorithmique : dans des situations comme le recrutement, l'IA peut avoir des jugements injustes envers certains groupes.

  3. Vulnérabilité de sécurité : Les hackers peuvent interférer avec le jugement de l'IA par des méthodes spéciales, comme en la trompant sur la compréhension des offres lors des négociations.

Ces problèmes soulignent que plus les systèmes intelligents sont avancés, plus leur surface d'attaque potentielle est large.

Pour faire face à ces défis, les technologies de sécurité dans le domaine du Web3 pourraient offrir des solutions :

  1. Modèle de sécurité Zero Trust : met l'accent sur la vérification et l'autorisation strictes de chaque demande d'accès.

  2. Identité décentralisée (DID) : fournit un moyen d'identification vérifiable sans enregistrement centralisé.

  3. Chiffrement homomorphe complet (FHE) : permet de calculer sur des données en état chiffré, protégeant ainsi la vie privée des données.

Dans ce contexte, la technologie FHE montre un potentiel énorme pour résoudre les problèmes de sécurité à l'ère de l'IA. Elle peut offrir une protection à plusieurs niveaux :

  • Niveau des données : toutes les informations saisies par l'utilisateur sont traitées en état chiffré, même le système d'IA lui-même ne peut pas déchiffrer les données originales.

  • Au niveau des algorithmes : grâce à l'entraînement de modèles cryptographiques, il est garanti que même les développeurs ne peuvent pas observer directement le processus décisionnel de l'IA.

  • Niveau de collaboration : La communication entre plusieurs agents utilise le cryptage par seuil, afin d'éviter qu'une défaillance unique ne provoque une fuite de données globales.

Avec l'avancement des technologies d'IA se rapprochant du niveau d'intelligence humaine, il devient de plus en plus important d'établir un puissant système de défense de sécurité. Des technologies de cryptage avancées telles que FHE peuvent non seulement résoudre les problèmes actuels, mais aussi poser une base de sécurité pour un avenir marqué par une IA plus puissante. Sur la voie de l'AGI, ces technologies de sécurité deviendront une garantie indispensable.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • 5
  • Partager
Commentaire
0/400
GasFeeCryervip
· Il y a 4h
Ah ah je ne comprends pas, d'abord chute puis hausse.
Voir l'originalRépondre0
FallingLeafvip
· Il y a 13h
En voyant ce nom, ça en impose.
Voir l'originalRépondre0
GasFeeSobbervip
· Il y a 13h
Encore en train de frémir pour le riz ai.
Voir l'originalRépondre0
CryptoCross-TalkClubvip
· Il y a 13h
On recommence à parler du concept d'IA, le prochain LUNA arrive.
Voir l'originalRépondre0
StablecoinAnxietyvip
· Il y a 13h
Vous êtes toujours en train d'écrire un contrat ? Laissez l'IA s'en occuper dès maintenant.
Voir l'originalRépondre0
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)