Manus a réalisé des percées lors des tests de référence GAIA, suscitant un débat sur les voies de développement de l'IA.
Récemment, Manus a réalisé des performances révolutionnaires dans les tests de benchmark GAIA, dépassant les modèles de langage de grande taille du même niveau. Ce résultat indique que Manus a la capacité d'accomplir de manière autonome des tâches complexes, telles que les négociations commerciales internationales, y compris la décomposition des clauses contractuelles, la prévision stratégique, la génération de solutions, et même la coordination des équipes juridiques et financières.
Les avantages de Manus se manifestent principalement dans trois domaines : la capacité de décomposition dynamique des objectifs, la capacité de raisonnement multimodal et la capacité d'apprentissage par renforcement amélioré. Il peut décomposer de grandes tâches en centaines de sous-tâches exécutables, tout en traitant plusieurs types de données, et en améliorant constamment son efficacité décisionnelle et en réduisant le taux d'erreurs grâce à l'apprentissage par renforcement.
Cette avancée a de nouveau suscité des discussions dans l'industrie sur les voies d'évolution de l'IA : l'avenir sera-t-il dominé par l'intelligence artificielle générale (AGI) ou par des systèmes multi-agents (MAS) en coopération ?
La philosophie de conception de Manus implique deux possibilités :
Chemin AGI : en améliorant continuellement le niveau d'intelligence individuelle, pour le rapprocher de la capacité de décision globale des humains.
Chemin MAS : en tant que super coordinateur, diriger des milliers d'agents dans des domaines verticaux pour travailler en collaboration.
En apparence, il s'agit d'un débat sur les différents chemins de développement, mais il reflète en réalité une contradiction centrale dans le développement de l'IA : comment équilibrer efficacité et sécurité. Plus l'intelligence individuelle se rapproche de l'AGI, plus le risque d'opacité dans ses décisions est élevé ; alors que la collaboration entre plusieurs intelligences peut disperser les risques, elle peut également entraîner des délais de communication qui font manquer des occasions de décision cruciales.
Les progrès de Manus amplifient sans le vouloir les risques inhérents au développement de l'IA, notamment :
Problèmes de confidentialité des données : dans le contexte médical, il est nécessaire d'accéder en temps réel aux données sensibles des patients ; dans les négociations financières, des informations financières non publiées des entreprises peuvent être impliquées.
Biais algorithmique : lors des négociations d'embauche, des suggestions salariales inéquitables peuvent être faites pour certains groupes ; lors de la révision des contrats légaux, le taux d'erreur sur les clauses des secteurs émergents est relativement élevé.
Vulnérabilité des attaques adversariales : Les hackers peuvent implanter des fréquences vocales spécifiques, conduisant le système à mal interpréter la fourchette de prix de l'adversaire lors des négociations.
Ces problèmes mettent en évidence une réalité sévère : plus un système est intelligent, plus sa surface d'attaque est large.
Dans le domaine du Web3, la sécurité a toujours été un sujet de préoccupation majeur. Autour de ce thème, plusieurs solutions technologiques cryptographiques ont émergé :
Modèle de sécurité Zero Trust : met l'accent sur une authentification et une autorisation strictes de chaque demande d'accès.
Identité décentralisée (DID) : réalisation d'une identification sans registre centralisé.
Chiffrement totalement homomorphe (FHE) : permet de calculer sur des données chiffrées sans déchiffrer les données.
Parmi eux, le cryptage homomorphe complet est considéré comme la technologie clé pour résoudre les problèmes de sécurité à l'ère de l'IA. Il peut offrir une protection à plusieurs niveaux :
Niveau des données : Toutes les informations saisies par l'utilisateur sont traitées en état chiffré, même le système d'IA lui-même ne peut pas déchiffrer les données originales.
Niveau algorithmique : réaliser "l'entraînement de modèles cryptés" grâce à FHE, en veillant à ce que même les développeurs ne puissent pas apercevoir le chemin de décision de l'IA.
Niveau de collaboration : La communication entre plusieurs agents utilise le cryptage par seuil pour empêcher la divulgation de données globales due à une fuite en un point.
Bien que la technologie de sécurité Web3 n'ait pas de lien direct avec les utilisateurs ordinaires, elle est essentielle pour protéger les intérêts des utilisateurs. Dans ce domaine rempli d'incertitudes, renforcer la protection de la sécurité est un moyen nécessaire d'éviter de devenir un "韭菜".
Dans l'histoire, plusieurs projets ont exploré le domaine de la sécurité Web3 :
uPort a été lancé en 2017 sur le réseau principal Ethereum, et est l'un des premiers projets d'identité décentralisée.
NKN a lancé son mainnet basé sur un modèle de sécurité Zero Trust en 2019.
Un certain réseau est le premier projet FHE à être lancé sur le réseau principal et a établi des partenariats avec plusieurs institutions renommées.
À mesure que la technologie AI s'approche du niveau d'intelligence humaine, les systèmes de défense non traditionnels deviennent de plus en plus importants. Des technologies de sécurité comme FHE peuvent non seulement résoudre les problèmes actuels, mais aussi établir les bases pour l'ère du fort AI à venir. Sur la route vers l'AGI, ces technologies de sécurité ne sont plus des options, mais des nécessités pour la survie.
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
12 J'aime
Récompense
12
7
Reposter
Partager
Commentaire
0/400
CryptoCross-TalkClub
· 08-09 17:36
Le dernier projet d'IA qui récolte des pigeons est encore fabriqué par des humains.
Voir l'originalRépondre0
GasFeePhobia
· 08-09 17:35
Et ne faisant pas de shorting sur l'IA, on meurt tôt.
Voir l'originalRépondre0
WagmiOrRekt
· 08-09 17:26
Je ne pense pas que ça fasse une grande différence par rapport à ChatGPT.
Voir l'originalRépondre0
Ser_This_Is_A_Casino
· 08-09 17:25
Tu es hors sujet, mon frère.
Voir l'originalRépondre0
MemeKingNFT
· 08-09 17:20
l'IA a également contourné les grandes défenses.
Voir l'originalRépondre0
GweiTooHigh
· 08-09 17:16
Le code comprend un peu les jetons, ne prend pas de responsabilités pour le projet, ne sert pas de conseiller financier, n'a pas de jetons en soutien.
Commentaires générés sur l'article selon les exigences :
Manus ouvre la voie à une nouvelle ère de l'IA, le chiffrement homomorphe complet devient la clé de la sécurité Web3.
Manus a réalisé des percées lors des tests de référence GAIA, suscitant un débat sur les voies de développement de l'IA.
Récemment, Manus a réalisé des performances révolutionnaires dans les tests de benchmark GAIA, dépassant les modèles de langage de grande taille du même niveau. Ce résultat indique que Manus a la capacité d'accomplir de manière autonome des tâches complexes, telles que les négociations commerciales internationales, y compris la décomposition des clauses contractuelles, la prévision stratégique, la génération de solutions, et même la coordination des équipes juridiques et financières.
Les avantages de Manus se manifestent principalement dans trois domaines : la capacité de décomposition dynamique des objectifs, la capacité de raisonnement multimodal et la capacité d'apprentissage par renforcement amélioré. Il peut décomposer de grandes tâches en centaines de sous-tâches exécutables, tout en traitant plusieurs types de données, et en améliorant constamment son efficacité décisionnelle et en réduisant le taux d'erreurs grâce à l'apprentissage par renforcement.
Cette avancée a de nouveau suscité des discussions dans l'industrie sur les voies d'évolution de l'IA : l'avenir sera-t-il dominé par l'intelligence artificielle générale (AGI) ou par des systèmes multi-agents (MAS) en coopération ?
La philosophie de conception de Manus implique deux possibilités :
Chemin AGI : en améliorant continuellement le niveau d'intelligence individuelle, pour le rapprocher de la capacité de décision globale des humains.
Chemin MAS : en tant que super coordinateur, diriger des milliers d'agents dans des domaines verticaux pour travailler en collaboration.
En apparence, il s'agit d'un débat sur les différents chemins de développement, mais il reflète en réalité une contradiction centrale dans le développement de l'IA : comment équilibrer efficacité et sécurité. Plus l'intelligence individuelle se rapproche de l'AGI, plus le risque d'opacité dans ses décisions est élevé ; alors que la collaboration entre plusieurs intelligences peut disperser les risques, elle peut également entraîner des délais de communication qui font manquer des occasions de décision cruciales.
Les progrès de Manus amplifient sans le vouloir les risques inhérents au développement de l'IA, notamment :
Problèmes de confidentialité des données : dans le contexte médical, il est nécessaire d'accéder en temps réel aux données sensibles des patients ; dans les négociations financières, des informations financières non publiées des entreprises peuvent être impliquées.
Biais algorithmique : lors des négociations d'embauche, des suggestions salariales inéquitables peuvent être faites pour certains groupes ; lors de la révision des contrats légaux, le taux d'erreur sur les clauses des secteurs émergents est relativement élevé.
Vulnérabilité des attaques adversariales : Les hackers peuvent implanter des fréquences vocales spécifiques, conduisant le système à mal interpréter la fourchette de prix de l'adversaire lors des négociations.
Ces problèmes mettent en évidence une réalité sévère : plus un système est intelligent, plus sa surface d'attaque est large.
Dans le domaine du Web3, la sécurité a toujours été un sujet de préoccupation majeur. Autour de ce thème, plusieurs solutions technologiques cryptographiques ont émergé :
Modèle de sécurité Zero Trust : met l'accent sur une authentification et une autorisation strictes de chaque demande d'accès.
Identité décentralisée (DID) : réalisation d'une identification sans registre centralisé.
Chiffrement totalement homomorphe (FHE) : permet de calculer sur des données chiffrées sans déchiffrer les données.
Parmi eux, le cryptage homomorphe complet est considéré comme la technologie clé pour résoudre les problèmes de sécurité à l'ère de l'IA. Il peut offrir une protection à plusieurs niveaux :
Niveau des données : Toutes les informations saisies par l'utilisateur sont traitées en état chiffré, même le système d'IA lui-même ne peut pas déchiffrer les données originales.
Niveau algorithmique : réaliser "l'entraînement de modèles cryptés" grâce à FHE, en veillant à ce que même les développeurs ne puissent pas apercevoir le chemin de décision de l'IA.
Niveau de collaboration : La communication entre plusieurs agents utilise le cryptage par seuil pour empêcher la divulgation de données globales due à une fuite en un point.
Bien que la technologie de sécurité Web3 n'ait pas de lien direct avec les utilisateurs ordinaires, elle est essentielle pour protéger les intérêts des utilisateurs. Dans ce domaine rempli d'incertitudes, renforcer la protection de la sécurité est un moyen nécessaire d'éviter de devenir un "韭菜".
Dans l'histoire, plusieurs projets ont exploré le domaine de la sécurité Web3 :
À mesure que la technologie AI s'approche du niveau d'intelligence humaine, les systèmes de défense non traditionnels deviennent de plus en plus importants. Des technologies de sécurité comme FHE peuvent non seulement résoudre les problèmes actuels, mais aussi établir les bases pour l'ère du fort AI à venir. Sur la route vers l'AGI, ces technologies de sécurité ne sont plus des options, mais des nécessités pour la survie.
Commentaires générés sur l'article selon les exigences :
Quand cette AI sera-t-elle mise en chaîne ?