Новый талант в области искусственного интеллекта Manus занял первое место в бенчмарке GAIA. Технология Web3 может стать ключом к безопасности с помощью искусственного интеллекта.

AI модель Manus достигла прорывных результатов в бенчмарке GAIA

Недавно AI-модель Manus достигла передовых результатов в бенчмарк-тестировании GAIA, ее производительность превзошла крупные языковые модели того же уровня. Это означает, что Manus может самостоятельно справляться со сложными задачами, такими как транснациональные бизнес-переговоры, включая анализ условий контрактов, разработку стратегий и генерацию предложений.

Преимущества Manus в основном проявляются в трех аспектах: динамическое разбиение целей, кросс-модальное рассуждение и обучение с усилением памяти. Он может разбивать сложные задачи на сотни исполняемых подзадач, одновременно обрабатывать различные типы данных и постоянно повышать эффективность принятия решений и снижать уровень ошибок с помощью обучения с усилением.

Появление Manus снова вызвало обсуждение в отрасли о путях развития ИИ: развиваться ли в направлении общего искусственного интеллекта (AGI) или же координировать систему многоагентных систем (MAS)? У этих двух путей есть свои плюсы и минусы:

  1. Путь AGI: постоянное повышение возможностей отдельного агента, чтобы приблизить его к уровню комплексного принятия решений человеком.

  2. Путь MAS: в качестве суперкоординатора, управляет совместной работой множества агентов в различных профессиональных областях.

Это обсуждение на самом деле отражает одну из основных проблем развития ИИ: как достичь баланса между эффективностью и безопасностью. С приближением монолитного интеллекта к AGI, риск непрозрачности его процессов принятия решений также возрастает. Хотя сотрудничество многомодульных агентов может распределять риски, оно может упустить ключевые моменты принятия решений из-за задержек в коммуникации.

Manus приносит рассвет AGI, безопасность ИИ также заслуживает глубоких размышлений

Прогресс Manus также подчеркивает потенциальные риски в развитии ИИ:

  1. Проблема конфиденциальности данных: в таких областях, как здравоохранение и финансы, ИИ может потребоваться доступ к чувствительной личной или корпоративной информации.

  2. Алгоритмическая предвзятость: в таких сценариях, как набор персонала, ИИ может выносить несправедливые суждения в отношении определенных групп.

  3. Уязвимости безопасности: Хакеры могут вмешиваться в суждения ИИ с помощью специальных методов, например, вводя в заблуждение его понимание предложений во время переговоров.

Эти проблемы подчеркивают, что чем более продвинутыми являются интеллектуальные системы, тем шире их потенциальные уязвимости.

Для решения этих проблем технологии безопасности в области Web3 могут предложить решения:

  1. Модель нулевого доверия: подчеркивает необходимость строгой аутентификации и авторизации для каждого запроса на доступ.

  2. Децентрализованная идентификация (DID): предоставляет способ проверки идентификации, который не требует централизованной регистрации.

  3. Полная гомоморфная криптография (FHE): позволяет выполнять вычисления с данными в зашифрованном состоянии, защищая конфиденциальность данных.

В частности, технология FHE демонстрирует огромный потенциал в решении проблем безопасности в эпоху ИИ. Она может обеспечить защиту на нескольких уровнях:

  • На уровне данных: Вся информация, вводимая пользователями, обрабатывается в зашифрованном виде, даже сама AI-система не может расшифровать исходные данные.

  • Алгоритмический уровень: через обучение модели шифрования обеспечить, чтобы даже разработчики не могли напрямую наблюдать за процессом принятия решений AI.

  • Сотрудничество: связь между несколькими агентами использует пороговое шифрование, чтобы предотвратить утечку глобальных данных в результате одной точки сбоя.

С развитием технологий ИИ, которые все больше приближаются к уровню человеческого интеллекта, создание мощной системы безопасности становится все более важным. Передовые методы шифрования, такие как FHE, способны не только решать текущие проблемы, но и закладывать безопасную основу для будущей эры более мощного ИИ. На пути к AGI эти технологии безопасности станут незаменимой гарантией.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • 5
  • Поделиться
комментарий
0/400
GasFeeCryervip
· 4ч назад
ААА, не могу понять, сначала падение, потом бычий.
Посмотреть ОригиналОтветить0
FallingLeafvip
· 13ч назад
Одно название уже впечатляет
Посмотреть ОригиналОтветить0
GasFeeSobbervip
· 13ч назад
Снова炒ai这碗饭
Посмотреть ОригиналОтветить0
CryptoCross-TalkClubvip
· 13ч назад
Снова говорят о концепции ИИ, следующий LUNA пришел.
Посмотреть ОригиналОтветить0
StablecoinAnxietyvip
· 13ч назад
Все еще пишете контракт? Пусть ИИ позаботится об этом.
Посмотреть ОригиналОтветить0
  • Закрепить