Модель Manus достигла SOTA результатов, вызвав обсуждение путей развития ИИ и вопросов безопасности
Manus продемонстрировал выдающуюся производительность в тестировании GAIA, превосходя крупные языковые модели того же уровня. Это означает, что он может самостоятельно обрабатывать сложные задачи, такие как международные бизнес-переговоры, включая анализ контрактов, разработку стратегий и генерацию предложений. Преимущества Manus заключаются в его динамическом разбиении целей, межмодальном рассуждении и способности к обучению с усилением памяти. Он может разбивать сложные задачи на сотни исполняемых подзадач, одновременно обрабатывая различные типы данных и постоянно повышая эффективность принятия решений и снижая уровень ошибок с помощью обучения с подкреплением.
Прорывные достижения Manus вновь вызвали обсуждение в отрасли о пути развития ИИ: следует ли двигаться к единой модели общего искусственного интеллекта (AGI) или к модели сотрудничества многократных интеллектуальных агентов (MAS)?
Это обсуждение исходит из концепции дизайна Manus, которая подразумевает два возможных направления развития:
Путь AGI: Постоянно повышая общие способности единой интеллектуальной системы, приближая её к уровню человеческих решений.
Путь MAS: использовать Manus в качестве суперкоординатора, который управляет совместной работой множества интеллектуальных агентов в различных профессиональных областях.
На поверхности это спор о технических путях, но на самом деле это отражает проблему баланса между эффективностью и безопасностью в развитии ИИ. Чем ближе единая интеллектуальная система к AGI, тем выше риск непрозрачности ее процесса принятия решений; в то время как многомодульные системы могут распределять риски, но могут упустить критически важные моменты для принятия решений из-за задержек в связи.
Прогресс Manus также подчеркивает неотъемлемые риски, связанные с развитием ИИ. Например, в медицинских сценариях требуется доступ к конфиденциальным данным пациентов; в финансовых переговорах могут быть затронуты неразглашенные корпоративные сведения. Кроме того, существует проблема алгоритмической предвзятости, которая может привести к несправедливым предложениям по зарплате для определенных групп в процессе набора персонала. В обзоре юридических документов также наблюдается высокая степень ошибок в отношении условий, касающихся новых отраслей. Еще более серьезно, хакеры могут ввести специальные голосовые сигналы, чтобы ввести в заблуждение Manus и заставить его сделать неправильные выводы в ходе переговоров.
Эти проблемы подчеркивают суровую реальность: чем более современна интеллектуальная система, тем больше у нее потенциальных уязвимостей.
В области блокчейна и криптовалют безопасность всегда была ключевым вопросом. Теория "невозможного треугольника" (безопасность, децентрализация и масштабируемость не могут быть реализованы одновременно), предложенная основателем Эфириума Виталиком Бутериным, вдохновила на множество стратегий безопасности:
Модель нулевого доверия: основана на принципе "никогда не доверять, всегда проверять", требует строгой аутентификации и авторизации для каждого запроса на доступ.
Децентрализованная идентичность (DID): стандарт идентификации, который не требует централизованной регистрации и поддерживает проверяемую и долговременную аутентификацию личности.
Полностью однородное шифрование (FHE): высокоуровневая технология шифрования, позволяющая проводить вычисления непосредственно на зашифрованных данных, особенно подходит для облачных вычислений и таких сценариев, как внешняя обработка данных.
Эти стратегии безопасности предоставляют важные идеи для решения проблем безопасности в эпоху ИИ. Особенно технология полностью гомоморфного шифрования считается мощным инструментом для борьбы с проблемами безопасности ИИ.
Технология FHE может повысить безопасность систем ИИ на нескольких уровнях:
На уровне данных: вся информация, вводимая пользователем (включая биометрические данные, голос и т.д.), обрабатывается в зашифрованном состоянии, даже сама система ИИ не может расшифровать исходные данные.
Алгоритмический уровень: реализация "обучения зашифрованной модели" с помощью FHE, так что даже разработчики не могут напрямую понять процесс принятия решений ИИ.
Координационный уровень: связь между несколькими интеллектуальными агентами осуществляется с использованием порогового шифрования, даже если один узел будет скомпрометирован, это не приведет к утечке глобальных данных.
Несмотря на то, что эти технологии безопасности могут показаться обычным пользователям далекими, они напрямую связаны с интересами каждого. В "темном лесу" цифрового мира только постоянное усиление безопасности может помочь избежать становления потенциальной жертвой.
В области децентрализованных идентификаторов проект uPort был запущен в 2017 году на основной сети Ethereum. Что касается модели нулевого доверия, проект NKN выпустил основную сеть в 2019 году. А в области полностью гомоморфного шифрования Mind Network стал первым проектом с FHE, запущенным на основной сети, и сотрудничает с такими организациями, как ZAMA, Google, DeepSeek.
Несмотря на то, что прошлые проекты безопасности могли не привлекать широкого внимания инвесторов, с быстрым развитием технологий AI важность вопросов безопасности становится все более очевидной. Проекты, такие как Mind Network, могут стать лидерами в области безопасности, и за ними стоит продолжать следить.
С развитием технологий ИИ, приближающихся к уровню человеческого интеллекта, нам нужны более продвинутые системы защиты. Технология FHE не только решает текущие проблемы, но и подготавливает нас к будущей эпохе более мощного ИИ. На пути к AGI FHE больше не является опциональным, а становится необходимым условием для безопасного развития ИИ.
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
8 Лайков
Награда
8
6
Поделиться
комментарий
0/400
JustHereForMemes
· 8ч назад
Какова польза от SOTA? Все равно не сможем играть с Блокчейном.
Посмотреть ОригиналОтветить0
ParanoiaKing
· 8ч назад
Безопасность, даже если она разогрета до предела, остается лишь теоретической.
Модель Manus ведет прорыв в ИИ, полностью гомоморфное шифрование становится новым фокусом безопасности
Модель Manus достигла SOTA результатов, вызвав обсуждение путей развития ИИ и вопросов безопасности
Manus продемонстрировал выдающуюся производительность в тестировании GAIA, превосходя крупные языковые модели того же уровня. Это означает, что он может самостоятельно обрабатывать сложные задачи, такие как международные бизнес-переговоры, включая анализ контрактов, разработку стратегий и генерацию предложений. Преимущества Manus заключаются в его динамическом разбиении целей, межмодальном рассуждении и способности к обучению с усилением памяти. Он может разбивать сложные задачи на сотни исполняемых подзадач, одновременно обрабатывая различные типы данных и постоянно повышая эффективность принятия решений и снижая уровень ошибок с помощью обучения с подкреплением.
Прорывные достижения Manus вновь вызвали обсуждение в отрасли о пути развития ИИ: следует ли двигаться к единой модели общего искусственного интеллекта (AGI) или к модели сотрудничества многократных интеллектуальных агентов (MAS)?
Это обсуждение исходит из концепции дизайна Manus, которая подразумевает два возможных направления развития:
Путь AGI: Постоянно повышая общие способности единой интеллектуальной системы, приближая её к уровню человеческих решений.
Путь MAS: использовать Manus в качестве суперкоординатора, который управляет совместной работой множества интеллектуальных агентов в различных профессиональных областях.
На поверхности это спор о технических путях, но на самом деле это отражает проблему баланса между эффективностью и безопасностью в развитии ИИ. Чем ближе единая интеллектуальная система к AGI, тем выше риск непрозрачности ее процесса принятия решений; в то время как многомодульные системы могут распределять риски, но могут упустить критически важные моменты для принятия решений из-за задержек в связи.
Прогресс Manus также подчеркивает неотъемлемые риски, связанные с развитием ИИ. Например, в медицинских сценариях требуется доступ к конфиденциальным данным пациентов; в финансовых переговорах могут быть затронуты неразглашенные корпоративные сведения. Кроме того, существует проблема алгоритмической предвзятости, которая может привести к несправедливым предложениям по зарплате для определенных групп в процессе набора персонала. В обзоре юридических документов также наблюдается высокая степень ошибок в отношении условий, касающихся новых отраслей. Еще более серьезно, хакеры могут ввести специальные голосовые сигналы, чтобы ввести в заблуждение Manus и заставить его сделать неправильные выводы в ходе переговоров.
Эти проблемы подчеркивают суровую реальность: чем более современна интеллектуальная система, тем больше у нее потенциальных уязвимостей.
В области блокчейна и криптовалют безопасность всегда была ключевым вопросом. Теория "невозможного треугольника" (безопасность, децентрализация и масштабируемость не могут быть реализованы одновременно), предложенная основателем Эфириума Виталиком Бутериным, вдохновила на множество стратегий безопасности:
Эти стратегии безопасности предоставляют важные идеи для решения проблем безопасности в эпоху ИИ. Особенно технология полностью гомоморфного шифрования считается мощным инструментом для борьбы с проблемами безопасности ИИ.
Технология FHE может повысить безопасность систем ИИ на нескольких уровнях:
На уровне данных: вся информация, вводимая пользователем (включая биометрические данные, голос и т.д.), обрабатывается в зашифрованном состоянии, даже сама система ИИ не может расшифровать исходные данные.
Алгоритмический уровень: реализация "обучения зашифрованной модели" с помощью FHE, так что даже разработчики не могут напрямую понять процесс принятия решений ИИ.
Координационный уровень: связь между несколькими интеллектуальными агентами осуществляется с использованием порогового шифрования, даже если один узел будет скомпрометирован, это не приведет к утечке глобальных данных.
Несмотря на то, что эти технологии безопасности могут показаться обычным пользователям далекими, они напрямую связаны с интересами каждого. В "темном лесу" цифрового мира только постоянное усиление безопасности может помочь избежать становления потенциальной жертвой.
В области децентрализованных идентификаторов проект uPort был запущен в 2017 году на основной сети Ethereum. Что касается модели нулевого доверия, проект NKN выпустил основную сеть в 2019 году. А в области полностью гомоморфного шифрования Mind Network стал первым проектом с FHE, запущенным на основной сети, и сотрудничает с такими организациями, как ZAMA, Google, DeepSeek.
Несмотря на то, что прошлые проекты безопасности могли не привлекать широкого внимания инвесторов, с быстрым развитием технологий AI важность вопросов безопасности становится все более очевидной. Проекты, такие как Mind Network, могут стать лидерами в области безопасности, и за ними стоит продолжать следить.
С развитием технологий ИИ, приближающихся к уровню человеческого интеллекта, нам нужны более продвинутые системы защиты. Технология FHE не только решает текущие проблемы, но и подготавливает нас к будущей эпохе более мощного ИИ. На пути к AGI FHE больше не является опциональным, а становится необходимым условием для безопасного развития ИИ.