Когда приложения ИИ станут действительно сложными и потребуется кроссплатформенное, межэкосистемное взаимодействие, появится возможность для дистрибутивных решений Crypto.
Автор: Haotian
Каждый раз, когда речь заходит о AI + Crypto, кто-то инстинктивно реагирует: нужно ли AI Crypto? Подтекст: занимайтесь Crypto, просто делайте свои дела, не нужно цепляться за популярность AI, даже веб2AI работники, когда упоминается сочетание Crypto, полны презрения. Почему?
Причина, по моему мнению, заключается в трех неправильных этапах развития web3AI и web2AI. Дело не в неправильном направлении, а в неправильном времени!
——Первое смещение: муравей пытается расшатать большое дерево, пытаясь присоединиться к гонке по наращиванию вычислительных мощностей
В прошлом году, когда OpenAI, Google и Meta были без ума от инволюции в вычислительных мощностях, в криптокругах появилась куча проектов «децентрализованных вычислительных мощностей», и логика была очень проста: использовать токены, чтобы стимулировать розничных инвесторов вкладывать графические процессоры, которые дешевле и хотят подорвать традиционные облачные вычисления.
В итоге OpenAI сжигает десятки миллионов долларов за тренировку, а вы позволяете сформированному RTX4090 «ополчению» сойтись лицом к лицу с кластером H100? А разве это не рука богомола в качестве автомобиля? Время совершенно неправильное, на данном этапе web2 AI борется за централизованную эффективность и финансовую устойчивость, а распределенные преимущества криптовалюты вообще не могут быть задействованы.
——Второе смещение: инфраструктура еще не готова, а уже спешат с опытом использования приложений
Когда Deepseek с идеальной производительностью R1 совершает обратный ход, Anthropic представляет протокол MCP, чтобы преодолеть эффект изоляции, производительность LLMs на заднем плане web2AI и приложения Agent на переднем плане доминируют, в то время как крипто-сфера демонстрирует большой нарратив «выпуска активов», конкурентоспособно создавая Launchpad, стремясь к одноразовому запуску стеков технологий Agent, желая дать индустрии web3AI ещё один «выпуск токенов» Камбрийский период для Agent.
Проблема в том, зачем нужны так много монет без реальной практической ценности? Ваша инфраструктура уже готова? Например, сам протокол MCP на самом деле представляет собой USB интерфейс, программист кодит в Cursor, а затем для подключения к GitHub требуется всего лишь один раз предоставить доступ. Приложения уже зрелые, достаточно предоставить доступ, чтобы они могли бесшовно соединяться.
Но если вы попытаетесь заставить AI Agent читать данные на блокчейне, вы обнаружите, что большинство данных на блокчейне — это шум. Объем работы, необходимый для фильтрации и анализа данных, стоимость хранения данных, необходимая для узлов,障碍 для обслуживания после падения RPC вызовов, сложность несоответствия стандартов данных в межцепочечной среде и так далее. Каждый этап — это техническая ловушка.
С одной стороны, это готовые приложения с функцией "подключи и работай", с другой стороны - тяжелая работа по созданию инфраструктуры с нуля. В таких условиях пытаться имитировать web2 для инноваций на уровне приложений, словно гонять F1 на грязной дороге, в конечном итоге приводит к тому, что рынок заполняется множеством низкокачественных агентов, пользовательский опыт становится ужасным, и это портит репутацию всей сферы AI + Crypto.
——Третье несоответствие: многомодальные сложные задачи являются тенденцией, но это вовсе не простые кирпичики Лего
Когда GPT-4V способен понимать изображения и генерировать код, Сора способен создавать видео из текста, а Клод способен анализировать сложные документы и создавать интерактивные приложения, web2 AI вошел в глубокие воды мультимодальных сложных задач. Что за этим стоит? Годы обучения моделей, аннотирования больших объемов данных, сложной оптимизации алгоритмов и бесчисленных итеративных отладок.
Однако в Crypto кругу, увидев выступление Manus, также подумали о том, чтобы разделить агента на модули, пытаясь создать комбинации агентов для анализа, принятия решений, выполнения и т.д., чтобы построить такие приложения, как DeFAi, GameFAI и т.д.
Проблема в том, что вы думаете, что сложные задачи — это просто простое соединение модулей?
Мощь web2AI в многомодальности заключается в глубокой семантической согласованности между различными модальностями, точных механизмах внимания и сложной интеграции признаков. Это не простая комбинация нескольких независимых модулей, а системная инженерия от конца до конца.
Но с другой стороны, исполняющий агент Crypto по сути просто упаковывает готовые API в разные агенты, некоторые из которых даже не были должным образом настроены. Агент анализа рынка вызывает CoinGecko, агент исполнения сделок вызывает интерфейс DEX, агент контроля рисков устанавливает несколько простых пороговых значений и затем заявляет, что это «децентрализованная система AI-инвестиций», что далеко от истины.
В конечном итоге вы говорите, что такие сценарии, как DeFAI и GameFAI, действительно являются выходом для web3AI, это правда, сценарии действительно безграничны, но в настоящее время их конкретная реализуемость сталкивается с большими трудностями.
В конце концов, вы, вероятно, хотите спросить, какой подходящий тайминг? Очень хорошая идея заключается в том, чтобы заранее подготовиться, следуя эволюционному пути web2AI.
Когда web2 AI переходит к крайним вычислениям, малым моделям и офлайн-вычислениям, распределенная инфраструктура crypto может быть полезной.
Не сейчас нужно противостоять гигантам облачных вычислений, а основательно заняться строительством инфраструктуры для распределения вычислительных мощностей на краю, синхронизации данных и межустройственного сотрудничества. Когда AI действительно понадобится распределенная архитектура, crypto уже будет готов.
Когда ограничения памяти LLM, аутентификация и сотрудничество нескольких агентов становятся необходимыми, тогда старые навыки блокчейна в области децентрализованного хранения, управления идентификацией и токенов будут востребованы.
Сейчас web2 ИИ все еще погружен в преимущества централизованной эффективности. Проблемы конфиденциальности, проблемы стимулов данных, вопросы проверяемости сотрудничества и так далее, похоже, могут быть проигнорированы. Но когда приложения ИИ действительно станут сложными и потребуется кроссплатформенное, кроссэкосистемное сотрудничество, возможности дистрибутивных решений Crypto появятся.
Содержание носит исключительно справочный характер и не является предложением или офертой. Консультации по инвестициям, налогообложению или юридическим вопросам не предоставляются. Более подробную информацию о рисках см. в разделе «Дисклеймер».
AI+Crypto три ошибки: не боритесь в неподходящий момент, истинная точка прорыва скрыта на краю
Автор: Haotian
Каждый раз, когда речь заходит о AI + Crypto, кто-то инстинктивно реагирует: нужно ли AI Crypto? Подтекст: занимайтесь Crypto, просто делайте свои дела, не нужно цепляться за популярность AI, даже веб2AI работники, когда упоминается сочетание Crypto, полны презрения. Почему?
Причина, по моему мнению, заключается в трех неправильных этапах развития web3AI и web2AI. Дело не в неправильном направлении, а в неправильном времени!
——Первое смещение: муравей пытается расшатать большое дерево, пытаясь присоединиться к гонке по наращиванию вычислительных мощностей
В прошлом году, когда OpenAI, Google и Meta были без ума от инволюции в вычислительных мощностях, в криптокругах появилась куча проектов «децентрализованных вычислительных мощностей», и логика была очень проста: использовать токены, чтобы стимулировать розничных инвесторов вкладывать графические процессоры, которые дешевле и хотят подорвать традиционные облачные вычисления.
В итоге OpenAI сжигает десятки миллионов долларов за тренировку, а вы позволяете сформированному RTX4090 «ополчению» сойтись лицом к лицу с кластером H100? А разве это не рука богомола в качестве автомобиля? Время совершенно неправильное, на данном этапе web2 AI борется за централизованную эффективность и финансовую устойчивость, а распределенные преимущества криптовалюты вообще не могут быть задействованы.
——Второе смещение: инфраструктура еще не готова, а уже спешат с опытом использования приложений
Когда Deepseek с идеальной производительностью R1 совершает обратный ход, Anthropic представляет протокол MCP, чтобы преодолеть эффект изоляции, производительность LLMs на заднем плане web2AI и приложения Agent на переднем плане доминируют, в то время как крипто-сфера демонстрирует большой нарратив «выпуска активов», конкурентоспособно создавая Launchpad, стремясь к одноразовому запуску стеков технологий Agent, желая дать индустрии web3AI ещё один «выпуск токенов» Камбрийский период для Agent.
Проблема в том, зачем нужны так много монет без реальной практической ценности? Ваша инфраструктура уже готова? Например, сам протокол MCP на самом деле представляет собой USB интерфейс, программист кодит в Cursor, а затем для подключения к GitHub требуется всего лишь один раз предоставить доступ. Приложения уже зрелые, достаточно предоставить доступ, чтобы они могли бесшовно соединяться.
Но если вы попытаетесь заставить AI Agent читать данные на блокчейне, вы обнаружите, что большинство данных на блокчейне — это шум. Объем работы, необходимый для фильтрации и анализа данных, стоимость хранения данных, необходимая для узлов,障碍 для обслуживания после падения RPC вызовов, сложность несоответствия стандартов данных в межцепочечной среде и так далее. Каждый этап — это техническая ловушка.
С одной стороны, это готовые приложения с функцией "подключи и работай", с другой стороны - тяжелая работа по созданию инфраструктуры с нуля. В таких условиях пытаться имитировать web2 для инноваций на уровне приложений, словно гонять F1 на грязной дороге, в конечном итоге приводит к тому, что рынок заполняется множеством низкокачественных агентов, пользовательский опыт становится ужасным, и это портит репутацию всей сферы AI + Crypto.
——Третье несоответствие: многомодальные сложные задачи являются тенденцией, но это вовсе не простые кирпичики Лего
Когда GPT-4V способен понимать изображения и генерировать код, Сора способен создавать видео из текста, а Клод способен анализировать сложные документы и создавать интерактивные приложения, web2 AI вошел в глубокие воды мультимодальных сложных задач. Что за этим стоит? Годы обучения моделей, аннотирования больших объемов данных, сложной оптимизации алгоритмов и бесчисленных итеративных отладок.
Однако в Crypto кругу, увидев выступление Manus, также подумали о том, чтобы разделить агента на модули, пытаясь создать комбинации агентов для анализа, принятия решений, выполнения и т.д., чтобы построить такие приложения, как DeFAi, GameFAI и т.д.
Проблема в том, что вы думаете, что сложные задачи — это просто простое соединение модулей?
Мощь web2AI в многомодальности заключается в глубокой семантической согласованности между различными модальностями, точных механизмах внимания и сложной интеграции признаков. Это не простая комбинация нескольких независимых модулей, а системная инженерия от конца до конца.
Но с другой стороны, исполняющий агент Crypto по сути просто упаковывает готовые API в разные агенты, некоторые из которых даже не были должным образом настроены. Агент анализа рынка вызывает CoinGecko, агент исполнения сделок вызывает интерфейс DEX, агент контроля рисков устанавливает несколько простых пороговых значений и затем заявляет, что это «децентрализованная система AI-инвестиций», что далеко от истины.
В конечном итоге вы говорите, что такие сценарии, как DeFAI и GameFAI, действительно являются выходом для web3AI, это правда, сценарии действительно безграничны, но в настоящее время их конкретная реализуемость сталкивается с большими трудностями.
В конце концов, вы, вероятно, хотите спросить, какой подходящий тайминг? Очень хорошая идея заключается в том, чтобы заранее подготовиться, следуя эволюционному пути web2AI.
Когда web2 AI переходит к крайним вычислениям, малым моделям и офлайн-вычислениям, распределенная инфраструктура crypto может быть полезной.
Не сейчас нужно противостоять гигантам облачных вычислений, а основательно заняться строительством инфраструктуры для распределения вычислительных мощностей на краю, синхронизации данных и межустройственного сотрудничества. Когда AI действительно понадобится распределенная архитектура, crypto уже будет готов.
Когда ограничения памяти LLM, аутентификация и сотрудничество нескольких агентов становятся необходимыми, тогда старые навыки блокчейна в области децентрализованного хранения, управления идентификацией и токенов будут востребованы.
Сейчас web2 ИИ все еще погружен в преимущества централизованной эффективности. Проблемы конфиденциальности, проблемы стимулов данных, вопросы проверяемости сотрудничества и так далее, похоже, могут быть проигнорированы. Но когда приложения ИИ действительно станут сложными и потребуется кроссплатформенное, кроссэкосистемное сотрудничество, возможности дистрибутивных решений Crypto появятся.