Является ли «погружение» ИИ возможностью для Web3?

Только когда ИИ действительно «погрузится» в каждое устройство, Децентрализация сотрудничества станет не концепцией, а необходимостью?

Автор: Haotian

Недавно, наблюдая за индустрией ИИ, я заметил все более «углубляющуюся» тенденцию: от изначального сосредоточения на вычислительной мощности и «больших» моделях, возникло направление, ориентированное на местные небольшие модели и периферийные вычисления.

Это можно увидеть на примере того, как Apple Intelligence охватывает 500 миллионов устройств, как Microsoft представила специализированную модель Mu с 330 миллионами параметров для Windows 11, а также в операциях «отключения от сети» роботов Google DeepMind и т.д.

В чем будет разница? Облачный ИИ соревнуется по масштабам параметров и объемам обучающих данных, способность сжигать деньги является основной конкурентоспособностью; локальный ИИ сосредоточен на оптимизации инженерных решений и адаптации к сценарию, что позволит сделать шаг вперед в защите конфиденциальности, надежности и практичности. (Основные проблемы иллюзий универсальных моделей могут серьезно повлиять на проникновение в специализированные сценарии)

На самом деле это создаст большие возможности для web3 AI. Когда все соревновались в «универсальности» (вычисления, данные, алгоритмы), это естественно было монополизировано традиционными гигантами. Попытка конкурировать с такими компаниями, как Google, AWS, OpenAI, просто является иллюзией, учитывая отсутствие ресурсных преимуществ, технологических преимуществ и, тем более, базы пользователей.

Но в мире локализованных моделей + периферийных вычислений ситуация, с которой сталкиваются услуги блокчейн-технологий, может существенно измениться.

Когда AI модели работают на устройствах пользователей, как доказать, что результаты вывода не были изменены? Как реализовать сотрудничество моделей при защите конфиденциальности? Эти вопросы как раз являются сильной стороной Децентрализация технологий...

Обратите внимание на некоторые новые проекты, связанные с web3 AI, такие как недавно запущенный Pantera с нулевыми инвестициями в 10 миллионов @Gradient_HQ протокол передачи данных Lattica, который решает проблемы монополии данных и черного ящика централизованных AI платформ; устройство для считывания мозговых волн @PublicAI_ HeadCap​​ собирает реальные данные людей, создавая «уровень искусственной проверки», и уже достигло дохода в 14 миллионов; на самом деле, все они пытаются решить проблему «достоверности» локального AI.

Одним предложением: только когда ИИ действительно «опустится» на каждое устройство, децентрализация сотрудничества станет необходимостью?

#Web3AI проекты, вместо того чтобы продолжать внутреннюю конкуренцию на универсальном рынке, лучше серьезно подумать о том, как предоставить инфраструктурную поддержку для локализованной волны ИИ?

Посмотреть Оригинал
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Награда
  • комментарий
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить