Цены на большие модели значительно снизились, что способствует бурному развитию AI-приложений
21 мая Alibaba Cloud объявила о значительном снижении цен на API-вызовы коммерческой модели Tongyi Qianwen и открытой модели. В частности, цена на входные данные основной модели Qwen-Long уровня GPT-4 снизилась с 0,02 юаня за тысячу токенов до 0,5 юаня за миллион токенов, что составляет снижение на 97%.
9 мая компания Alibaba Tongyi представила открытый модель Qwen1.5-110B с параметрами объемом 110 миллиардов. Эта модель показала отличные результаты в нескольких бенчмарках, превзойдя аналогичные модели с 70 миллиардами параметров, и заняла первое место в рейтинге открытых больших моделей.
Комбинированная стратегия "снижение цен + открытый исходный код" становится общим мнением среди мировых производителей больших моделей. Это помогает решить две основные проблемы, с которыми сталкиваются разработчики AI-приложений: слишком высокие цены на API больших моделей и недостаточное качество открытых моделей, что, в свою очередь, способствует полноценному процветанию AI-приложений.
Недавно несколько компаний, занимающихся крупными моделями, выпустили недорогие продукты или снизили цены. Например, цена API открытой модели MoE от одной компании составляет лишь около одной сотой от цены GPT-4 Turbo; другая компания снизила стоимость вызова личной модели с 5 юаней за миллион токенов до 1 юаня за миллион токенов; еще одна компания представила версию модели с аналогичными характеристиками, но по сниженной цене. Некоторые компании даже объявили о бесплатном доступе к основным моделям. Эта волна массового снижения цен, вероятно, обусловлена прогрессом в технологиях вывода крупных моделей и снижением затрат, что объективно предоставляет разработчикам больше возможностей и способствует развитию AI-приложений.
Али Туньи также представила модели с различными параметрами от малых до крупных, чтобы удовлетворить потребности различных сценариев. Малые модели могут быть развернуты на мобильных телефонах, ПК и других устройствах на стороне клиента; крупные модели поддерживают корпоративные и научные приложения; средние модели стремятся найти баланс между производительностью, эффективностью и объемом памяти. Кроме того, Туньи также открыла исходный код для многомодальных моделей, включая визуальные, аудио и кодовые. Эти меры помогут большим моделям быть использованными в большем количестве сценариев.
С быстрым развитием технологий больших моделей и массовым применением, соответствующие цепочки поставок также получат возможности для развития. Области, на которые стоит обратить внимание, включают вычислительную мощность, элементы данных и т.д. В области вычислительной мощности ожидается, что такие сегменты, как оптическая связь, распределение вычислительной мощности, оборудование для вычислений, жидкостное охлаждение и крайние вычисления, получат выгоду. В области элементов данных стоит обратить внимание на компании в таких областях, как телекоммуникационные операторы и визуализация данных.
Развитие больших моделей, безусловно, по-прежнему сталкивается с некоторыми неопределенностями. Процесс коммерциализации больших моделей может оказаться менее успешным, чем ожидалось, и в развитии технологий также существуют неопределенности. Инвесторам необходимо оставаться бдительными к связанным рискам.
С учетом постоянного прогресса технологий больших моделей и продолжающегося расширения областей применения, ожидается, что область ИИ будет развиваться все более бурно. Меры по снижению цен и открытию исходных кодов ускорят распространение технологий больших моделей, предоставив возможности для большего числа инновационных приложений. Мы с нетерпением ждем, когда ИИ будет играть все более важную роль в различных отраслях, внося новый импульс в развитие экономики и общества.
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
Цена больших моделей упала на 97%, разработка AI-приложений открывает новые возможности
Цены на большие модели значительно снизились, что способствует бурному развитию AI-приложений
21 мая Alibaba Cloud объявила о значительном снижении цен на API-вызовы коммерческой модели Tongyi Qianwen и открытой модели. В частности, цена на входные данные основной модели Qwen-Long уровня GPT-4 снизилась с 0,02 юаня за тысячу токенов до 0,5 юаня за миллион токенов, что составляет снижение на 97%.
9 мая компания Alibaba Tongyi представила открытый модель Qwen1.5-110B с параметрами объемом 110 миллиардов. Эта модель показала отличные результаты в нескольких бенчмарках, превзойдя аналогичные модели с 70 миллиардами параметров, и заняла первое место в рейтинге открытых больших моделей.
Комбинированная стратегия "снижение цен + открытый исходный код" становится общим мнением среди мировых производителей больших моделей. Это помогает решить две основные проблемы, с которыми сталкиваются разработчики AI-приложений: слишком высокие цены на API больших моделей и недостаточное качество открытых моделей, что, в свою очередь, способствует полноценному процветанию AI-приложений.
Недавно несколько компаний, занимающихся крупными моделями, выпустили недорогие продукты или снизили цены. Например, цена API открытой модели MoE от одной компании составляет лишь около одной сотой от цены GPT-4 Turbo; другая компания снизила стоимость вызова личной модели с 5 юаней за миллион токенов до 1 юаня за миллион токенов; еще одна компания представила версию модели с аналогичными характеристиками, но по сниженной цене. Некоторые компании даже объявили о бесплатном доступе к основным моделям. Эта волна массового снижения цен, вероятно, обусловлена прогрессом в технологиях вывода крупных моделей и снижением затрат, что объективно предоставляет разработчикам больше возможностей и способствует развитию AI-приложений.
Али Туньи также представила модели с различными параметрами от малых до крупных, чтобы удовлетворить потребности различных сценариев. Малые модели могут быть развернуты на мобильных телефонах, ПК и других устройствах на стороне клиента; крупные модели поддерживают корпоративные и научные приложения; средние модели стремятся найти баланс между производительностью, эффективностью и объемом памяти. Кроме того, Туньи также открыла исходный код для многомодальных моделей, включая визуальные, аудио и кодовые. Эти меры помогут большим моделям быть использованными в большем количестве сценариев.
С быстрым развитием технологий больших моделей и массовым применением, соответствующие цепочки поставок также получат возможности для развития. Области, на которые стоит обратить внимание, включают вычислительную мощность, элементы данных и т.д. В области вычислительной мощности ожидается, что такие сегменты, как оптическая связь, распределение вычислительной мощности, оборудование для вычислений, жидкостное охлаждение и крайние вычисления, получат выгоду. В области элементов данных стоит обратить внимание на компании в таких областях, как телекоммуникационные операторы и визуализация данных.
Развитие больших моделей, безусловно, по-прежнему сталкивается с некоторыми неопределенностями. Процесс коммерциализации больших моделей может оказаться менее успешным, чем ожидалось, и в развитии технологий также существуют неопределенности. Инвесторам необходимо оставаться бдительными к связанным рискам.
С учетом постоянного прогресса технологий больших моделей и продолжающегося расширения областей применения, ожидается, что область ИИ будет развиваться все более бурно. Меры по снижению цен и открытию исходных кодов ускорят распространение технологий больших моделей, предоставив возможности для большего числа инновационных приложений. Мы с нетерпением ждем, когда ИИ будет играть все более важную роль в различных отраслях, внося новый импульс в развитие экономики и общества.