Через 24 часа после выхода «Вэнь Синь И Янь» Шэнь Доу отошел на второй план, чтобы просмотреть данные, и обнаружил, что Вэнь Синь И Янь ответил на «33,42 миллиона» вопросов пользователей, что превзошло его ожидания.
Два дня спустя, когда Шэнь Доу сел с несколькими представителями СМИ, включая меня, чтобы поговорить об инциденте, он сказал: «Изначально мы думали, что людей будет смотреть меньше, но мы не ожидали, что энтузиазм пользователей уменьшится. не уменьшился».
В сентябре, когда большой модельный бум в Китае продолжается уже полгода, у простых людей наконец-то появилась возможность заполучить его в свои руки.
Начиная с 31 августа, ряд крупных моделей, в том числе «Вэнь Синь И Янь», были зарегистрированы и официально открыты для публики. Эта новость не только побудила пользователей попробовать ее, но и вызвала восторженные отклики компаний. ** Шэнь Доу сообщил, что в день открытия Вэньсиньиян количество ежедневных активных предприятий на платформе крупной модели Baidu Smart Cloud Qianfan увеличилось более чем на 40%. ——Последняя представляет собой крупную платформу разработки и управления моделями, запущенную Baidu для предприятий. **
В эпоху больших моделей Baidu надеется содействовать одновременному использованию крупных моделей частными лицами и предприятиями. С макроэкономической точки зрения это способствует популяризации передовых технологий крупных моделей. С точки зрения компании, это помогает Baidu вести собственный бизнес. Хотя коммерческая ценность пользователей C-конца не очевидна сразу, коммерческая ценность B-конечных клиентов напрямую отражается в комиссиях за планирование модели API и доходах от облачных вычислений.
В мае прошлого года Шен Доу, который много лет возглавлял Baidu Mobile Ecosystem (MEG), был назначен президентом Baidu Intelligent Cloud Group (ACG). Группа ожидает от него, что он воспользуется возможностями эпохи AIGC и встроит интеллектуальное облако во вторую кривую роста Baidu.
Но ситуация, с которой столкнулся Шэнь Цзи, была очень сложной. Baidu не является крупнейшим поставщиком облачных вычислений в Китае, но занимает первое место в публичном облаке по услугам, связанным с искусственным интеллектом. В то время Шэнь Доу также надеялся использовать ИИ для стимулирования роста всего облачного сервиса. К сожалению, возможности ИИ в то время были слишком «фрагментированы» и не могли избавиться от текущей ситуации с высокими затратами на обслуживание. трудности с масштабированием и скудные прибыли.
Но несколько месяцев спустя наступила эра больших моделей. С точки зрения конкурентной среды, базовые облачные сервисы на базе IaaS (инфраструктура как услуга) и PaaS (платформа как услуга) в прошлом переводятся в облачные сервисы MaaS (модель как услуга) на базе искусственного интеллекта. Шен Доу считает, что это возможность для Baidu Smart Cloud «обгонять в поворотах».
С точки зрения дохода, универсальные возможности больших моделей позволяют облачным сервисам быть более стандартизированными, позволяя их повторное использование в различных сценариях, снижая затраты на обслуживание и увеличивая прибыль. Именно по этой причине руководство Baidu сообщило инвесторам во втором квартале 2023 года, что ИИ и большие модели позволят Baidu Intelligent Cloud достичь более высокой прибыли.
** Ниже приводится полный текст нашей беседы с Шен Доу, организованной Geek Park. **
Источник изображения: создано Unbounded AI.
01 Вэньсинийянь на стороне C, платформа Цяньфань на стороне B, две стороны успеха
**В: После просмотра волнений пришло время по-настоящему заняться практическими делами. Два дня назад Baidu открыла Wenxin Yiyan на стороне C. Что вы думаете об этих данных об использовании пользователей? Ожидаемо или неожиданно? Каковы возможности серверной части по эксплуатации и обслуживанию? **
Шен Доу: Я отправил данные группе в 12:30 того же дня, и мои коллеги опубликовали их на следующий день. Данные были перехвачены мной из системы и представлены внешнему миру в целости и сохранности.Это абсолютная правда.
Мы также почувствовали, что меньше людей «наблюдают за волнением», поэтому наши ожидания были не такими высокими. Неожиданно в тот день было получено 33,42 миллиона ответов, что показывает, что пользователи по-прежнему возлагают большие надежды на Вэньсинь Иян. Все не подходили, чтобы задать вопрос, или уходили после нескольких предложений, а прошли через множество раундов диалога. С этой точки зрения энтузиазм пользователей все еще присутствует.
Прошло пять или шесть месяцев с тех пор, как 16 марта Вэньсинь Иян начал внутреннее тестирование. Это дало нам достаточно времени для подготовки, как с точки зрения улучшения эффекта, так и с точки зрения снижения затрат. Например, скорость вывода большой модели Wenxin увеличилась более чем в 30 раз по сравнению с оригиналом, что значительно снижает стоимость вывода и позволяет нам обрабатывать такое большое количество пользователей.
**Вопрос: Значит, технологический прогресс крупных моделей Baidu за этот период также включает в себя рост затрат? **
Шэнь Цзи: Да, большая модель сама по себе является ресурсоемкой технической парадигмой.
Сначала мы не ожидали, что трафик будет таким большим. Ресурс машины (вычислительной мощности) сам по себе очень ценен. Мы чувствовали, что размещение слишком большого количества машин будет расточительством, поэтому мы не ставили слишком много дополнительных машин. К счастью, после увеличения числа пользователей в тот день, поскольку наша производительность рассуждений улучшилась, мы по-прежнему предоставляем пользователям стабильные услуги.
Также у нас в руках хороший запас вычислительных мощностей, и мы продолжим снижать затраты на обучение и рассуждения в будущем, чтобы не было проблем с удовлетворением потребностей пользователей. В то время мы обсуждали в нашей внутренней группе, можно ли противостоять трафику. Я сказал, что усиление движения транспорта – это все беды счастья.
**Вопрос: Какую выгоду получит Baidu от либерализации Вэнь Синьианя на стороне C? **
Шен Доу: Вас может беспокоить вопрос о том, является ли открытие для стороны C устойчивым, если оно не может принести коммерческой ценности.
Фактически, пока ценность действительно создается для пользователей, коммерциализация является лишь вопросом времени. В истории технологического развития очень мало примеров ценных, но труднореализуемых. Wenxinyyan действительно принес реальную пользу конечным пользователям C. Вчера я увидел несколько комментариев, в которых говорилось, что без Wenxinyyan эффективность его офиса снизится. Поэтому, пока это имеет ценность, коммерциализация Вэнь Синьяня в будущем будет идти своим чередом.
**Вопрос: Будет ли форма продукта C-конца крупных китайских моделей соответствовать ChatGPT? Это абонентская плата? **
Шен Доу: Пока рано говорить о форме продукта крупных моделей, и ее определение еще не столь ясно.
Когда появился мобильный Интернет, мы могли бы использовать несколько ключевых слов, чтобы уточнить его определение, например SoLoMo (социальный, локальный, мобильный, использование социальных сетей, служб геолокации и мобильных терминальных устройств для обеспечения лучшего взаимодействия с пользователем). Но сейчас большую модель невозможно определить в нескольких ясных словах. Его возможности мощнее, но и границы шире, и еще далеко не время сходиться в форме продукта.
OpenAI — компания, ориентированная на технологии, и пользовательский опыт не является ее сильной стороной. Форма продукта, которую она разрабатывает сегодня, все еще находится на очень ранней стадии, и скорость итерации следующего продукта будет очень высокой, а форма радикально изменится.
**Вопрос: Возможна ли в Китае бизнес-модель ChatGPT по взиманию абонентской платы с конечных пользователей C? **
Шэнь Цзи: Мы можем разработать новые методы монетизации, например три распространенных метода монетизации: реклама, электронная коммерция и игры.
Если вы готовы тратить 2000 юаней в месяц на найм помощника, то если ИИ сможет делать 1/10 того, что может делать помощник, например, помогать вам составлять маршруты путешествий, бронировать авиабилеты и отели и даже вызывать такси и приложения для доставки еды, готовы потратить двести юаней? Просто способом реализации являются не обязательно членские взносы, это могут быть комиссии за транзакции или другие способы.
Другой пример: группа NPC-персонажей в игре управляется генеративным ИИ, а прямая трансляция «цифровых людей» в сфере электронной коммерции также поддерживается генеративным ИИ, что может привести к различным методам монетизации. В конечном итоге форма продукта С-конца определяет способ его реализации.
**Вопрос: Если продукт C-конца в конечном итоге является инструментом повышения производительности, возможно ли, что компания платит частному лицу, а не отдельному лицу? **
**Шэнь Цзи:**Это возможно. Например, Baidu Netdisk также можно считать инструментом повышения эффективности, и многие компании покупают учетные записи Netdisk для использования своими сотрудниками. Мы также связались с компаниями и выделили каждому сотруднику учетную запись Copilot для написания программ. Это все случаи, когда компании платят за физических лиц.
Интерфейс «Вэнь Синь И Янь»
**В: Как компания, занимающаяся контентом, мы также особенно хотим использовать большие модели для создания статей. Вы только что запустили крупную модельную сервисную платформу «Qianfan» компании To B. Какова предыстория запуска «Qianfan»? Как мы можем помочь компаниям, у которых нет программистов, развертывать большие модели? **
**Шен Доу:**Это очень хороший вопрос. Фактически, именно поэтому мы создаем платформу Qianfan.
Особенностью этой большой модели, реализуемой на стороне Б, является то, что крупные компании берут на себя ведущую роль, а многие клиенты — финансовые учреждения, энергетические учреждения, образовательные учреждения и т. д. Их очевидной особенностью является то, что они требуют приватизированного развертывания, но этот порог очень высок, и вам придется обучать кучу технического персонала для итерации модели, что может замедлить время вступления в силу больших моделей.
Напротив, как и многие малые и средние компании, вы, скорее всего, не исключите продукт SaaS (на основе платформы) и не исключите публичные облака. Платформа Qianfan является таким продуктом. Предприятия могут напрямую вызывать API-интерфейсы или настраивать обучающие образцы для создания собственных моделей практически без кода. **Наша цель Qianfan — снизить порог развертывания больших моделей и способствовать их широкому применению. **
**В: Похоже, у вас и OpenAI разные пути. OpenAI сначала запускает продукт C-стороны ChatGPT, а затем постепенно запускает продукты B-стороны, в то время как Baidu одновременно продвигает продукты C-стороны и B-стороны. Почему такая разница? **
**Шен Доу: **У всех технологий есть проблемы с принятием, и все больше пользователей должны действительно использовать их и находить их ценность. Все говорят о больших моделях, но сколько людей на самом деле использовали большие модели? Корпоративные клиенты B-стороны лучше осведомлены о потенциальном влиянии больших моделей на всю производственную парадигму, и им необходимо активнее их использовать.
Но если они не используют API публичного облака и не создают собственную среду для его тестирования и тестирования, то они просто воображают, что там происходит. Итак, нам нужно создать Qianfan и позволить им сначала использовать большую модель. На самом деле, что касается полного открытия крупных моделей, сторона C ждала долгое время, и сторона B тоже ждала долгое время. Просто сторона Б ближе к коммерциализации.
**Вопрос: После того как Вэнь Синьиян была освобождена, насколько увеличился спрос на B-сторону платформы Qianfan Platform? **
Шэнь Доу: В день открытия Вэнь Синьиян на большой модельной платформе Baidu Intelligent Cloud Qianfan количество ежедневных активных предприятий увеличилось более чем на 40%. Учитывая, что скорость ответа TO B обычно отстает, фактическая ситуация будет немного лучше.
Отпуск не только увеличит данные на стороне C, но также определенно увеличит данные на стороне B. Потому что это поможет B-end компаниям сократить затраты и ускорить итерации (Примечание: дешевле и удобнее использовать отечественные модели).
Но с точки зрения роста объема данных сторона B на данный момент не так хороша, как сторона C. Предположим, сегодня кто-то хочет использовать «Вэнь Синь И Янь» на стороне B. Вместо вызова API он может с тем же успехом перейти на сторону C, чтобы сначала испытать его. Когда он посчитает, что этот опыт хорош, он применит его на Цяньфане. Чтобы использовать сторону B, требуется процесс совершенствования.
**В: Если сторона C и сторона B идут рука об руку, как вы расставляете приоритеты? Основное внимание уделяется стороне C или стороне B? **
Шен Шейк: Приоритет необходимо устанавливать только в случае конфликта ресурсов. Особенностью большой модели является то, что она имеет очень толстый нижний слой, который является универсальным, поэтому поиск приложений для нее, будь то To B или To C, — это то, что Baidu хочет делать рука об руку. Конфликта ресурсов нет.
Что касается C, Baidu активно исследует формы продуктов и бизнес-модели, которые можно реализовать в крупных моделях. Baidu необходимо реконструировать свои продукты C-end на основе больших моделей. Например, судя по собственным данным о продуктах Baidu, Baidu Netdisk, Baidu Library и других продуктах, после реконструкции на основе больших моделей уровень приверженности пользователей и членских взносов очень высок. Улучшение: недавно построенное приложение Wenxin Yiyan APP и реконструированный поиск Baidu также стали новыми возможностями для крупномасштабных модельных приложений. Что касается B, Baidu Smart Cloud хорошо обслуживает рынок To B, создавая лучшую платформу для крупномасштабных моделей.
**В: На самом деле, самая универсальная основа — это ваши облачные вычисления. Независимо от того, обслуживаете ли вы внутренних клиентов или внешних клиентов, это ваш успех. **
Шен Доу: Да, если вы хорошо обслуживаете внутренних клиентов, вы будете хорошо обслуживать внешних клиентов. Если вы хорошо обслуживаете внешних клиентов, вы будете хорошо обслуживать внутренних клиентов. В этом прелесть MaaS. В противном случае, если предположить, что внешний и внутренний технологические стеки представляют собой полностью два комплекта, стоимость будет слишком высока.
Мы ходим на двух ногах. Конечно, Baidu надеется создать продукт-блокбастер на языке C, но мы также очень хотим поддержать больше компаний и разработчиков в создании хороших приложений на языке C с помощью базовой крупной модели и вычислительной мощности. На самом деле, независимо от того, кто добьется успеха выше, это успех лежащей в его основе большой модели.
02 Крупные модели начинают жестокую борьбу на выбывание, и будущее моделей с открытым исходным кодом вызывает беспокойство
**Вопрос: Помимо Вэнь Синьияна, платформа Qianfan выпустила и другие модели. В чем разница между Qianfan и платформами агрегирования моделей, такими как Hugging Face? **
Шен Доу: В настоящее время или в течение длительного времени компании надеются опробовать разные модели, будь то из-за адаптируемости модели к сцене или психологических потребностей клиентов. С этой точки зрения нам также необходимо предоставить сторонние модели.
Но не каждую модель стоит попробовать, и это будет огромной тратой ресурсов. Таким образом, у Qianfan есть свои собственные принципы отбора, и все модели, которые мы предлагаем, являются относительно превосходными и простыми в использовании.
**В: Значит, Hugging Face позиционируется как сообщество, а Qianfan — как платформа? **
Шэнь Цзи: Верно. Qianfan не только решает вашу проблему выбора модели, но также решает вашу проблему фактического использования модели. Его использование включает в себя ряд вопросов, таких как данные, обучение, настройка, проектирование и создание приложений.Стоимость и эффективность также должны быть полностью приняты во внимание. Qianfan предоставляет комплексное обслуживание, в чем разница между Qianfan и Hugging Face.
Модель Hugging Face имеет достаточную широту, и, опираясь на естественные преимущества поставщиков облачных услуг, Qianfan имеет достаточно места для работы, а также может обеспечить сквозное обучение и оптимизацию производительности. Например, ускорение процесса обучения, быстрое восприятие, обнаружение и устранение ошибок; в процессе рассуждения, основанный на масштабируемости огромного гетерогенного вычислительного кластера Baidu, он обладает очень хорошей эластичностью ресурсов, а также может предоставлять бессерверные услуги, позволяя клиентам для получения низких затрат на инфраструктуру, отсутствия необходимости в эксплуатации и обслуживании, а также высоких преимуществ масштабируемости. Здесь Цяньфан идет глубже, чем «Обнимающее лицо».
Крупномасштабная модельная платформа Baidu Smart Cloud Qianfan | Источник изображения: официальный сайт Baidu Smart Cloud
**В: Кажется, вы не испытываете оптимизма в отношении модели с открытым исходным кодом, но открытый исходный код снижает стоимость развертывания больших моделей для предприятий, поэтому нельзя сказать, что это бессмысленно. Что вы на самом деле думаете о модели с открытым исходным кодом? **
**Шен Доу:**Кто, по вашему мнению, будет нести расходы на LLaMA (примечание: большая модель Facebook с открытым исходным кодом)? Это Фейсбук. Кто оплачивает расходы Facebook? **Если вы не можете понять конечную точку этой проблемы, то это (открытый исходный код) — это вода без источника и дерево без корней, и однажды проблемы возникнут. **
Потому что это отличается от традиционного программного обеспечения с открытым исходным кодом.В прошлом инвестиции человека в открытый исходный код были его собственными затратами времени. Но сегодня, если человек хочет открыть большие модели с открытым исходным кодом, стоимость машин и данных слишком высока.
**В: Вы можете использовать любовь для производства электричества, но не можете использовать любовь для вычислений. **
Шен Доу: Да, за один тренировочный раунд нужно вложить в это десятки миллионов.
Сегодняшний традиционный игровой процесс с открытым исходным кодом немного похож на то, что все они используют открытый исходный код для привлечения внимания пользователей и в конечном итоге надеются выбрать другие большие модели (с закрытым исходным кодом).
**В: Возможны ли отношения, аналогичные отношениям Red Hat и IBM (Примечание: в 2018 году IBM объявила о приобретении Red Hat, крупнейшей в мире компании с открытым исходным кодом)? Предположим, сопротивляющийся богатый владелец бизнеса, такой как IBM, готов поддерживать открытый исходный код? Таким образом, открытый исходный код будет иметь финансовую и информационную поддержку. **
Шен Цзи: Открытый исходный код определенно будет существовать еще долгое время. Поскольку крупномасштабные модели привлекают все больше и больше внимания, правительство и предприятия могут делать пожертвования на поддержку исследований в этой области и содействие обучению всего рынка. Но насколько ценным это будет в конечном итоге? Я думаю, что с высокой вероятностью он не станет мейнстримом и не сформирует полноценную замкнутую бизнес-модель.
Традиционная разработка программного обеспечения может образовывать замкнутый цикл. Например, если вы напишете фрагмент кода или обновите функцию, вы сможете быстро зарегистрироваться, и возможности всего программного обеспечения с открытым исходным кодом немедленно улучшатся. Но после того, как LLaMA будет выпущена сегодня, независимо от того, сколько людей ее использует, ее нельзя будет зарегистрировать. Данные, вычислительную мощность и возможности невозможно вернуть обратно, и невозможно сформировать замкнутый цикл.
**Вопрос: Многие группы открытого исходного кода считают, что модель с открытым исходным кодом считывает триллионы параметров. Хотя она и не так хороша, как модель с закрытым исходным кодом, ее все же очень удобно использовать. Так же как и сама модель, хоть и не на уровне выпускников 985 и 211, но как минимум профессионального уровня и может использоваться для более тонкой настройки по вертикали. **
Шен Доу: Стоит ли улучшить модель фундамента? Если сегодняшняя модель фундамента уже очень хороша и нет необходимости ее менять, то проблем нет. Но сегодняшняя ситуация такова, что базовая модель имеет только 60 баллов, и мы должны стремиться достичь 90 или 95 баллов.
**В: Почему нам нужен прогресс? На самом деле многие предприятия считают, что GPT3.0 уже может решить проблему, так в чем же значение прогресса? **
Шен Цзи: Это очень хороший вопрос, и мы обсудили его внутри компании. Сегодня Модель Фонда может решить большую часть проблем с оценкой 60, но она все еще далека от идеального решения. И требование человеческой природы таково: если вы позволите мне решить эту задачу один раз, я определенно не буду делать это дважды.
Сегодня, исходя всего из 60 пунктов Базовой модели, вы обучили 85 пунктов. После этого модель Foundation достигла 85 баллов, сможете ли вы набрать 95 баллов? Нет предела тому, что люди могут делать в этом отношении.
Этот предел определенно будет продолжать повышаться. Возьмем, к примеру, поиск. Можно использовать поисковые запросы, сделанные более 20 лет назад. Так чем же занимался Google последние 20 лет? Кажется, что вы закончили, но это не так.
**В: Что вы думаете о следующей конкурентной среде крупных моделей? **
Шен Цзи: Сегодня на рынке так много моделей, но я думаю, что многие из них быстро исчезнут.
Причина, по которой многие модели все еще существуют, заключается в том, что многие люди до сих пор не знают, насколько они хороши или плохи. В любом случае, никто не может его попробовать, никто не может его использовать, и в первом тесте он занимает довольно высокие позиции. Но по мере либерализации модели становится легче судить о плюсах и минусах. Сегодня тем, кто создает большие модели, если вы дадите им 30 миллионов вопросов и попытаетесь их ввести, большинство из них, вероятно, потерпят неудачу.
Это приведет к постепенной концентрации трафика, что облегчит головным моделям формирование эффекта масштаба, тем самым еще больше амортизируя затраты на разработку модели. Разрыв будет еще больше увеличиваться.
**В: Когда начнутся раунды на выбывание? **
Шен Доу: Трудно сказать, в конце концов, каждому может потребоваться некоторое время, чтобы собрать деньги. Для крупных компаний сжигание по-прежнему доступно, но это также зависит от стоимости сжигания. В любом случае у некоторых компаний есть много сценариев применения, поэтому они определенно не позволят им настраивать API-интерфейсы больших моделей других людей в настоящее время, поэтому они обязательно создадут свою собственную модель. Хорошо это или плохо (не важно), по крайней мере, на внешнее рассчитывать не придется. Крупные компании еще какое-то время продолжат производить модели.
03 Большие модели позволяют службам облачных вычислений перейти к «стандартизации», и Baidu Cloud наконец-то зарабатывает деньги
**Вопрос: Станет ли большая модель основой всех приложений в будущем? Приведет ли это к совершенно иной экологии разработки и применения? **
Шен Доу: Нет сомнений в том, что большие модели станут новой эрой операционных систем и станут основой для многих приложений.
В течение долгого времени люди использовали язык в качестве инструкций при общении с людьми и машинами. Но в прошлом машины не понимали естественный язык, поэтому мы написали набор языков программирования, чтобы они могли это понимать. Теперь, когда большие модели понимают естественный язык, вся парадигма разработки приложений фундаментально изменилась. Развитие становится движущей силой творчества, а не способности кодировать.
Кроме того, крупные модели также имеют возможность последовательного соединения систем. Подобно нынешнему появлению плагинов, которые представляют собой компоненты, которые независимо выполняют определенную функцию и ждут вызова, большие модели могут объединять плагины для выполнения конкретной задачи. Это еще больше изменит парадигму развития.
**В: Если большая модель может решать проблемы с помощью всех плагинов, является ли это скрытой взаимосвязью? **
Шэнь Цзи: На самом деле, до сих пор нет. Фактически, эти приложения теперь существуют на одном мобильном телефоне и в одном приложении, но они по-прежнему не связаны между собой. В будущем к большой базе моделей присоединятся Meituan и Didi, но они по-прежнему не будут совместимы друг с другом.
**В: Основная проблема не решена. **
Шен Доу: Да, под соединением подразумевается открытие данных. Я могу получить доступ к вашим данным, а вы можете получить доступ к моим данным. Но при большой базе моделей мы готовы общаться только с хабом, но наши плагины не общаются друг с другом.
**Вопрос: Помешает ли отсутствие взаимосвязи разработчикам беспрепятственно реализовать межресурсное планирование? Будет ли это недостатком в экосистеме разработки крупных моделей Китая? **
**Шэнь Цзи:**Я думаю, основная причина в том, что мы не сдались и масштабы трафика не увеличились. Например, у Wenxin Yiyan сразу более 30 миллионов трафика, и если разработчик подсчитает, что 1% может быть его собственным, то посещений будет 300 000, и он решит это сделать.
**Вопрос: Как Baidu Cloud определяет свое положение в экосистеме в эпоху больших моделей? Как распределяется механизм льгот? **
Шэнь Цзи: Сделать это с помощью Baidu абсолютно невозможно. Я не то чтобы боюсь, что не смогу, а того, что я точно не смогу.
Прежде всего, у плагинов обязательно будет очень процветающая экосистема, и они будут дополнять друг друга большими моделями. Плагины должны получать трафик от больших моделей, а большие модели требуют поддержки возможностей плагинов.
Во-вторых, что касается приложений для конечных клиентов, будь то развертывание частного облака или решения уровня платформы, такие как Qianfan, в конечном итоге необходимо, чтобы экологические партнеры решили проблему доставки последней мили, такие как Kingdee, UFIDA, iSoftStone и т. д. У них особенно знакомые клиенты и бизнес-процессы, и окончательные требования будут интегрированы ими.
Подводя итог, первое — это совокупность возможностей для развития экосистемы, второе — это партнеры, которые помогают создавать большие модели, а третье — это клиенты, которые используют большие модели для усиления своих собственных услуг. Все это экосистемы.
**Вопрос: Какие изменения привнесла техническая парадигма больших моделей в облачные вычисления? **
**Шен Доу:**Тенденция технологического развития становится все более и более продвинутой. Другими словами, мы все дальше и дальше удаляемся от нижнего слоя, все меньше нужно уделять внимание деталям, упаковка становится все лучше и лучше, и за кулисами эту работу выполняет большое количество людей. . Это само по себе также является ценностью, которую приносит облако.
Ценность раннего облака ЦП заключается в том, что клиентам не нужно покупать машины для связывания карт одна за другой. Оно все лучше и лучше упаковывается и может использоваться непосредственно на нем. С наступлением эпохи больших моделей графический процессор «чип-ускоритель искусственного интеллекта» постепенно стал центром вычислительной мощности, а темпы роста вычислительной мощности намного превышают темпы роста ЦП. Это ускорит наш переход от облака ЦП к облаку графического процессора.
В эпоху облака графических процессоров мы в конечном итоге дополнительно инкапсулируем возможности облака, чтобы базовый уровень не был раскрыт, формируя более продвинутую форму взаимодействия и напрямую подключаясь к API больших моделей. Сегодняшнее облако по-прежнему разрабатывается для инженеров, и форма взаимодействия недостаточно продумана, но в будущем инженеров внизу будет меньше, а на верхний уровень перейдет больше людей. Это радикальное изменение.
Baidu Smart Cloud | Источник изображения: Visual China
**Вопрос: Изменят ли крупные модели рынок облачных вычислений? Если да, то когда я смогу увидеть сигнал? **
Шэнь Цзи: Мне нравится этот вопрос. Без больших моделей облаком Baidu будет очень сложно управлять. В прошлом мы кричали: «Углубленная индустрия, сосредоточение на сценариях, интеграция облака и интеллекта, а также инклюзивный искусственный интеллект». точка роста.
**Но в прошлом традиционный ИИ был очень фрагментирован. Ему необходимо создать возможности для решения проблемы, а затем решить ее, поэтому его универсальность относительно низка. В результате это представляет собой проектную систему, которую трудно масштабировать и которая имеет низкую валовую прибыль. **
После появления генеративного ИИ мы увидели, что он обладает очень хорошей универсальностью и может решать множество задач одновременно. Он в основном унифицирован на уровне приложений. Даже если требуются тонкая настройка и плагины, все это стандартизированные действия. . Это полностью отличается от предыдущих очень фрагментированных приложений ИИ. Это само по себе является огромным изменением в облачном бизнесе, и так называемый IaaS стал MaaS.
**Вопрос: Раньше китайским компаниям, занимающимся искусственным интеллектом, приходилось реализовывать проекты, что было очень сложно. Проблемы невозможно решить с помощью стандартизированных продуктов, как мы это делаем сейчас. **
Шэнь Цзи: Мы обсуждали облачную стратегию с Робином (примечание: основатель, председатель и генеральный директор Baidu Робин Ли), и он также попросил нас стандартизировать и масштабировать, иначе мы не сможем представить Baidu как технологическую компанию. ценить.
**В: Значит, долгосрочное будущее будет связано со стандартизацией и масштабированием? **
**Шен Доу:**На заре больших моделей существовала большая неопределенность. Сегодня у многих клиентов еще нет единого понимания пределов производительности, границ, затрат, методов доставки и спроса на большие модели. Мы не можем гарантировать, что за короткий период времени все клиенты придут в публичное облако, нужно сначала сделать это через систему проектов.
Но даже эта система проектов отличается от предыдущей системы проектов. Например, у меня есть для вас приватизированная модель развертывания. Она больше похожа на Windows или Office. Сначала версия 95, затем версия 97, а затем версия 2000. Вам придется постоянно обновляться. Кажется, я дал вам компакт-диск, чтобы вы поставили его у себя дома, но на самом деле вам приходится постоянно подписываться. Это не то же самое, что оригинальная сборка.
**В: Но ваше финансовое положение улучшилось. В первом квартале этого года Baidu Smart Cloud впервые достигла квартальной прибыльности. Вы упомянули, что причиной стала стандартизация облачных сервисов, которая позволила широкомасштабное повторное использование и снизила затраты. **
**Шен Доу:**Да. В случае чистой проектной системы или относительно высокой доли проектной системы валовая прибыль после поставки слишком мала.
04 После того, как мы более года возглавляли Baidu Cloud, у нас появилась лучшая возможность
**Вопрос: Как член высшего руководящего звена Baidu, что вас больше всего беспокоит и беспокоит? Какая проблема чаще всего обсуждается в команде? **
**Шен Доу: Что касается формы продукта, Робин требует, чтобы все продукты были реконструированы с использованием собственного мышления ИИ. Это реконструкция, а не интеграция. **
Технически мы думаем о том, насколько выше могут быть возможности современного генеративного ИИ. Текущие результаты оценки Вэнь Синьянь неплохие, но они далеки от верхнего предела человеческого языка или отличного понимания человеческого языка. Как мы можем продолжать быстро улучшать эту способность, безусловно, первый вопрос, о котором мы думаем.
Затем, с точки зрения отраслевых приложений, как можно использовать модель, в каких сценариях ее можно использовать, насколько высок порог ее использования, насколько широка граница, как можно повысить ее эффективность и как она может вдохновить каждый должен подумать о лучшем использовании... Это вещи, о которых нам нужно постоянно думать.
**В: Это относительно мягкие слои. А как насчет более жестких слоев? **
Шэнь Цзи: Сейчас вычислительная мощность кластеров варьируется от 10 000 до 10 000 карт. Baidu — единственная компания в Китае, которая может выполнять одну задачу на уровне 10 000 карт.
В кластере Ванка реальные основные задачи организации, эффективности и безопасности невидимы для всех, но они чрезвычайно важны. Например, нам необходимо повысить эффективность обучения и вывода базового оборудования, а также интеграцию программного и аппаратного обеспечения. Это довольно важные вещи.
**Вопрос: В течение многих лет вы отвечали за поисковый и рекламный бизнес в Baidu. Только в прошлом году вы возглавили интеллектуальное облако. Вы сразу же столкнулись с историческими возможностями больших моделей. Вы думаете, это благословение? Как вы себя чувствуете? **
Шэнь Цзи: Это не такое уж преувеличение, но я очень рад и счастлив, что могу сделать такое.
Когда я пришел к власти в прошлом году, у меня возникла идея масштабирования и стандартизации облачных сервисов. Но поскольку возможности ИИ настолько фрагментированы, сделать это очень сложно. **В то время я серьезно задумался: существует ли что-нибудь, что требует как возможностей ИИ, так и вычислительной мощности ИИ и может использоваться многими людьми одновременно? Долго не могу найти. **
Затем появилась большая модель. Это сразу показалось правильным.
Шен Доу, исполнительный вице-президент Baidu Group и президент Baidu Intelligent Cloud Business Group (ACG) | Источник изображения: Baidu
**В: Вы лично изучали искусственный интеллект, вам больше подходят большие модели? **
Шен Доу: Это очень похоже на то, что я делал, будучи аспирантом. Хотя я всегда изучал информатику, я больше работал над программным обеспечением и искусственным интеллектом.
После подключения к облаку (низкоуровневое оборудование) я снова прочитал книгу об операционных системах и принципах компоновки компьютеров. Если это действительно IaaS, сетевые компоненты и системы хранения данных в эпоху ЦП, я думаю, что это все еще немного сложно.
Но после выхода большой модели я обнаружил, что эти вещи инкапсулированы ниже.Теперь я могу в основном изучать большую модель, например, читать статьи, использовать Python для вызова API на Qianfan и т. д. Я чувствую себя гораздо комфортнее.
**Вопрос: Каковы ваши ожидания относительно темпов роста Baidu Smart Cloud? **
**Шэнь Цзи:**Baidu Smart Cloud сейчас насчитывает почти 20 миллиардов пластин, что относительно мало. Благодаря большой модели спрос наших клиентов стал очень высоким, и теперь мы слишком заняты. Однако для того, чтобы пользователи действительно могли его использовать и эффективно доставлять, ему все равно нужен процесс.
**Вопрос: Произойдет ли небольшая вспышка в четвертом квартале? **
**Шен Доу:**Некоторые считают, что четвертый квартал станет взрывным. Спрос действительно начал расти, но я думаю, что для его резкого роста может потребоваться время до следующего года.
**В: Как бы вы оценили свою удачу? **
Шен Доу: Я думаю, это удача Baidu. Baidu занимается искусственным интеллектом уже много лет и приложила так много усилий. Если большая модель не появится, путь коммерциализации облака действительно станет более трудным и трудным. Это просто показывает, что компаниям с Vision в конечном итоге не повезет.
Посмотреть Оригинал
Содержание носит исключительно справочный характер и не является предложением или офертой. Консультации по инвестициям, налогообложению или юридическим вопросам не предоставляются. Более подробную информацию о рисках см. в разделе «Дисклеймер».
Диалог с Шэнь Доу, президентом Baidu Smart Cloud: Сегодня на рынке много крупных моделей, но большинство из них быстро исчезнут
Через 24 часа после выхода «Вэнь Синь И Янь» Шэнь Доу отошел на второй план, чтобы просмотреть данные, и обнаружил, что Вэнь Синь И Янь ответил на «33,42 миллиона» вопросов пользователей, что превзошло его ожидания.
Два дня спустя, когда Шэнь Доу сел с несколькими представителями СМИ, включая меня, чтобы поговорить об инциденте, он сказал: «Изначально мы думали, что людей будет смотреть меньше, но мы не ожидали, что энтузиазм пользователей уменьшится. не уменьшился».
В сентябре, когда большой модельный бум в Китае продолжается уже полгода, у простых людей наконец-то появилась возможность заполучить его в свои руки.
Начиная с 31 августа, ряд крупных моделей, в том числе «Вэнь Синь И Янь», были зарегистрированы и официально открыты для публики. Эта новость не только побудила пользователей попробовать ее, но и вызвала восторженные отклики компаний. ** Шэнь Доу сообщил, что в день открытия Вэньсиньиян количество ежедневных активных предприятий на платформе крупной модели Baidu Smart Cloud Qianfan увеличилось более чем на 40%. ——Последняя представляет собой крупную платформу разработки и управления моделями, запущенную Baidu для предприятий. **
В эпоху больших моделей Baidu надеется содействовать одновременному использованию крупных моделей частными лицами и предприятиями. С макроэкономической точки зрения это способствует популяризации передовых технологий крупных моделей. С точки зрения компании, это помогает Baidu вести собственный бизнес. Хотя коммерческая ценность пользователей C-конца не очевидна сразу, коммерческая ценность B-конечных клиентов напрямую отражается в комиссиях за планирование модели API и доходах от облачных вычислений.
В мае прошлого года Шен Доу, который много лет возглавлял Baidu Mobile Ecosystem (MEG), был назначен президентом Baidu Intelligent Cloud Group (ACG). Группа ожидает от него, что он воспользуется возможностями эпохи AIGC и встроит интеллектуальное облако во вторую кривую роста Baidu.
Но ситуация, с которой столкнулся Шэнь Цзи, была очень сложной. Baidu не является крупнейшим поставщиком облачных вычислений в Китае, но занимает первое место в публичном облаке по услугам, связанным с искусственным интеллектом. В то время Шэнь Доу также надеялся использовать ИИ для стимулирования роста всего облачного сервиса. К сожалению, возможности ИИ в то время были слишком «фрагментированы» и не могли избавиться от текущей ситуации с высокими затратами на обслуживание. трудности с масштабированием и скудные прибыли.
Но несколько месяцев спустя наступила эра больших моделей. С точки зрения конкурентной среды, базовые облачные сервисы на базе IaaS (инфраструктура как услуга) и PaaS (платформа как услуга) в прошлом переводятся в облачные сервисы MaaS (модель как услуга) на базе искусственного интеллекта. Шен Доу считает, что это возможность для Baidu Smart Cloud «обгонять в поворотах».
С точки зрения дохода, универсальные возможности больших моделей позволяют облачным сервисам быть более стандартизированными, позволяя их повторное использование в различных сценариях, снижая затраты на обслуживание и увеличивая прибыль. Именно по этой причине руководство Baidu сообщило инвесторам во втором квартале 2023 года, что ИИ и большие модели позволят Baidu Intelligent Cloud достичь более высокой прибыли.
** Ниже приводится полный текст нашей беседы с Шен Доу, организованной Geek Park. **
01 Вэньсинийянь на стороне C, платформа Цяньфань на стороне B, две стороны успеха
**В: После просмотра волнений пришло время по-настоящему заняться практическими делами. Два дня назад Baidu открыла Wenxin Yiyan на стороне C. Что вы думаете об этих данных об использовании пользователей? Ожидаемо или неожиданно? Каковы возможности серверной части по эксплуатации и обслуживанию? **
Шен Доу: Я отправил данные группе в 12:30 того же дня, и мои коллеги опубликовали их на следующий день. Данные были перехвачены мной из системы и представлены внешнему миру в целости и сохранности.Это абсолютная правда.
Мы также почувствовали, что меньше людей «наблюдают за волнением», поэтому наши ожидания были не такими высокими. Неожиданно в тот день было получено 33,42 миллиона ответов, что показывает, что пользователи по-прежнему возлагают большие надежды на Вэньсинь Иян. Все не подходили, чтобы задать вопрос, или уходили после нескольких предложений, а прошли через множество раундов диалога. С этой точки зрения энтузиазм пользователей все еще присутствует.
Прошло пять или шесть месяцев с тех пор, как 16 марта Вэньсинь Иян начал внутреннее тестирование. Это дало нам достаточно времени для подготовки, как с точки зрения улучшения эффекта, так и с точки зрения снижения затрат. Например, скорость вывода большой модели Wenxin увеличилась более чем в 30 раз по сравнению с оригиналом, что значительно снижает стоимость вывода и позволяет нам обрабатывать такое большое количество пользователей.
**Вопрос: Значит, технологический прогресс крупных моделей Baidu за этот период также включает в себя рост затрат? **
Шэнь Цзи: Да, большая модель сама по себе является ресурсоемкой технической парадигмой.
Сначала мы не ожидали, что трафик будет таким большим. Ресурс машины (вычислительной мощности) сам по себе очень ценен. Мы чувствовали, что размещение слишком большого количества машин будет расточительством, поэтому мы не ставили слишком много дополнительных машин. К счастью, после увеличения числа пользователей в тот день, поскольку наша производительность рассуждений улучшилась, мы по-прежнему предоставляем пользователям стабильные услуги.
Также у нас в руках хороший запас вычислительных мощностей, и мы продолжим снижать затраты на обучение и рассуждения в будущем, чтобы не было проблем с удовлетворением потребностей пользователей. В то время мы обсуждали в нашей внутренней группе, можно ли противостоять трафику. Я сказал, что усиление движения транспорта – это все беды счастья.
**Вопрос: Какую выгоду получит Baidu от либерализации Вэнь Синьианя на стороне C? **
Шен Доу: Вас может беспокоить вопрос о том, является ли открытие для стороны C устойчивым, если оно не может принести коммерческой ценности.
Фактически, пока ценность действительно создается для пользователей, коммерциализация является лишь вопросом времени. В истории технологического развития очень мало примеров ценных, но труднореализуемых. Wenxinyyan действительно принес реальную пользу конечным пользователям C. Вчера я увидел несколько комментариев, в которых говорилось, что без Wenxinyyan эффективность его офиса снизится. Поэтому, пока это имеет ценность, коммерциализация Вэнь Синьяня в будущем будет идти своим чередом.
**Вопрос: Будет ли форма продукта C-конца крупных китайских моделей соответствовать ChatGPT? Это абонентская плата? **
Шен Доу: Пока рано говорить о форме продукта крупных моделей, и ее определение еще не столь ясно.
Когда появился мобильный Интернет, мы могли бы использовать несколько ключевых слов, чтобы уточнить его определение, например SoLoMo (социальный, локальный, мобильный, использование социальных сетей, служб геолокации и мобильных терминальных устройств для обеспечения лучшего взаимодействия с пользователем). Но сейчас большую модель невозможно определить в нескольких ясных словах. Его возможности мощнее, но и границы шире, и еще далеко не время сходиться в форме продукта.
OpenAI — компания, ориентированная на технологии, и пользовательский опыт не является ее сильной стороной. Форма продукта, которую она разрабатывает сегодня, все еще находится на очень ранней стадии, и скорость итерации следующего продукта будет очень высокой, а форма радикально изменится.
**Вопрос: Возможна ли в Китае бизнес-модель ChatGPT по взиманию абонентской платы с конечных пользователей C? **
Шэнь Цзи: Мы можем разработать новые методы монетизации, например три распространенных метода монетизации: реклама, электронная коммерция и игры.
Если вы готовы тратить 2000 юаней в месяц на найм помощника, то если ИИ сможет делать 1/10 того, что может делать помощник, например, помогать вам составлять маршруты путешествий, бронировать авиабилеты и отели и даже вызывать такси и приложения для доставки еды, готовы потратить двести юаней? Просто способом реализации являются не обязательно членские взносы, это могут быть комиссии за транзакции или другие способы.
Другой пример: группа NPC-персонажей в игре управляется генеративным ИИ, а прямая трансляция «цифровых людей» в сфере электронной коммерции также поддерживается генеративным ИИ, что может привести к различным методам монетизации. В конечном итоге форма продукта С-конца определяет способ его реализации.
**Вопрос: Если продукт C-конца в конечном итоге является инструментом повышения производительности, возможно ли, что компания платит частному лицу, а не отдельному лицу? **
**Шэнь Цзи:**Это возможно. Например, Baidu Netdisk также можно считать инструментом повышения эффективности, и многие компании покупают учетные записи Netdisk для использования своими сотрудниками. Мы также связались с компаниями и выделили каждому сотруднику учетную запись Copilot для написания программ. Это все случаи, когда компании платят за физических лиц.
**В: Как компания, занимающаяся контентом, мы также особенно хотим использовать большие модели для создания статей. Вы только что запустили крупную модельную сервисную платформу «Qianfan» компании To B. Какова предыстория запуска «Qianfan»? Как мы можем помочь компаниям, у которых нет программистов, развертывать большие модели? **
**Шен Доу:**Это очень хороший вопрос. Фактически, именно поэтому мы создаем платформу Qianfan.
Особенностью этой большой модели, реализуемой на стороне Б, является то, что крупные компании берут на себя ведущую роль, а многие клиенты — финансовые учреждения, энергетические учреждения, образовательные учреждения и т. д. Их очевидной особенностью является то, что они требуют приватизированного развертывания, но этот порог очень высок, и вам придется обучать кучу технического персонала для итерации модели, что может замедлить время вступления в силу больших моделей.
Напротив, как и многие малые и средние компании, вы, скорее всего, не исключите продукт SaaS (на основе платформы) и не исключите публичные облака. Платформа Qianfan является таким продуктом. Предприятия могут напрямую вызывать API-интерфейсы или настраивать обучающие образцы для создания собственных моделей практически без кода. **Наша цель Qianfan — снизить порог развертывания больших моделей и способствовать их широкому применению. **
**В: Похоже, у вас и OpenAI разные пути. OpenAI сначала запускает продукт C-стороны ChatGPT, а затем постепенно запускает продукты B-стороны, в то время как Baidu одновременно продвигает продукты C-стороны и B-стороны. Почему такая разница? **
**Шен Доу: **У всех технологий есть проблемы с принятием, и все больше пользователей должны действительно использовать их и находить их ценность. Все говорят о больших моделях, но сколько людей на самом деле использовали большие модели? Корпоративные клиенты B-стороны лучше осведомлены о потенциальном влиянии больших моделей на всю производственную парадигму, и им необходимо активнее их использовать.
Но если они не используют API публичного облака и не создают собственную среду для его тестирования и тестирования, то они просто воображают, что там происходит. Итак, нам нужно создать Qianfan и позволить им сначала использовать большую модель. На самом деле, что касается полного открытия крупных моделей, сторона C ждала долгое время, и сторона B тоже ждала долгое время. Просто сторона Б ближе к коммерциализации.
**Вопрос: После того как Вэнь Синьиян была освобождена, насколько увеличился спрос на B-сторону платформы Qianfan Platform? **
Шэнь Доу: В день открытия Вэнь Синьиян на большой модельной платформе Baidu Intelligent Cloud Qianfan количество ежедневных активных предприятий увеличилось более чем на 40%. Учитывая, что скорость ответа TO B обычно отстает, фактическая ситуация будет немного лучше.
Отпуск не только увеличит данные на стороне C, но также определенно увеличит данные на стороне B. Потому что это поможет B-end компаниям сократить затраты и ускорить итерации (Примечание: дешевле и удобнее использовать отечественные модели).
Но с точки зрения роста объема данных сторона B на данный момент не так хороша, как сторона C. Предположим, сегодня кто-то хочет использовать «Вэнь Синь И Янь» на стороне B. Вместо вызова API он может с тем же успехом перейти на сторону C, чтобы сначала испытать его. Когда он посчитает, что этот опыт хорош, он применит его на Цяньфане. Чтобы использовать сторону B, требуется процесс совершенствования.
**В: Если сторона C и сторона B идут рука об руку, как вы расставляете приоритеты? Основное внимание уделяется стороне C или стороне B? **
Шен Шейк: Приоритет необходимо устанавливать только в случае конфликта ресурсов. Особенностью большой модели является то, что она имеет очень толстый нижний слой, который является универсальным, поэтому поиск приложений для нее, будь то To B или To C, — это то, что Baidu хочет делать рука об руку. Конфликта ресурсов нет.
Что касается C, Baidu активно исследует формы продуктов и бизнес-модели, которые можно реализовать в крупных моделях. Baidu необходимо реконструировать свои продукты C-end на основе больших моделей. Например, судя по собственным данным о продуктах Baidu, Baidu Netdisk, Baidu Library и других продуктах, после реконструкции на основе больших моделей уровень приверженности пользователей и членских взносов очень высок. Улучшение: недавно построенное приложение Wenxin Yiyan APP и реконструированный поиск Baidu также стали новыми возможностями для крупномасштабных модельных приложений. Что касается B, Baidu Smart Cloud хорошо обслуживает рынок To B, создавая лучшую платформу для крупномасштабных моделей.
**В: На самом деле, самая универсальная основа — это ваши облачные вычисления. Независимо от того, обслуживаете ли вы внутренних клиентов или внешних клиентов, это ваш успех. **
Шен Доу: Да, если вы хорошо обслуживаете внутренних клиентов, вы будете хорошо обслуживать внешних клиентов. Если вы хорошо обслуживаете внешних клиентов, вы будете хорошо обслуживать внутренних клиентов. В этом прелесть MaaS. В противном случае, если предположить, что внешний и внутренний технологические стеки представляют собой полностью два комплекта, стоимость будет слишком высока.
Мы ходим на двух ногах. Конечно, Baidu надеется создать продукт-блокбастер на языке C, но мы также очень хотим поддержать больше компаний и разработчиков в создании хороших приложений на языке C с помощью базовой крупной модели и вычислительной мощности. На самом деле, независимо от того, кто добьется успеха выше, это успех лежащей в его основе большой модели.
02 Крупные модели начинают жестокую борьбу на выбывание, и будущее моделей с открытым исходным кодом вызывает беспокойство
**Вопрос: Помимо Вэнь Синьияна, платформа Qianfan выпустила и другие модели. В чем разница между Qianfan и платформами агрегирования моделей, такими как Hugging Face? **
Шен Доу: В настоящее время или в течение длительного времени компании надеются опробовать разные модели, будь то из-за адаптируемости модели к сцене или психологических потребностей клиентов. С этой точки зрения нам также необходимо предоставить сторонние модели.
Но не каждую модель стоит попробовать, и это будет огромной тратой ресурсов. Таким образом, у Qianfan есть свои собственные принципы отбора, и все модели, которые мы предлагаем, являются относительно превосходными и простыми в использовании.
**В: Значит, Hugging Face позиционируется как сообщество, а Qianfan — как платформа? **
Шэнь Цзи: Верно. Qianfan не только решает вашу проблему выбора модели, но также решает вашу проблему фактического использования модели. Его использование включает в себя ряд вопросов, таких как данные, обучение, настройка, проектирование и создание приложений.Стоимость и эффективность также должны быть полностью приняты во внимание. Qianfan предоставляет комплексное обслуживание, в чем разница между Qianfan и Hugging Face.
Модель Hugging Face имеет достаточную широту, и, опираясь на естественные преимущества поставщиков облачных услуг, Qianfan имеет достаточно места для работы, а также может обеспечить сквозное обучение и оптимизацию производительности. Например, ускорение процесса обучения, быстрое восприятие, обнаружение и устранение ошибок; в процессе рассуждения, основанный на масштабируемости огромного гетерогенного вычислительного кластера Baidu, он обладает очень хорошей эластичностью ресурсов, а также может предоставлять бессерверные услуги, позволяя клиентам для получения низких затрат на инфраструктуру, отсутствия необходимости в эксплуатации и обслуживании, а также высоких преимуществ масштабируемости. Здесь Цяньфан идет глубже, чем «Обнимающее лицо».
**В: Кажется, вы не испытываете оптимизма в отношении модели с открытым исходным кодом, но открытый исходный код снижает стоимость развертывания больших моделей для предприятий, поэтому нельзя сказать, что это бессмысленно. Что вы на самом деле думаете о модели с открытым исходным кодом? **
**Шен Доу:**Кто, по вашему мнению, будет нести расходы на LLaMA (примечание: большая модель Facebook с открытым исходным кодом)? Это Фейсбук. Кто оплачивает расходы Facebook? **Если вы не можете понять конечную точку этой проблемы, то это (открытый исходный код) — это вода без источника и дерево без корней, и однажды проблемы возникнут. **
Потому что это отличается от традиционного программного обеспечения с открытым исходным кодом.В прошлом инвестиции человека в открытый исходный код были его собственными затратами времени. Но сегодня, если человек хочет открыть большие модели с открытым исходным кодом, стоимость машин и данных слишком высока.
**В: Вы можете использовать любовь для производства электричества, но не можете использовать любовь для вычислений. **
Шен Доу: Да, за один тренировочный раунд нужно вложить в это десятки миллионов.
Сегодняшний традиционный игровой процесс с открытым исходным кодом немного похож на то, что все они используют открытый исходный код для привлечения внимания пользователей и в конечном итоге надеются выбрать другие большие модели (с закрытым исходным кодом).
**В: Возможны ли отношения, аналогичные отношениям Red Hat и IBM (Примечание: в 2018 году IBM объявила о приобретении Red Hat, крупнейшей в мире компании с открытым исходным кодом)? Предположим, сопротивляющийся богатый владелец бизнеса, такой как IBM, готов поддерживать открытый исходный код? Таким образом, открытый исходный код будет иметь финансовую и информационную поддержку. **
Шен Цзи: Открытый исходный код определенно будет существовать еще долгое время. Поскольку крупномасштабные модели привлекают все больше и больше внимания, правительство и предприятия могут делать пожертвования на поддержку исследований в этой области и содействие обучению всего рынка. Но насколько ценным это будет в конечном итоге? Я думаю, что с высокой вероятностью он не станет мейнстримом и не сформирует полноценную замкнутую бизнес-модель.
Традиционная разработка программного обеспечения может образовывать замкнутый цикл. Например, если вы напишете фрагмент кода или обновите функцию, вы сможете быстро зарегистрироваться, и возможности всего программного обеспечения с открытым исходным кодом немедленно улучшатся. Но после того, как LLaMA будет выпущена сегодня, независимо от того, сколько людей ее использует, ее нельзя будет зарегистрировать. Данные, вычислительную мощность и возможности невозможно вернуть обратно, и невозможно сформировать замкнутый цикл.
**Вопрос: Многие группы открытого исходного кода считают, что модель с открытым исходным кодом считывает триллионы параметров. Хотя она и не так хороша, как модель с закрытым исходным кодом, ее все же очень удобно использовать. Так же как и сама модель, хоть и не на уровне выпускников 985 и 211, но как минимум профессионального уровня и может использоваться для более тонкой настройки по вертикали. **
Шен Доу: Стоит ли улучшить модель фундамента? Если сегодняшняя модель фундамента уже очень хороша и нет необходимости ее менять, то проблем нет. Но сегодняшняя ситуация такова, что базовая модель имеет только 60 баллов, и мы должны стремиться достичь 90 или 95 баллов.
**В: Почему нам нужен прогресс? На самом деле многие предприятия считают, что GPT3.0 уже может решить проблему, так в чем же значение прогресса? **
Шен Цзи: Это очень хороший вопрос, и мы обсудили его внутри компании. Сегодня Модель Фонда может решить большую часть проблем с оценкой 60, но она все еще далека от идеального решения. И требование человеческой природы таково: если вы позволите мне решить эту задачу один раз, я определенно не буду делать это дважды.
Сегодня, исходя всего из 60 пунктов Базовой модели, вы обучили 85 пунктов. После этого модель Foundation достигла 85 баллов, сможете ли вы набрать 95 баллов? Нет предела тому, что люди могут делать в этом отношении.
Этот предел определенно будет продолжать повышаться. Возьмем, к примеру, поиск. Можно использовать поисковые запросы, сделанные более 20 лет назад. Так чем же занимался Google последние 20 лет? Кажется, что вы закончили, но это не так.
**В: Что вы думаете о следующей конкурентной среде крупных моделей? **
Шен Цзи: Сегодня на рынке так много моделей, но я думаю, что многие из них быстро исчезнут.
Причина, по которой многие модели все еще существуют, заключается в том, что многие люди до сих пор не знают, насколько они хороши или плохи. В любом случае, никто не может его попробовать, никто не может его использовать, и в первом тесте он занимает довольно высокие позиции. Но по мере либерализации модели становится легче судить о плюсах и минусах. Сегодня тем, кто создает большие модели, если вы дадите им 30 миллионов вопросов и попытаетесь их ввести, большинство из них, вероятно, потерпят неудачу.
Это приведет к постепенной концентрации трафика, что облегчит головным моделям формирование эффекта масштаба, тем самым еще больше амортизируя затраты на разработку модели. Разрыв будет еще больше увеличиваться.
**В: Когда начнутся раунды на выбывание? **
Шен Доу: Трудно сказать, в конце концов, каждому может потребоваться некоторое время, чтобы собрать деньги. Для крупных компаний сжигание по-прежнему доступно, но это также зависит от стоимости сжигания. В любом случае у некоторых компаний есть много сценариев применения, поэтому они определенно не позволят им настраивать API-интерфейсы больших моделей других людей в настоящее время, поэтому они обязательно создадут свою собственную модель. Хорошо это или плохо (не важно), по крайней мере, на внешнее рассчитывать не придется. Крупные компании еще какое-то время продолжат производить модели.
03 Большие модели позволяют службам облачных вычислений перейти к «стандартизации», и Baidu Cloud наконец-то зарабатывает деньги
**Вопрос: Станет ли большая модель основой всех приложений в будущем? Приведет ли это к совершенно иной экологии разработки и применения? **
Шен Доу: Нет сомнений в том, что большие модели станут новой эрой операционных систем и станут основой для многих приложений.
В течение долгого времени люди использовали язык в качестве инструкций при общении с людьми и машинами. Но в прошлом машины не понимали естественный язык, поэтому мы написали набор языков программирования, чтобы они могли это понимать. Теперь, когда большие модели понимают естественный язык, вся парадигма разработки приложений фундаментально изменилась. Развитие становится движущей силой творчества, а не способности кодировать.
Кроме того, крупные модели также имеют возможность последовательного соединения систем. Подобно нынешнему появлению плагинов, которые представляют собой компоненты, которые независимо выполняют определенную функцию и ждут вызова, большие модели могут объединять плагины для выполнения конкретной задачи. Это еще больше изменит парадигму развития.
**В: Если большая модель может решать проблемы с помощью всех плагинов, является ли это скрытой взаимосвязью? **
Шэнь Цзи: На самом деле, до сих пор нет. Фактически, эти приложения теперь существуют на одном мобильном телефоне и в одном приложении, но они по-прежнему не связаны между собой. В будущем к большой базе моделей присоединятся Meituan и Didi, но они по-прежнему не будут совместимы друг с другом.
**В: Основная проблема не решена. **
Шен Доу: Да, под соединением подразумевается открытие данных. Я могу получить доступ к вашим данным, а вы можете получить доступ к моим данным. Но при большой базе моделей мы готовы общаться только с хабом, но наши плагины не общаются друг с другом.
**Вопрос: Помешает ли отсутствие взаимосвязи разработчикам беспрепятственно реализовать межресурсное планирование? Будет ли это недостатком в экосистеме разработки крупных моделей Китая? **
**Шэнь Цзи:**Я думаю, основная причина в том, что мы не сдались и масштабы трафика не увеличились. Например, у Wenxin Yiyan сразу более 30 миллионов трафика, и если разработчик подсчитает, что 1% может быть его собственным, то посещений будет 300 000, и он решит это сделать.
**Вопрос: Как Baidu Cloud определяет свое положение в экосистеме в эпоху больших моделей? Как распределяется механизм льгот? **
Шэнь Цзи: Сделать это с помощью Baidu абсолютно невозможно. Я не то чтобы боюсь, что не смогу, а того, что я точно не смогу.
Прежде всего, у плагинов обязательно будет очень процветающая экосистема, и они будут дополнять друг друга большими моделями. Плагины должны получать трафик от больших моделей, а большие модели требуют поддержки возможностей плагинов.
Во-вторых, что касается приложений для конечных клиентов, будь то развертывание частного облака или решения уровня платформы, такие как Qianfan, в конечном итоге необходимо, чтобы экологические партнеры решили проблему доставки последней мили, такие как Kingdee, UFIDA, iSoftStone и т. д. У них особенно знакомые клиенты и бизнес-процессы, и окончательные требования будут интегрированы ими.
Подводя итог, первое — это совокупность возможностей для развития экосистемы, второе — это партнеры, которые помогают создавать большие модели, а третье — это клиенты, которые используют большие модели для усиления своих собственных услуг. Все это экосистемы.
**Вопрос: Какие изменения привнесла техническая парадигма больших моделей в облачные вычисления? **
**Шен Доу:**Тенденция технологического развития становится все более и более продвинутой. Другими словами, мы все дальше и дальше удаляемся от нижнего слоя, все меньше нужно уделять внимание деталям, упаковка становится все лучше и лучше, и за кулисами эту работу выполняет большое количество людей. . Это само по себе также является ценностью, которую приносит облако.
Ценность раннего облака ЦП заключается в том, что клиентам не нужно покупать машины для связывания карт одна за другой. Оно все лучше и лучше упаковывается и может использоваться непосредственно на нем. С наступлением эпохи больших моделей графический процессор «чип-ускоритель искусственного интеллекта» постепенно стал центром вычислительной мощности, а темпы роста вычислительной мощности намного превышают темпы роста ЦП. Это ускорит наш переход от облака ЦП к облаку графического процессора.
В эпоху облака графических процессоров мы в конечном итоге дополнительно инкапсулируем возможности облака, чтобы базовый уровень не был раскрыт, формируя более продвинутую форму взаимодействия и напрямую подключаясь к API больших моделей. Сегодняшнее облако по-прежнему разрабатывается для инженеров, и форма взаимодействия недостаточно продумана, но в будущем инженеров внизу будет меньше, а на верхний уровень перейдет больше людей. Это радикальное изменение.
Baidu Smart Cloud | Источник изображения: Visual China
**Вопрос: Изменят ли крупные модели рынок облачных вычислений? Если да, то когда я смогу увидеть сигнал? **
Шэнь Цзи: Мне нравится этот вопрос. Без больших моделей облаком Baidu будет очень сложно управлять. В прошлом мы кричали: «Углубленная индустрия, сосредоточение на сценариях, интеграция облака и интеллекта, а также инклюзивный искусственный интеллект». точка роста.
**Но в прошлом традиционный ИИ был очень фрагментирован. Ему необходимо создать возможности для решения проблемы, а затем решить ее, поэтому его универсальность относительно низка. В результате это представляет собой проектную систему, которую трудно масштабировать и которая имеет низкую валовую прибыль. **
После появления генеративного ИИ мы увидели, что он обладает очень хорошей универсальностью и может решать множество задач одновременно. Он в основном унифицирован на уровне приложений. Даже если требуются тонкая настройка и плагины, все это стандартизированные действия. . Это полностью отличается от предыдущих очень фрагментированных приложений ИИ. Это само по себе является огромным изменением в облачном бизнесе, и так называемый IaaS стал MaaS.
**Вопрос: Раньше китайским компаниям, занимающимся искусственным интеллектом, приходилось реализовывать проекты, что было очень сложно. Проблемы невозможно решить с помощью стандартизированных продуктов, как мы это делаем сейчас. **
Шэнь Цзи: Мы обсуждали облачную стратегию с Робином (примечание: основатель, председатель и генеральный директор Baidu Робин Ли), и он также попросил нас стандартизировать и масштабировать, иначе мы не сможем представить Baidu как технологическую компанию. ценить.
**В: Значит, долгосрочное будущее будет связано со стандартизацией и масштабированием? **
**Шен Доу:**На заре больших моделей существовала большая неопределенность. Сегодня у многих клиентов еще нет единого понимания пределов производительности, границ, затрат, методов доставки и спроса на большие модели. Мы не можем гарантировать, что за короткий период времени все клиенты придут в публичное облако, нужно сначала сделать это через систему проектов.
Но даже эта система проектов отличается от предыдущей системы проектов. Например, у меня есть для вас приватизированная модель развертывания. Она больше похожа на Windows или Office. Сначала версия 95, затем версия 97, а затем версия 2000. Вам придется постоянно обновляться. Кажется, я дал вам компакт-диск, чтобы вы поставили его у себя дома, но на самом деле вам приходится постоянно подписываться. Это не то же самое, что оригинальная сборка.
**В: Но ваше финансовое положение улучшилось. В первом квартале этого года Baidu Smart Cloud впервые достигла квартальной прибыльности. Вы упомянули, что причиной стала стандартизация облачных сервисов, которая позволила широкомасштабное повторное использование и снизила затраты. **
**Шен Доу:**Да. В случае чистой проектной системы или относительно высокой доли проектной системы валовая прибыль после поставки слишком мала.
04 После того, как мы более года возглавляли Baidu Cloud, у нас появилась лучшая возможность
**Вопрос: Как член высшего руководящего звена Baidu, что вас больше всего беспокоит и беспокоит? Какая проблема чаще всего обсуждается в команде? **
**Шен Доу: Что касается формы продукта, Робин требует, чтобы все продукты были реконструированы с использованием собственного мышления ИИ. Это реконструкция, а не интеграция. **
Технически мы думаем о том, насколько выше могут быть возможности современного генеративного ИИ. Текущие результаты оценки Вэнь Синьянь неплохие, но они далеки от верхнего предела человеческого языка или отличного понимания человеческого языка. Как мы можем продолжать быстро улучшать эту способность, безусловно, первый вопрос, о котором мы думаем.
Затем, с точки зрения отраслевых приложений, как можно использовать модель, в каких сценариях ее можно использовать, насколько высок порог ее использования, насколько широка граница, как можно повысить ее эффективность и как она может вдохновить каждый должен подумать о лучшем использовании... Это вещи, о которых нам нужно постоянно думать.
**В: Это относительно мягкие слои. А как насчет более жестких слоев? **
Шэнь Цзи: Сейчас вычислительная мощность кластеров варьируется от 10 000 до 10 000 карт. Baidu — единственная компания в Китае, которая может выполнять одну задачу на уровне 10 000 карт.
В кластере Ванка реальные основные задачи организации, эффективности и безопасности невидимы для всех, но они чрезвычайно важны. Например, нам необходимо повысить эффективность обучения и вывода базового оборудования, а также интеграцию программного и аппаратного обеспечения. Это довольно важные вещи.
**Вопрос: В течение многих лет вы отвечали за поисковый и рекламный бизнес в Baidu. Только в прошлом году вы возглавили интеллектуальное облако. Вы сразу же столкнулись с историческими возможностями больших моделей. Вы думаете, это благословение? Как вы себя чувствуете? **
Шэнь Цзи: Это не такое уж преувеличение, но я очень рад и счастлив, что могу сделать такое.
Когда я пришел к власти в прошлом году, у меня возникла идея масштабирования и стандартизации облачных сервисов. Но поскольку возможности ИИ настолько фрагментированы, сделать это очень сложно. **В то время я серьезно задумался: существует ли что-нибудь, что требует как возможностей ИИ, так и вычислительной мощности ИИ и может использоваться многими людьми одновременно? Долго не могу найти. **
Затем появилась большая модель. Это сразу показалось правильным.
Шен Доу, исполнительный вице-президент Baidu Group и президент Baidu Intelligent Cloud Business Group (ACG) | Источник изображения: Baidu
**В: Вы лично изучали искусственный интеллект, вам больше подходят большие модели? **
Шен Доу: Это очень похоже на то, что я делал, будучи аспирантом. Хотя я всегда изучал информатику, я больше работал над программным обеспечением и искусственным интеллектом.
После подключения к облаку (низкоуровневое оборудование) я снова прочитал книгу об операционных системах и принципах компоновки компьютеров. Если это действительно IaaS, сетевые компоненты и системы хранения данных в эпоху ЦП, я думаю, что это все еще немного сложно.
Но после выхода большой модели я обнаружил, что эти вещи инкапсулированы ниже.Теперь я могу в основном изучать большую модель, например, читать статьи, использовать Python для вызова API на Qianfan и т. д. Я чувствую себя гораздо комфортнее.
**Вопрос: Каковы ваши ожидания относительно темпов роста Baidu Smart Cloud? **
**Шэнь Цзи:**Baidu Smart Cloud сейчас насчитывает почти 20 миллиардов пластин, что относительно мало. Благодаря большой модели спрос наших клиентов стал очень высоким, и теперь мы слишком заняты. Однако для того, чтобы пользователи действительно могли его использовать и эффективно доставлять, ему все равно нужен процесс.
**Вопрос: Произойдет ли небольшая вспышка в четвертом квартале? **
**Шен Доу:**Некоторые считают, что четвертый квартал станет взрывным. Спрос действительно начал расти, но я думаю, что для его резкого роста может потребоваться время до следующего года.
**В: Как бы вы оценили свою удачу? **
Шен Доу: Я думаю, это удача Baidu. Baidu занимается искусственным интеллектом уже много лет и приложила так много усилий. Если большая модель не появится, путь коммерциализации облака действительно станет более трудным и трудным. Это просто показывает, что компаниям с Vision в конечном итоге не повезет.