Через 24 години після виходу «Wen Xin Yi Yan» Шень Доу пішов у фоновий режим, щоб переглянути дані, і виявив, що Wen Xin Yi Yan відповів на «33,42 мільйона» запитань користувачів, що перевершило його очікування.
Через два дні, коли Шень Доу зустрівся з кількома представниками ЗМІ, включаючи мене, щоб поговорити про інцидент, він сказав: «Ми спочатку думали, що буде менше людей, які дивитимуться, але ми не очікували, що ентузіазм користувачів зменшиться. не зменшилася».
У вересні, коли в Китаї вже півроку триває великий модельний бум, у звичайних людей нарешті з’явилася можливість потрапити в руки.
Починаючи з 31 серпня, низка великих моделей, у тому числі «Wen Xin Yi Yan», були зареєстровані та офіційно відкриті для публіки. Ця новина не тільки змусила користувачів спробувати його, але й викликала захоплені відгуки компаній. ** Шен Доу сказав, що в день відкриття Wenxinyiyan кількість щоденних активних підприємств на платформі великої моделі Baidu Smart Cloud Qianfan зросла більш ніж на 40%. ——Останній — це велика платформа розробки й керування моделлю, запущена Baidu для підприємств. **
В епоху великих моделей Baidu сподівається сприяти використанню великих моделей як окремими особами, так і підприємствами в той же час. З макроекономічної точки зору це сприяє популяризації передових технологій великих моделей. З точки зору компанії, це допомагає Baidu вести власний бізнес. Хоча комерційна цінність користувачів на стороні C не відразу очевидна, комерційна цінність клієнтів на стороні B безпосередньо відображається в платі за розклад API моделі та доходах від хмарних обчислень.
У травні минулого року Шен Доу, який протягом багатьох років керував Baidu Mobile Ecosystem (MEG), отримав важливу посаду президента Baidu Smart Cloud Business Group (ACG). Група очікує від нього скористатися можливістю ери AIGC і перетворити інтелектуальну хмару на другу криву зростання Baidu.
Але ситуація, в якій зіткнувся Шень Доу, була дуже важкою. Baidu не є найбільшим постачальником хмарних обчислень у Китаї, але він займає перше місце серед загальнодоступних хмар для послуг, пов’язаних зі штучним інтелектом. У той час Shen Dou також сподівався використовувати штучний інтелект для стимулювання зростання всього хмарного сервісу.На жаль, можливості штучного інтелекту на той час були надто «фрагментованими» і не могли позбутися поточної ситуації високої вартості послуг, труднощі з розширенням і мізерні прибутки.
Але через кілька місяців настала ера великих моделей. З точки зору конкурентоспроможності, базові хмарні сервіси, в яких раніше домінували IaaS (інфраструктура як послуга) і PaaS (платформа як послуга), поступаються місцем хмарним сервісам, таким як MaaS (модель як послуга), де домінує штучний інтелект. . Шен Доу вважає, що це можливість для Baidu Smart Cloud «обігнати на кривій».
З точки зору прибутку, можливості загального призначення великих моделей дозволяють більш стандартизувати хмарні сервіси, щоб їх можна було повторно використовувати у великих масштабах у різних сценаріях, зменшуючи витрати на обслуговування та збільшуючи прибуток. Саме з цієї причини керівництво Baidu повідомило інвесторам під час телефонної конференції з питань прибутків у другому кварталі 2023 року, що штучний інтелект і великі моделі дозволять Baidu Smart Cloud досягти вищої норми прибутку.
**Нижче наведено повний текст нашої розмови з Shen Dou, організованої Geek Park. **
Джерело зображення: створено Unbounded AI
01 Wenxin Yiyan на стороні C і платформа Qianfan на стороні B, успішна з двох сторін
**З: Настав час по-справжньому зайнятися практичними речами після перегляду хвилювання. Два дні тому Baidu відкрив Wenxin Yiyan на стороні C, що ви думаєте про ці дані про використання користувача? Очікувано чи несподівано? Які можливості роботи та обслуговування серверної частини? **
Shen Ji: Я надіслав дані групі о 12:30 тієї ночі, а мої колеги опублікували дані наступного дня. Дані були перехоплені мною з системи та представлені зовнішньому світу в недоторканому вигляді, абсолютно правдиві.
Спочатку ми думали, що менше людей «спостерігають за хвилюванням», тому наші очікування були не такими високими. Несподівано того дня було 33,42 мільйона відповідей, що свідчить про те, що користувачі покладають великі очікування на Вень Сіньянь. Кожен підходив не для того, щоб поставити запитання чи два, а потім піти, а проходив багато раундів діалогу. З цієї точки зору ентузіазм користувачів все ще присутній.
Вень Сіньянь проходив внутрішнє тестування протягом п’яти-шести місяців із 16 березня, що дало нам достатньо часу для підготовки як щодо покращення ефекту, так і щодо скорочення витрат. Наприклад, швидкість логічного висновку великої моделі Wenxin була збільшена більш ніж у 30 разів порівняно з оригіналом, що значно зменшило вартість логічного висновку та дозволило нам працювати з такою великою кількістю користувачів.
**З: Отже, технологічний прогрес великих моделей Baidu протягом цього періоду також включає зростання вартості? **
**Шен Доу:**Так, велика модель сама по собі є ресурсомісткою технічною парадигмою.
Спочатку ми не очікували, що трафік буде таким великим. Ресурс машини (обчислювальної потужності) сам по собі дуже цінний. Ми вважали, що розміщення забагато машин було б марною тратою, тому ми не ставили занадто багато додаткових машин. Після збільшення кількості користувачів того дня, на щастя, оскільки наші міркування покращилися, ми все ще надаємо користувачам стабільні послуги.
У нас також є хороший запас обчислювальної потужності, і ми продовжуватимемо знижувати вартість навчання та висновків, щоб без проблем задовольняти потреби користувачів. Тоді ми у внутрішній групі обговорювали, чи зможемо ми витримати трафік. Я сказав, що інтенсивність руху - це всі проблеми щастя.
**З: Які переваги для Baidu від лібералізації Вень Сіньянь на стороні C? **
Shen Dou: Ви можете хвилюватися про те, чи буде відкритий доступ до сторони C стійким, якщо він не принесе комерційної цінності.
Насправді, якщо цінність справді створюється для користувачів, комерціалізація є лише питанням часу. В історії технологічного розвитку є дуже мало прикладів, які є цінними, але важко реалізувати. Вень Сіньян справді приніс справжню цінність кінцевим користувачам C. Вчора я бачив кілька коментарів, у яких говорилося, що без Веньсіньяна ефективність його офісу знизиться. Тому, якщо це буде цінним, комерціалізація Wenxinyiyan у майбутньому буде природною.
**З: Чи відповідатиме форма продуктів C-end великих китайських моделей ChatGPT? Це абонплата? **
Shen Ji: Зарано говорити про форму продукту великої моделі, і її визначення ще не настільки чітке.
Коли почався мобільний Інтернет, ми могли використати кілька ключових слів, щоб уточнити його визначення, наприклад SoLoMo (соціальний, локальний, мобільний, використання соціальних мереж, служб геолокації та мобільних термінальних пристроїв для забезпечення кращого досвіду користувача). Але зараз велику модель неможливо описати кількома чіткими словами. Його можливості потужніші, але його межі також ширші, і ще далеко не час для зближення щодо форми продукту.
OpenAI — це компанія, орієнтована на технології, і досвід користувача насправді не є її сильною стороною. Форма продукту, яку він розробляє сьогодні, все ще знаходиться на початковій стадії. Далі швидкість ітерації продукту буде дуже високою, а форма кардинально зміниться.
**З: Чи можлива в Китаї бізнес-модель ChatGPT щодо стягнення плати за підписку з кінцевих користувачів C? **
Шен Доу: Ми можемо розробити нові методи монетизації, наприклад три поширені методи монетизації реклами, електронної комерції та ігор.
Якщо ви готові витрачати 2000 юанів на місяць, щоб найняти помічника, то якщо штучний інтелект зможе зробити 1/10 того, що може зробити помічник, наприклад допомогти вам скласти маршрут подорожі, забронювати авіаквитки та готелі та навіть мобілізувати виклик таксі і програми для доставки їжі, чи не так? Готові витратити двісті юанів? Просто спосіб реалізації – це не обов’язково членські внески, це можуть бути комісійні транзакції чи інші методи.
Для іншого прикладу, купа персонажів NPC у грі керується генеративним ШІ, а пряма трансляція «цифрових людей» у сфері електронної комерції також підтримується генеративним ШІ, що може призвести до різних методів монетизації. Зрештою, форма продукту C-side визначає спосіб його монетизації.
**З: Якщо продукти C-end в кінцевому підсумку є інструментами продуктивності, чи можливо, що замість того, щоб за них платити окремі люди, за них платить компанія? **
**Шен Цзі:**Це можливо. Наприклад, Baidu Netdisk також можна вважати ефективним інструментом, і багато компаній купуватимуть облікові записи Netdisk для своїх співробітників. Ми також зв’язалися з компаніями та призначили кожному співробітнику обліковий запис Copilot для написання програм. Це все випадки, коли компанії платять за фізичних осіб.
Інтерфейс "Wen Xin Yi Yan".
**З: Як контент-компанія, ми також особливо хочемо використовувати великі моделі для створення статей. Ви щойно запустили масштабну модельну платформу To B "Qianfan". Яка передумова запуску "Qianfan"? Як це може допомогти компаніям без програмістів розгортати великі моделі? **
Шен Цзі: Це дуже гарне запитання. Фактично, саме тому ми створюємо платформу Qianfan.
Характерною рисою цієї великої моделі, яка реалізується на стороні B, є те, що великі компанії займають провідну роль, а багато клієнтів є фінансовими установами, енергетичними установами, навчальними закладами тощо. Їх очевидною особливістю є те, що вони вимагають приватизованого розгортання, але цей поріг дуже високий, і вам потрібно навчити купу технічного персоналу для ітерації моделі, що може сповільнити час, щоб великі моделі вступили в силу.
Навпаки, як і багато малих і середніх компаній, ви, швидше за все, не виключатимете продукт SaaS (на основі платформи), а також не виключатимете публічні хмари. Таким продуктом є платформа Qianfan. Підприємства можуть безпосередньо викликати на ньому API або точно налаштовувати навчальні зразки для створення власних моделей майже без коду. **Мета нашого Qianfan — знизити поріг розгортання великих моделей і сприяти широкому застосуванню великих моделей. **
**З: Здається, у вас і OpenAI різні шляхи. OpenAI спочатку запускає продукт на стороні C ChatGPT, а потім повільно запускає продукти на стороні B, тоді як Baidu просуває продукти на стороні C і B одночасно. Чому така різниця? **
**Shen Ji:**У технології є проблема сприйняття, і більше користувачів повинні справді використовувати її та знайти її цінність. Усі говорять про макети, але скільки людей насправді використовували макети? Корпоративні клієнти B-end краще усвідомлюють потенційний вплив великої моделі на всю їхню парадигму виробництва, і їм потрібно більше використовувати її.
Але якщо вони не використовують публічні хмарні API і не налаштовують власне середовище, щоб випробувати його, то вони просто уявляють собі речі. Тож нам потрібно створити Qianfan і дозволити їм спочатку використовувати велику модель. Насправді, щодо повного відкриття великих моделей, сторона C чекала довго, і сторона B також довго чекала. Просто сторона B ближча до комерціалізації.
**З: Наскільки зріс попит на B-сторону Qianfan Platform після звільнення Вень Сіньяня? **
Shen Ji: У день відкриття Wenxin Yiyan кількість щоденних активних підприємств на платформі масштабної моделі Baidu Smart Cloud Qianfan зросла більш ніж на 40%, трохи краще.
Розслаблення збільшить дані не лише на стороні C, але й на стороні B. Тому що це допоможе компаніям B-side зменшити витрати та прискорити ітерації (зверніть увагу: використовувати вітчизняні моделі дешевше та зручніше).
Однак, з точки зору зростання даних, сторона B все ще не така хороша, як сторона C. Сьогодні припустімо, що хтось хоче використовувати «Wen Xin Yi Yan» на стороні B. Замість того, щоб викликати API, він міг би перейти на сторону C, щоб спочатку випробувати це. Коли він вважає, що досвід хороший, він прийде до Цяньфань, щоб використати його. Для того, щоб сторона Б використовувала це, потрібен процес виховання.
**З: Якщо сторона C і сторона B йдуть рука об руку, як ви розставите пріоритети? Чи зосереджені головним чином на стороні C чи B-стороні? **
Shen Shake: Пріоритет потрібно встановлювати лише за наявності конфлікту ресурсів. Характеристика великої моделі полягає в тому, що вона має товстий шар унизу, який є універсальним.Шукаючи застосування зверху, будь то B чи C, Baidu має працювати разом, щоб це зробити. Не до конфлікту ресурсів.
Щодо C, Baidu активно досліджує форми продукту та бізнес-моделі, які можуть реалізувати великі моделі. Baidu потрібно реконструювати свої продукти C-end на основі великих моделей. Наприклад, судячи з власних даних про продукти Baidu, Baidu Netdisk, Baidu Library та інших продуктів, після реконструкції на основі великих моделей постійність користувачів і ставки членських платежів дуже високі. Удосконалення; нещодавно створений додаток Wenxin Yiyan APP і реконструйований пошук Baidu також стали новими входами до великих модельних додатків. З боку B, Baidu Intelligent Cloud добре обслуговує ринок To B, створюючи найкращу платформу великої моделі.
**З: Насправді найбільш універсальною основою є ваші хмарні обчислення. Незалежно від того, обслуговуєте ви внутрішніх чи зовнішніх клієнтів, це ваш успіх. **
**Шен Джі:**Так, якщо ви добре обслуговуєте внутрішніх клієнтів, ви зможете добре обслуговувати зовнішніх клієнтів, а якщо ви добре обслуговуєте зовнішніх клієнтів, ви зможете добре обслуговувати внутрішніх. У цьому краса MaaS. В іншому випадку, якщо припустити, що зовнішній і внутрішній технологічні стеки складаються з двох наборів, вартість буде занадто високою.
Ходимо на двох ногах. Baidu, безсумнівно, сподівається створити хітовий продукт To C, але ми також дуже готові підтримати більше компаній і розробників у створенні хороших програм To C за допомогою основної великої моделі та обчислювальної потужності. Фактично, незалежно від того, хто досяг успіху вище, це успіх основної моделі.
02 Велика модель починає жорстоке змагання з нокаутом, і майбутнє моделі з відкритим кодом викликає занепокоєння
**З: Окрім Wenxin Yiyan, платформа Qianfan також випустила інші моделі. Яка різниця між Qianfan і платформою агрегації моделей, як Hugging Face? **
Shen Ji: В даний час або протягом тривалого часу компанії сподіваються випробувати різні моделі, чи то через адаптивність моделі до сцени, чи через психологічні потреби клієнтів. З цієї точки зору нам також потрібно надавати моделі сторонніх виробників.
Але не кожну модель варто пробувати, що було б величезною тратою ресурсів. Таким чином, Qianfan має власні принципи скринінгу, а моделі, які ми пропонуємо, відносно чудові та прості у використанні.
**З: Отже, Hugging Face позиціонується як спільнота, а Qianfan — як платформа? **
Шен Доу: Саме так. Qianfan не тільки вирішує вашу проблему вибору моделі, але також вирішує вашу проблему фактичного використання моделі. Його використання також включає ряд питань, таких як дані, навчання, налаштування, розробка та створення додатків, і повністю враховує вартість та ефективність. Qianfan надає комплексне обслуговування, що є різницею між Qianfan і Hugging Face.
Модель Hugging face має достатню широту, і, спираючись на природні переваги хмарних постачальників, Qianfan має достатньо місця для роботи, а також може досягти наскрізного навчання та оптимізації продуктивності висновків. Наприклад, прискорення процесу навчання, швидке сприйняття, локація та відновлення несправностей; у процесі міркування, засноване на масштабованості величезного гетерогенного обчислювального кластера Baidu, він має дуже хорошу еластичність ресурсів і може також надавати безсерверні послуги, що дозволяє клієнтам щоб отримати низькі витрати на інфраструктуру, відсутність потреби в експлуатації та обслуговуванні та високі переваги масштабованості. Ось де Цяньфань йде глибше, ніж Hugging Face.
Платформа масштабної моделі Baidu Smart Cloud Qianfan | Джерело зображення: офіційний сайт Baidu Smart Cloud
**З: Здається, ви не оптимістично налаштовані щодо моделі з відкритим вихідним кодом, але відкрите програмне забезпечення зменшує витрати на розгортання великих моделей для підприємств, тому не можна сказати, що це безглузде. Що ви насправді думаєте про модель з відкритим кодом? **
**Шен Цзі:**Ви сказали, хто розділить витрати на LLaMA (Примітка: модель Facebook з відкритим кодом)? Це Facebook. Хто розділить витрати на Facebook? **Якщо ви не можете зрозуміти кінець цій проблемі, то це (відкрите джерело) вода без джерела, дерево без коріння, і колись виникнуть проблеми. **
Оскільки це відрізняється від традиційного програмного забезпечення з відкритим кодом.У минулому інвестиції людини у відкрите програмне забезпечення були вартістю його власного часу. Але сьогодні, якщо хтось хоче розробити велику модель з відкритим вихідним кодом, вартість машин і даних занадто висока.
**З: Ви можете використовувати любов для виробництва електроенергії, але ви не можете використовувати любов для розрахунків. **
Shen Ji: Так, ви повинні вкласти в це десятки мільйонів для циклу тренувань.
Сьогодні існує схожість із традиційними методами з відкритим вихідним кодом.Всі вони використовують відкритий код, щоб привернути увагу користувачів і, зрештою, сподіватися вибрати інші (закриті вихідні) великі моделі.
**З: Чи можливо мати відносини, подібні до Red Hat і IBM (Примітка: у 2018 році IBM оголосила про придбання Red Hat, найбільшої у світі компанії з відкритим кодом)? Що, якщо заможні власники бізнесу, такі як IBM, захочуть підтримувати відкрите програмне забезпечення? Таким чином, відкритий код матиме фінансову підтримку та підтримку даних. **
Shen Ji: Відкритий код точно існуватиме ще довго. Оскільки великим моделям приділяється все більше уваги, уряди та підприємства можуть робити пожертви на підтримку досліджень у цій галузі та просувати освіту на всьому ринку. Але наскільки це зрештою буде цінним? Я думаю, є висока ймовірність, що це не стане мейнстрімом і не сформує повну замкнуту бізнес-модель.
Традиційна розробка програмного забезпечення може сформувати замкнутий цикл. Наприклад, якщо ви напишете фрагмент коду або оновите функцію, ви зможете швидко зареєструватися (зареєструватися), і можливості всього програмного забезпечення з відкритим кодом будуть покращені на один рівень. Але після випуску LLaMA сьогодні, незалежно від того, скільки людей нею користуються, її неможливо зареєструвати, дані неможливо повернути, обчислювальну потужність неможливо повернути, а здатність неможливо повернути, тому замкнутий цикл неможливо сформувати .
**З: Багато шкіл з відкритим кодом вважають, що модель з відкритим кодом зчитує трильйони параметрів. Хоча вона не така хороша, як модель із закритим кодом, її все одно можна використовувати. Так само, як сама модель не має рівня градуювання 985 і 211, але принаймні це професійний рівень, який можна використовувати для більш вертикального налаштування. **
Shen Ji: Чи покращиться базова модель (базова модель)? Якщо модель фундаменту вже сьогодні дуже хороша і немає потреби її змінювати, то проблеми немає. Але сьогоднішня ситуація полягає в тому, що базова модель має лише 60 балів, а ми повинні прагнути досягти 90 або 95 балів.
**З: Чому ми маємо прогресувати? Справжнє відчуття багатьох компаній полягає в тому, що GPT3.0 вже може вирішити проблему, тож у чому сенс прогресу? **
Шен Доу: Це дуже гарне запитання, і ми також обговорювали його внутрішньо. Сьогодні фундаментальна модель може вирішити значну частину проблеми, якщо досягне 60 балів, але між нею та ідеальним рішенням все ще є великий розрив. І вимога людської природи полягає в тому, що якщо ви дозволите мені вирішити це за один раз, я ніколи не зроблю це за два рази.
Сьогодні ви тренувалися з результатом 85 на основі того, що базова модель мала лише 60 балів. Після цього базова модель досягає 85. Чи можете ви отримати 95 балів? У цьому відношенні немає меж у гонитві за людьми.
Цю межу необхідно продовжувати підтягувати вгору. Візьмемо для прикладу пошук, можна використати пошук понад 20 років тому, тож що Google робив понад 20 років? Здається, ви закінчили, але це не так.
**З: Як ви бачите майбутню модель конкуренції великої моделі? **
Шен Доу: Сьогодні на ринку є багато моделей, але я думаю, що багато з них швидко зникнуть.
Причина, чому багато моделей все ще існують, полягає в тому, що багато людей досі не знають, наскільки вони хороші чи погані. У будь-якому випадку, ніхто не може спробувати це, ніхто не може ним скористатися, і він має досить високі оцінки в першому тесті. Але в міру лібералізації моделі стає легше оцінити плюси та мінуси. Сьогодні для тих, хто створює великі моделі, якщо ви поставите їм 30 мільйонів задач і спробуєте їх ввести, більшість із них, ймовірно, зазнають невдачі.
Це призведе до поступової концентрації трафіку, полегшуючи головним моделям формування ефекту масштабу, тим самим додатково амортизуючи витрати на розробку моделі. Розрив буде збільшуватися далі.
**З: Коли почнуться плей-офф? **
Шен Доу: Важко сказати, зрештою, може знадобитися деякий час, щоб усі зібрали гроші. Для великих компаній це все ще доступно для спалювання, але це також залежить від вартості його спалювання. Деякі компанії все одно мають багато сценаріїв застосування, тому вони точно не дозволять їм налаштовувати API великої моделі інших людей у цей час, тому вони точно створять свою власну модель. Добре чи погано (не має значення), принаймні вам не потрібно покладатися на зовнішнє. Великі компанії ще деякий час продовжуватимуть виготовляти моделі.
03 Великі моделі дозволяють службам хмарних обчислень рухатися до «стандартизації», і Baidu Cloud нарешті заробляє гроші
**З: Чи стане велика модель основою для всіх програм у майбутньому? Чи породить це зовсім іншу екологію розробки та застосування? **
Shen Ji: Немає сумнівів, що велика модель стане новою ерою операційної системи та стане основою багатьох програм.
Протягом тривалого часу люди використовували мову як інструкцію під час роботи з людьми та машинами. Але в минулому машини не розуміли природну мову, тому ми написали набір мов програмування для розуміння. Тепер, коли великі моделі розуміють природну мову, вся парадигма розробки додатків фундаментально змінилася. Розвиток стає рушієм творчості, а не здатності кодувати.
Крім того, великі моделі також мають можливість з'єднувати системи між собою. Подібно до появи плагінів, тобто компонентів, які самостійно виконують певну здатність і чекають на виклик, велика модель може поєднувати плагіни для виконання певного завдання. Це ще більше змінить парадигму розвитку.
**З: Якщо велика модель може підключити всі плагіни для вирішення проблем, чи є це замаскованою формою взаємозв’язку? **
Shen Ji: Фактично, досі немає. Насправді ці програми зараз існують на одному мобільному телефоні та в одній програмі, але вони все ще не пов’язані між собою. У майбутньому Meituan і Didi приєднаються до великої бази моделей, але вони все одно не будуть сумісні.
**З: Основну проблему не вирішено. **
Шен Цзі: Так, взаємозв’язок має стосуватися з’єднання даних. Я маю доступ до ваших даних, а ви можете отримати доступ до моїх. Але завдяки великій базі моделей ми готові спілкуватися лише з цим центром, але наші плагіни не спілкуються один з одним.
**З: Чи не завадить ця відсутність взаємозв’язку розробникам безперебійно запроваджувати міжресурсне планування? Чи буде це недоліком китайської екосистеми розробки моделей? **
**Shen Ji:**Я вважаю, що головна причина в тому, що ми не відпустили і масштаб трафіку не збільшився. Наприклад, Wenxin Yiyan має більше 30 мільйонів трафіку відразу, і якщо розробник підрахує, що 1% може бути його власним, то там 300 000 відвідувань, і він вирішить це зробити.
**З: Як Baidu Cloud визначає свою позицію в екосистемі в епоху великих моделей? Як розподіляється механізм виплат? **
Shen Dou: Baidu абсолютно неможливо це зробити. Справа не в тому, що я боюся, що не зможу цього зробити, а в тому, що я абсолютно не зможу це зробити.
Перш за все, плагін має бути дуже процвітаючою екологією, і він доповнює велику модель. Плагін повинен отримувати трафік від великої моделі, а велика модель потребує підтримки можливостей плагіна.Як і сьогодні, якщо на мобільному телефоні немає WeChat або Douyin, користувачі можуть не використовувати його.
По-друге, з точки зору додатків, орієнтованих на кінцевих споживачів, незалежно від того, чи це розгортання приватної хмари, чи рішення на рівні платформи, як Qianfan, зрештою вимагатимуть екологічні партнери для завершення доставки «останньої милі», такі як Kingdee, UFIDA та iSoftStone. Вони мають особливо знайомих клієнтів і бізнес-процеси, і кінцеві вимоги будуть інтегровані в них.
Підводячи підсумок, перше — це агрегування можливостей для розвитку екосистеми, друге — партнери, які допомагають постачати великі моделі, і третє — клієнти, які використовують великі моделі для посилення власних послуг.Це все екосистеми.
**З: Які зміни технологічна парадигма великих моделей внесла в хмарні обчислення? **
**Шен Доу:**Тенденція технологічного розвитку стає все більш прогресивною. Іншими словами, ми все далі й далі віддаляємося від нижнього шару, дедалі менше потрібно звертати увагу на деталі, упаковка стає все кращою й кращою, а за лаштунками цю роботу виконує велика кількість людей. . Це також цінність хмарного внеску.
Цінність першої хмари CPU полягає в тому, що клієнтам не потрібно купувати машини, щоб зв’язувати картки одну за одною. Вона упакована все краще і краще, і її можна використовувати безпосередньо на ній. З приходом ери великих моделей графічний процесор «чіп-прискорювач штучного інтелекту» поступово став центром обчислювальної потужності, і темпи зростання обчислювальної потужності значно перевищують темпи зростання процесора. Це пришвидшить наш перехід від хмари CPU до хмари GPU.
В епоху хмари графічного процесора ми, зрештою, додатково інкапсулюємо можливості хмари, щоб базовий рівень не був відкритим, утворюючи більш розширену форму взаємодії та безпосередньо підключаючись до API великих моделей. Сучасна хмара все ще розробляється для інженерів, і форма взаємодії недостатньо продумана, але в майбутньому інженерів внизу буде менше, а людей буде переходити на верхні рівні. Це кардинальна зміна.
Baidu Smart Cloud | Джерело зображення: Visual China
**З: Чи змінить велика модель структуру ринку хмарних обчислень? Якщо так, то коли ми побачимо сигнал? **
Шен Джі: Мені подобається це запитання. Якщо немає великої моделі, хмара Baidu буде дуже важкою. У минулому ми кричали: «Поглиблена галузь, зосередженість на сценаріях, інтеграція хмари та інтелекту та інклюзивний штучний інтелект». Те, що Baidu Smart Cloud хоче зробити, це включити штучний інтелект у весь сервіс To B і зробити його точка росту.
**Але в минулому традиційний ШІ був дуже фрагментованим. Йому необхідно створити можливість для вирішення проблеми, а потім вирішити проблему, тому його універсальність відносно низька. Це призводить до того, що це проектна система, яку важко масштабувати та має низький валовий прибуток. **
Після появи генеративного штучного інтелекту ми побачили, що він має дуже хорошу універсальність і може вирішувати багато проблем одночасно. Він в основному уніфікований від рівня додатків. Навіть якщо потрібні тонке налаштування та плагіни, усі вони є стандартизованими діями . Це повністю відрізняється від попередніх дуже фрагментованих програм ШІ. Це саме по собі є величезною зміною в хмарному бізнесі, так звана IaaS стала MaaS.
**З: Раніше китайським компаніям штучного інтелекту доводилося розробляти проекти, що було дуже важко. Проблеми неможливо вирішити за допомогою стандартизованих продуктів, як ми це робимо зараз. **
Шен Доу: Ми тоді обговорювали хмарну стратегію з Робіном (примітка: засновник, голова правління та генеральний директор Baidu Робін Лі). Він також попросив нас стандартизувати та масштабувати, інакше Baidu не зможе відобразити Baidu як технологію компанія значення.
**З: Отже, у довгостроковому майбутньому буде стандартизація та масштаб? **
**Shen Dou:**Великі моделі мали велику невизначеність на початку. Сьогодні багато клієнтів ще не мають єдиного розуміння лімітів потужності, меж, вартості, способів доставки та попиту на великі моделі. За короткий проміжок часу ми не можемо гарантувати, що всі клієнти перейдуть у публічну хмару, і спочатку це потрібно зробити через систему проекту.
Але навіть ця проектна система відрізняється від попередньої проектної системи. Наприклад, якщо я дам вам модель приватного розгортання, вона більше схожа на Windows або Office.Спочатку це версія 95, потім версія 97, а потім версія 2000. Ви повинні постійно оновлюватися. Здається, я дав вам компакт-диск, щоб ви поставили його вдома, але насправді ви повинні постійно підписуватися. Це не те саме, що оригінальна збірка.
**З: Але ваші фінанси покращилися. У першому кварталі цього року Baidu Smart Cloud вперше досягла квартального прибутку. Причиною, яку ви згадали, стала стандартизація хмарних сервісів, яка реалізувала масштабне повторне використання та скоротила витрати. **
**Шен Доу:**Так. У випадку чистої проектної системи або відносно високої частки проектної системи валовий прибуток після доставки є занадто низьким.
04 Після того, як ми керуємо Baidu Cloud більше року, ми маємо найкращу можливість
**З: як члена вищої команди прийняття рішень Baidu, які питання вас найбільше турбують і тривожать? Які питання ви часто обговорюєте зі своєю командою? **
**Шен Доу: Що стосується форми продукту, Робін має вимогу, щоб усі продукти були реконструйовані за допомогою штучного інтелекту. Це рефакторинг, а не доступ. **
Технічно ми думаємо про те, наскільки вищими можуть бути можливості сучасного генеративного ШІ. Поточні результати оцінювання Вень Сіньянь непогані, але це далеко не верхня межа людської мови або відмінне розуміння людської мови. Як ми можемо продовжувати швидко вдосконалювати цю здатність, безумовно, перше питання, про яке ми думаємо.
Крім того, є галузеве застосування, як можна реально використовувати модель, у яких сценаріях її можна використовувати, наскільки високий поріг, наскільки широкі межі, як підвищити її ефективність, як надихнути всіх думати про кращі способи використання ... Це те, про що ми повинні продовжувати думати.
**З: Це відносно м’які шари, а як щодо твердих? **
Shen Ji: Зараз кластери обчислювальної потужності варіюються від 10 000 карт до 10 000. Baidu — єдина компанія в Китаї, яка може виконувати одне завдання на рівні 10 000 карт.
У кластері Wanka справжні основні завдання організації, ефективності та безпеки невидимі для всіх, але вони надзвичайно важливі. Наприклад, нам потрібно покращити навчання та ефективність логічного висновку основного апаратного забезпечення та інтеграцію програмного та апаратного забезпечення. Це досить важливі речі.
**З: Ви стільки років керували пошуковим і рекламним бізнесом у Baidu, і лише минулого року ви взяли на себе відповідальність за інтелектуальну хмару, і ви одразу зіткнулися з історичною можливістю для великої моделі. Як ви думаєте, це благословення? Як почуваєшся? **
Шен Доу: Це не так перебільшено, але я справді схвильований і мені пощастило зробити таку річ.
Коли я очолив минулого року, у мене виникла ідея масштабування та стандартизації хмарних сервісів. Але оскільки можливості штучного інтелекту настільки фрагментовані, зробити це дуже важко. **Тоді я наполегливо думав, чи є щось, що потребує як можливостей штучного інтелекту, так і обчислювальної потужності штучного інтелекту, і може використовуватися багатьма людьми одночасно? Довго не можу знайти. **
Потім з'явилася велика модель. Одразу відчув себе добре.
Шен Доу, виконавчий віце-президент Baidu Group і президент Baidu Intelligent Cloud Business Group (ACG) | Джерело зображення: Baidu
**З: Ви особисто вивчали штучний інтелект. Вам більше підходять великі моделі? **
Шен Доу: Це дуже схоже на те, що я робив, будучи аспірантом. Хоча я завжди вивчав інформатику, я більше працював над програмним забезпеченням і працював над штучним інтелектом.
Після отримання хмари (апаратного забезпечення нижчого рівня) я дійсно знову прочитав книги про операційну систему та принципи створення комп’ютера. Якщо це справді IaaS, мережеві компоненти та обчислення для зберігання в епоху ЦП, я думаю, що це все ще трохи складно.
Але після появи великої моделі я виявив, що ці речі були інкапсульовані нижче. Зараз я в основному вивчаю велику модель, як-от читання статей, використання Python для виклику API на Qianfan тощо. Мені набагато комфортніше.
**З: Далі, які ваші очікування щодо розвитку та темпів зростання Baidu Smart Cloud? **
**Shen Dou:**Baidu Smart Cloud зараз наближається до 20 мільярдів юанів, що все ще відносно мало. Завдяки підтримці великих моделей попит наших клієнтів став дуже високим, і тепер ми переповнені. Проте все ще є необхідний процес, щоб дійсно дозволити користувачам використовувати його та якісно надавати його.
**З: Чи буде невеликий спалах у четвертому кварталі? **
**Шен Доу:**Деякі люди вважають, що четвертий квартал вибухне. Попит справді почав зростати, але я думаю, що він може зрости лише наступного року.
**З: Як би ви оцінили свою удачу? **
Шен Доу: Я думаю, що Baidu пощастило. Baidu стільки років розробляє штучний інтелект і доклала стільки зусиль. Якщо велика модель не прийде, шлях комерціалізації хмари буде справді складнішим і складнішим. Це лише показує, що компаніям з Vision зрештою не надто пощастить.
Переглянути оригінал
Контент має виключно довідковий характер і не є запрошенням до участі або пропозицією. Інвестиційні, податкові чи юридичні консультації не надаються. Перегляньте Відмову від відповідальності , щоб дізнатися більше про ризики.
Діалог із Шен Доу, президентом Baidu Smart Cloud: Сьогодні на ринку багато великих моделей, але більшість із них швидко зникне
Через 24 години після виходу «Wen Xin Yi Yan» Шень Доу пішов у фоновий режим, щоб переглянути дані, і виявив, що Wen Xin Yi Yan відповів на «33,42 мільйона» запитань користувачів, що перевершило його очікування.
Через два дні, коли Шень Доу зустрівся з кількома представниками ЗМІ, включаючи мене, щоб поговорити про інцидент, він сказав: «Ми спочатку думали, що буде менше людей, які дивитимуться, але ми не очікували, що ентузіазм користувачів зменшиться. не зменшилася».
У вересні, коли в Китаї вже півроку триває великий модельний бум, у звичайних людей нарешті з’явилася можливість потрапити в руки.
Починаючи з 31 серпня, низка великих моделей, у тому числі «Wen Xin Yi Yan», були зареєстровані та офіційно відкриті для публіки. Ця новина не тільки змусила користувачів спробувати його, але й викликала захоплені відгуки компаній. ** Шен Доу сказав, що в день відкриття Wenxinyiyan кількість щоденних активних підприємств на платформі великої моделі Baidu Smart Cloud Qianfan зросла більш ніж на 40%. ——Останній — це велика платформа розробки й керування моделлю, запущена Baidu для підприємств. **
В епоху великих моделей Baidu сподівається сприяти використанню великих моделей як окремими особами, так і підприємствами в той же час. З макроекономічної точки зору це сприяє популяризації передових технологій великих моделей. З точки зору компанії, це допомагає Baidu вести власний бізнес. Хоча комерційна цінність користувачів на стороні C не відразу очевидна, комерційна цінність клієнтів на стороні B безпосередньо відображається в платі за розклад API моделі та доходах від хмарних обчислень.
У травні минулого року Шен Доу, який протягом багатьох років керував Baidu Mobile Ecosystem (MEG), отримав важливу посаду президента Baidu Smart Cloud Business Group (ACG). Група очікує від нього скористатися можливістю ери AIGC і перетворити інтелектуальну хмару на другу криву зростання Baidu.
Але ситуація, в якій зіткнувся Шень Доу, була дуже важкою. Baidu не є найбільшим постачальником хмарних обчислень у Китаї, але він займає перше місце серед загальнодоступних хмар для послуг, пов’язаних зі штучним інтелектом. У той час Shen Dou також сподівався використовувати штучний інтелект для стимулювання зростання всього хмарного сервісу.На жаль, можливості штучного інтелекту на той час були надто «фрагментованими» і не могли позбутися поточної ситуації високої вартості послуг, труднощі з розширенням і мізерні прибутки.
Але через кілька місяців настала ера великих моделей. З точки зору конкурентоспроможності, базові хмарні сервіси, в яких раніше домінували IaaS (інфраструктура як послуга) і PaaS (платформа як послуга), поступаються місцем хмарним сервісам, таким як MaaS (модель як послуга), де домінує штучний інтелект. . Шен Доу вважає, що це можливість для Baidu Smart Cloud «обігнати на кривій».
З точки зору прибутку, можливості загального призначення великих моделей дозволяють більш стандартизувати хмарні сервіси, щоб їх можна було повторно використовувати у великих масштабах у різних сценаріях, зменшуючи витрати на обслуговування та збільшуючи прибуток. Саме з цієї причини керівництво Baidu повідомило інвесторам під час телефонної конференції з питань прибутків у другому кварталі 2023 року, що штучний інтелект і великі моделі дозволять Baidu Smart Cloud досягти вищої норми прибутку.
**Нижче наведено повний текст нашої розмови з Shen Dou, організованої Geek Park. **
01 Wenxin Yiyan на стороні C і платформа Qianfan на стороні B, успішна з двох сторін
**З: Настав час по-справжньому зайнятися практичними речами після перегляду хвилювання. Два дні тому Baidu відкрив Wenxin Yiyan на стороні C, що ви думаєте про ці дані про використання користувача? Очікувано чи несподівано? Які можливості роботи та обслуговування серверної частини? **
Shen Ji: Я надіслав дані групі о 12:30 тієї ночі, а мої колеги опублікували дані наступного дня. Дані були перехоплені мною з системи та представлені зовнішньому світу в недоторканому вигляді, абсолютно правдиві.
Спочатку ми думали, що менше людей «спостерігають за хвилюванням», тому наші очікування були не такими високими. Несподівано того дня було 33,42 мільйона відповідей, що свідчить про те, що користувачі покладають великі очікування на Вень Сіньянь. Кожен підходив не для того, щоб поставити запитання чи два, а потім піти, а проходив багато раундів діалогу. З цієї точки зору ентузіазм користувачів все ще присутній.
Вень Сіньянь проходив внутрішнє тестування протягом п’яти-шести місяців із 16 березня, що дало нам достатньо часу для підготовки як щодо покращення ефекту, так і щодо скорочення витрат. Наприклад, швидкість логічного висновку великої моделі Wenxin була збільшена більш ніж у 30 разів порівняно з оригіналом, що значно зменшило вартість логічного висновку та дозволило нам працювати з такою великою кількістю користувачів.
**З: Отже, технологічний прогрес великих моделей Baidu протягом цього періоду також включає зростання вартості? **
**Шен Доу:**Так, велика модель сама по собі є ресурсомісткою технічною парадигмою.
Спочатку ми не очікували, що трафік буде таким великим. Ресурс машини (обчислювальної потужності) сам по собі дуже цінний. Ми вважали, що розміщення забагато машин було б марною тратою, тому ми не ставили занадто багато додаткових машин. Після збільшення кількості користувачів того дня, на щастя, оскільки наші міркування покращилися, ми все ще надаємо користувачам стабільні послуги.
У нас також є хороший запас обчислювальної потужності, і ми продовжуватимемо знижувати вартість навчання та висновків, щоб без проблем задовольняти потреби користувачів. Тоді ми у внутрішній групі обговорювали, чи зможемо ми витримати трафік. Я сказав, що інтенсивність руху - це всі проблеми щастя.
**З: Які переваги для Baidu від лібералізації Вень Сіньянь на стороні C? **
Shen Dou: Ви можете хвилюватися про те, чи буде відкритий доступ до сторони C стійким, якщо він не принесе комерційної цінності.
Насправді, якщо цінність справді створюється для користувачів, комерціалізація є лише питанням часу. В історії технологічного розвитку є дуже мало прикладів, які є цінними, але важко реалізувати. Вень Сіньян справді приніс справжню цінність кінцевим користувачам C. Вчора я бачив кілька коментарів, у яких говорилося, що без Веньсіньяна ефективність його офісу знизиться. Тому, якщо це буде цінним, комерціалізація Wenxinyiyan у майбутньому буде природною.
**З: Чи відповідатиме форма продуктів C-end великих китайських моделей ChatGPT? Це абонплата? **
Shen Ji: Зарано говорити про форму продукту великої моделі, і її визначення ще не настільки чітке.
Коли почався мобільний Інтернет, ми могли використати кілька ключових слів, щоб уточнити його визначення, наприклад SoLoMo (соціальний, локальний, мобільний, використання соціальних мереж, служб геолокації та мобільних термінальних пристроїв для забезпечення кращого досвіду користувача). Але зараз велику модель неможливо описати кількома чіткими словами. Його можливості потужніші, але його межі також ширші, і ще далеко не час для зближення щодо форми продукту.
OpenAI — це компанія, орієнтована на технології, і досвід користувача насправді не є її сильною стороною. Форма продукту, яку він розробляє сьогодні, все ще знаходиться на початковій стадії. Далі швидкість ітерації продукту буде дуже високою, а форма кардинально зміниться.
**З: Чи можлива в Китаї бізнес-модель ChatGPT щодо стягнення плати за підписку з кінцевих користувачів C? **
Шен Доу: Ми можемо розробити нові методи монетизації, наприклад три поширені методи монетизації реклами, електронної комерції та ігор.
Якщо ви готові витрачати 2000 юанів на місяць, щоб найняти помічника, то якщо штучний інтелект зможе зробити 1/10 того, що може зробити помічник, наприклад допомогти вам скласти маршрут подорожі, забронювати авіаквитки та готелі та навіть мобілізувати виклик таксі і програми для доставки їжі, чи не так? Готові витратити двісті юанів? Просто спосіб реалізації – це не обов’язково членські внески, це можуть бути комісійні транзакції чи інші методи.
Для іншого прикладу, купа персонажів NPC у грі керується генеративним ШІ, а пряма трансляція «цифрових людей» у сфері електронної комерції також підтримується генеративним ШІ, що може призвести до різних методів монетизації. Зрештою, форма продукту C-side визначає спосіб його монетизації.
**З: Якщо продукти C-end в кінцевому підсумку є інструментами продуктивності, чи можливо, що замість того, щоб за них платити окремі люди, за них платить компанія? **
**Шен Цзі:**Це можливо. Наприклад, Baidu Netdisk також можна вважати ефективним інструментом, і багато компаній купуватимуть облікові записи Netdisk для своїх співробітників. Ми також зв’язалися з компаніями та призначили кожному співробітнику обліковий запис Copilot для написання програм. Це все випадки, коли компанії платять за фізичних осіб.
**З: Як контент-компанія, ми також особливо хочемо використовувати великі моделі для створення статей. Ви щойно запустили масштабну модельну платформу To B "Qianfan". Яка передумова запуску "Qianfan"? Як це може допомогти компаніям без програмістів розгортати великі моделі? **
Шен Цзі: Це дуже гарне запитання. Фактично, саме тому ми створюємо платформу Qianfan.
Характерною рисою цієї великої моделі, яка реалізується на стороні B, є те, що великі компанії займають провідну роль, а багато клієнтів є фінансовими установами, енергетичними установами, навчальними закладами тощо. Їх очевидною особливістю є те, що вони вимагають приватизованого розгортання, але цей поріг дуже високий, і вам потрібно навчити купу технічного персоналу для ітерації моделі, що може сповільнити час, щоб великі моделі вступили в силу.
Навпаки, як і багато малих і середніх компаній, ви, швидше за все, не виключатимете продукт SaaS (на основі платформи), а також не виключатимете публічні хмари. Таким продуктом є платформа Qianfan. Підприємства можуть безпосередньо викликати на ньому API або точно налаштовувати навчальні зразки для створення власних моделей майже без коду. **Мета нашого Qianfan — знизити поріг розгортання великих моделей і сприяти широкому застосуванню великих моделей. **
**З: Здається, у вас і OpenAI різні шляхи. OpenAI спочатку запускає продукт на стороні C ChatGPT, а потім повільно запускає продукти на стороні B, тоді як Baidu просуває продукти на стороні C і B одночасно. Чому така різниця? **
**Shen Ji:**У технології є проблема сприйняття, і більше користувачів повинні справді використовувати її та знайти її цінність. Усі говорять про макети, але скільки людей насправді використовували макети? Корпоративні клієнти B-end краще усвідомлюють потенційний вплив великої моделі на всю їхню парадигму виробництва, і їм потрібно більше використовувати її.
Але якщо вони не використовують публічні хмарні API і не налаштовують власне середовище, щоб випробувати його, то вони просто уявляють собі речі. Тож нам потрібно створити Qianfan і дозволити їм спочатку використовувати велику модель. Насправді, щодо повного відкриття великих моделей, сторона C чекала довго, і сторона B також довго чекала. Просто сторона B ближча до комерціалізації.
**З: Наскільки зріс попит на B-сторону Qianfan Platform після звільнення Вень Сіньяня? **
Shen Ji: У день відкриття Wenxin Yiyan кількість щоденних активних підприємств на платформі масштабної моделі Baidu Smart Cloud Qianfan зросла більш ніж на 40%, трохи краще.
Розслаблення збільшить дані не лише на стороні C, але й на стороні B. Тому що це допоможе компаніям B-side зменшити витрати та прискорити ітерації (зверніть увагу: використовувати вітчизняні моделі дешевше та зручніше).
Однак, з точки зору зростання даних, сторона B все ще не така хороша, як сторона C. Сьогодні припустімо, що хтось хоче використовувати «Wen Xin Yi Yan» на стороні B. Замість того, щоб викликати API, він міг би перейти на сторону C, щоб спочатку випробувати це. Коли він вважає, що досвід хороший, він прийде до Цяньфань, щоб використати його. Для того, щоб сторона Б використовувала це, потрібен процес виховання.
**З: Якщо сторона C і сторона B йдуть рука об руку, як ви розставите пріоритети? Чи зосереджені головним чином на стороні C чи B-стороні? **
Shen Shake: Пріоритет потрібно встановлювати лише за наявності конфлікту ресурсів. Характеристика великої моделі полягає в тому, що вона має товстий шар унизу, який є універсальним.Шукаючи застосування зверху, будь то B чи C, Baidu має працювати разом, щоб це зробити. Не до конфлікту ресурсів.
Щодо C, Baidu активно досліджує форми продукту та бізнес-моделі, які можуть реалізувати великі моделі. Baidu потрібно реконструювати свої продукти C-end на основі великих моделей. Наприклад, судячи з власних даних про продукти Baidu, Baidu Netdisk, Baidu Library та інших продуктів, після реконструкції на основі великих моделей постійність користувачів і ставки членських платежів дуже високі. Удосконалення; нещодавно створений додаток Wenxin Yiyan APP і реконструйований пошук Baidu також стали новими входами до великих модельних додатків. З боку B, Baidu Intelligent Cloud добре обслуговує ринок To B, створюючи найкращу платформу великої моделі.
**З: Насправді найбільш універсальною основою є ваші хмарні обчислення. Незалежно від того, обслуговуєте ви внутрішніх чи зовнішніх клієнтів, це ваш успіх. **
**Шен Джі:**Так, якщо ви добре обслуговуєте внутрішніх клієнтів, ви зможете добре обслуговувати зовнішніх клієнтів, а якщо ви добре обслуговуєте зовнішніх клієнтів, ви зможете добре обслуговувати внутрішніх. У цьому краса MaaS. В іншому випадку, якщо припустити, що зовнішній і внутрішній технологічні стеки складаються з двох наборів, вартість буде занадто високою.
Ходимо на двох ногах. Baidu, безсумнівно, сподівається створити хітовий продукт To C, але ми також дуже готові підтримати більше компаній і розробників у створенні хороших програм To C за допомогою основної великої моделі та обчислювальної потужності. Фактично, незалежно від того, хто досяг успіху вище, це успіх основної моделі.
02 Велика модель починає жорстоке змагання з нокаутом, і майбутнє моделі з відкритим кодом викликає занепокоєння
**З: Окрім Wenxin Yiyan, платформа Qianfan також випустила інші моделі. Яка різниця між Qianfan і платформою агрегації моделей, як Hugging Face? **
Shen Ji: В даний час або протягом тривалого часу компанії сподіваються випробувати різні моделі, чи то через адаптивність моделі до сцени, чи через психологічні потреби клієнтів. З цієї точки зору нам також потрібно надавати моделі сторонніх виробників.
Але не кожну модель варто пробувати, що було б величезною тратою ресурсів. Таким чином, Qianfan має власні принципи скринінгу, а моделі, які ми пропонуємо, відносно чудові та прості у використанні.
**З: Отже, Hugging Face позиціонується як спільнота, а Qianfan — як платформа? **
Шен Доу: Саме так. Qianfan не тільки вирішує вашу проблему вибору моделі, але також вирішує вашу проблему фактичного використання моделі. Його використання також включає ряд питань, таких як дані, навчання, налаштування, розробка та створення додатків, і повністю враховує вартість та ефективність. Qianfan надає комплексне обслуговування, що є різницею між Qianfan і Hugging Face.
Модель Hugging face має достатню широту, і, спираючись на природні переваги хмарних постачальників, Qianfan має достатньо місця для роботи, а також може досягти наскрізного навчання та оптимізації продуктивності висновків. Наприклад, прискорення процесу навчання, швидке сприйняття, локація та відновлення несправностей; у процесі міркування, засноване на масштабованості величезного гетерогенного обчислювального кластера Baidu, він має дуже хорошу еластичність ресурсів і може також надавати безсерверні послуги, що дозволяє клієнтам щоб отримати низькі витрати на інфраструктуру, відсутність потреби в експлуатації та обслуговуванні та високі переваги масштабованості. Ось де Цяньфань йде глибше, ніж Hugging Face.
**З: Здається, ви не оптимістично налаштовані щодо моделі з відкритим вихідним кодом, але відкрите програмне забезпечення зменшує витрати на розгортання великих моделей для підприємств, тому не можна сказати, що це безглузде. Що ви насправді думаєте про модель з відкритим кодом? **
**Шен Цзі:**Ви сказали, хто розділить витрати на LLaMA (Примітка: модель Facebook з відкритим кодом)? Це Facebook. Хто розділить витрати на Facebook? **Якщо ви не можете зрозуміти кінець цій проблемі, то це (відкрите джерело) вода без джерела, дерево без коріння, і колись виникнуть проблеми. **
Оскільки це відрізняється від традиційного програмного забезпечення з відкритим кодом.У минулому інвестиції людини у відкрите програмне забезпечення були вартістю його власного часу. Але сьогодні, якщо хтось хоче розробити велику модель з відкритим вихідним кодом, вартість машин і даних занадто висока.
**З: Ви можете використовувати любов для виробництва електроенергії, але ви не можете використовувати любов для розрахунків. **
Shen Ji: Так, ви повинні вкласти в це десятки мільйонів для циклу тренувань.
Сьогодні існує схожість із традиційними методами з відкритим вихідним кодом.Всі вони використовують відкритий код, щоб привернути увагу користувачів і, зрештою, сподіватися вибрати інші (закриті вихідні) великі моделі.
**З: Чи можливо мати відносини, подібні до Red Hat і IBM (Примітка: у 2018 році IBM оголосила про придбання Red Hat, найбільшої у світі компанії з відкритим кодом)? Що, якщо заможні власники бізнесу, такі як IBM, захочуть підтримувати відкрите програмне забезпечення? Таким чином, відкритий код матиме фінансову підтримку та підтримку даних. **
Shen Ji: Відкритий код точно існуватиме ще довго. Оскільки великим моделям приділяється все більше уваги, уряди та підприємства можуть робити пожертви на підтримку досліджень у цій галузі та просувати освіту на всьому ринку. Але наскільки це зрештою буде цінним? Я думаю, є висока ймовірність, що це не стане мейнстрімом і не сформує повну замкнуту бізнес-модель.
Традиційна розробка програмного забезпечення може сформувати замкнутий цикл. Наприклад, якщо ви напишете фрагмент коду або оновите функцію, ви зможете швидко зареєструватися (зареєструватися), і можливості всього програмного забезпечення з відкритим кодом будуть покращені на один рівень. Але після випуску LLaMA сьогодні, незалежно від того, скільки людей нею користуються, її неможливо зареєструвати, дані неможливо повернути, обчислювальну потужність неможливо повернути, а здатність неможливо повернути, тому замкнутий цикл неможливо сформувати .
**З: Багато шкіл з відкритим кодом вважають, що модель з відкритим кодом зчитує трильйони параметрів. Хоча вона не така хороша, як модель із закритим кодом, її все одно можна використовувати. Так само, як сама модель не має рівня градуювання 985 і 211, але принаймні це професійний рівень, який можна використовувати для більш вертикального налаштування. **
Shen Ji: Чи покращиться базова модель (базова модель)? Якщо модель фундаменту вже сьогодні дуже хороша і немає потреби її змінювати, то проблеми немає. Але сьогоднішня ситуація полягає в тому, що базова модель має лише 60 балів, а ми повинні прагнути досягти 90 або 95 балів.
**З: Чому ми маємо прогресувати? Справжнє відчуття багатьох компаній полягає в тому, що GPT3.0 вже може вирішити проблему, тож у чому сенс прогресу? **
Шен Доу: Це дуже гарне запитання, і ми також обговорювали його внутрішньо. Сьогодні фундаментальна модель може вирішити значну частину проблеми, якщо досягне 60 балів, але між нею та ідеальним рішенням все ще є великий розрив. І вимога людської природи полягає в тому, що якщо ви дозволите мені вирішити це за один раз, я ніколи не зроблю це за два рази.
Сьогодні ви тренувалися з результатом 85 на основі того, що базова модель мала лише 60 балів. Після цього базова модель досягає 85. Чи можете ви отримати 95 балів? У цьому відношенні немає меж у гонитві за людьми.
Цю межу необхідно продовжувати підтягувати вгору. Візьмемо для прикладу пошук, можна використати пошук понад 20 років тому, тож що Google робив понад 20 років? Здається, ви закінчили, але це не так.
**З: Як ви бачите майбутню модель конкуренції великої моделі? **
Шен Доу: Сьогодні на ринку є багато моделей, але я думаю, що багато з них швидко зникнуть.
Причина, чому багато моделей все ще існують, полягає в тому, що багато людей досі не знають, наскільки вони хороші чи погані. У будь-якому випадку, ніхто не може спробувати це, ніхто не може ним скористатися, і він має досить високі оцінки в першому тесті. Але в міру лібералізації моделі стає легше оцінити плюси та мінуси. Сьогодні для тих, хто створює великі моделі, якщо ви поставите їм 30 мільйонів задач і спробуєте їх ввести, більшість із них, ймовірно, зазнають невдачі.
Це призведе до поступової концентрації трафіку, полегшуючи головним моделям формування ефекту масштабу, тим самим додатково амортизуючи витрати на розробку моделі. Розрив буде збільшуватися далі.
**З: Коли почнуться плей-офф? **
Шен Доу: Важко сказати, зрештою, може знадобитися деякий час, щоб усі зібрали гроші. Для великих компаній це все ще доступно для спалювання, але це також залежить від вартості його спалювання. Деякі компанії все одно мають багато сценаріїв застосування, тому вони точно не дозволять їм налаштовувати API великої моделі інших людей у цей час, тому вони точно створять свою власну модель. Добре чи погано (не має значення), принаймні вам не потрібно покладатися на зовнішнє. Великі компанії ще деякий час продовжуватимуть виготовляти моделі.
03 Великі моделі дозволяють службам хмарних обчислень рухатися до «стандартизації», і Baidu Cloud нарешті заробляє гроші
**З: Чи стане велика модель основою для всіх програм у майбутньому? Чи породить це зовсім іншу екологію розробки та застосування? **
Shen Ji: Немає сумнівів, що велика модель стане новою ерою операційної системи та стане основою багатьох програм.
Протягом тривалого часу люди використовували мову як інструкцію під час роботи з людьми та машинами. Але в минулому машини не розуміли природну мову, тому ми написали набір мов програмування для розуміння. Тепер, коли великі моделі розуміють природну мову, вся парадигма розробки додатків фундаментально змінилася. Розвиток стає рушієм творчості, а не здатності кодувати.
Крім того, великі моделі також мають можливість з'єднувати системи між собою. Подібно до появи плагінів, тобто компонентів, які самостійно виконують певну здатність і чекають на виклик, велика модель може поєднувати плагіни для виконання певного завдання. Це ще більше змінить парадигму розвитку.
**З: Якщо велика модель може підключити всі плагіни для вирішення проблем, чи є це замаскованою формою взаємозв’язку? **
Shen Ji: Фактично, досі немає. Насправді ці програми зараз існують на одному мобільному телефоні та в одній програмі, але вони все ще не пов’язані між собою. У майбутньому Meituan і Didi приєднаються до великої бази моделей, але вони все одно не будуть сумісні.
**З: Основну проблему не вирішено. **
Шен Цзі: Так, взаємозв’язок має стосуватися з’єднання даних. Я маю доступ до ваших даних, а ви можете отримати доступ до моїх. Але завдяки великій базі моделей ми готові спілкуватися лише з цим центром, але наші плагіни не спілкуються один з одним.
**З: Чи не завадить ця відсутність взаємозв’язку розробникам безперебійно запроваджувати міжресурсне планування? Чи буде це недоліком китайської екосистеми розробки моделей? **
**Shen Ji:**Я вважаю, що головна причина в тому, що ми не відпустили і масштаб трафіку не збільшився. Наприклад, Wenxin Yiyan має більше 30 мільйонів трафіку відразу, і якщо розробник підрахує, що 1% може бути його власним, то там 300 000 відвідувань, і він вирішить це зробити.
**З: Як Baidu Cloud визначає свою позицію в екосистемі в епоху великих моделей? Як розподіляється механізм виплат? **
Shen Dou: Baidu абсолютно неможливо це зробити. Справа не в тому, що я боюся, що не зможу цього зробити, а в тому, що я абсолютно не зможу це зробити.
Перш за все, плагін має бути дуже процвітаючою екологією, і він доповнює велику модель. Плагін повинен отримувати трафік від великої моделі, а велика модель потребує підтримки можливостей плагіна.Як і сьогодні, якщо на мобільному телефоні немає WeChat або Douyin, користувачі можуть не використовувати його.
По-друге, з точки зору додатків, орієнтованих на кінцевих споживачів, незалежно від того, чи це розгортання приватної хмари, чи рішення на рівні платформи, як Qianfan, зрештою вимагатимуть екологічні партнери для завершення доставки «останньої милі», такі як Kingdee, UFIDA та iSoftStone. Вони мають особливо знайомих клієнтів і бізнес-процеси, і кінцеві вимоги будуть інтегровані в них.
Підводячи підсумок, перше — це агрегування можливостей для розвитку екосистеми, друге — партнери, які допомагають постачати великі моделі, і третє — клієнти, які використовують великі моделі для посилення власних послуг.Це все екосистеми.
**З: Які зміни технологічна парадигма великих моделей внесла в хмарні обчислення? **
**Шен Доу:**Тенденція технологічного розвитку стає все більш прогресивною. Іншими словами, ми все далі й далі віддаляємося від нижнього шару, дедалі менше потрібно звертати увагу на деталі, упаковка стає все кращою й кращою, а за лаштунками цю роботу виконує велика кількість людей. . Це також цінність хмарного внеску.
Цінність першої хмари CPU полягає в тому, що клієнтам не потрібно купувати машини, щоб зв’язувати картки одну за одною. Вона упакована все краще і краще, і її можна використовувати безпосередньо на ній. З приходом ери великих моделей графічний процесор «чіп-прискорювач штучного інтелекту» поступово став центром обчислювальної потужності, і темпи зростання обчислювальної потужності значно перевищують темпи зростання процесора. Це пришвидшить наш перехід від хмари CPU до хмари GPU.
В епоху хмари графічного процесора ми, зрештою, додатково інкапсулюємо можливості хмари, щоб базовий рівень не був відкритим, утворюючи більш розширену форму взаємодії та безпосередньо підключаючись до API великих моделей. Сучасна хмара все ще розробляється для інженерів, і форма взаємодії недостатньо продумана, але в майбутньому інженерів внизу буде менше, а людей буде переходити на верхні рівні. Це кардинальна зміна.
Baidu Smart Cloud | Джерело зображення: Visual China
**З: Чи змінить велика модель структуру ринку хмарних обчислень? Якщо так, то коли ми побачимо сигнал? **
Шен Джі: Мені подобається це запитання. Якщо немає великої моделі, хмара Baidu буде дуже важкою. У минулому ми кричали: «Поглиблена галузь, зосередженість на сценаріях, інтеграція хмари та інтелекту та інклюзивний штучний інтелект». Те, що Baidu Smart Cloud хоче зробити, це включити штучний інтелект у весь сервіс To B і зробити його точка росту.
**Але в минулому традиційний ШІ був дуже фрагментованим. Йому необхідно створити можливість для вирішення проблеми, а потім вирішити проблему, тому його універсальність відносно низька. Це призводить до того, що це проектна система, яку важко масштабувати та має низький валовий прибуток. **
Після появи генеративного штучного інтелекту ми побачили, що він має дуже хорошу універсальність і може вирішувати багато проблем одночасно. Він в основному уніфікований від рівня додатків. Навіть якщо потрібні тонке налаштування та плагіни, усі вони є стандартизованими діями . Це повністю відрізняється від попередніх дуже фрагментованих програм ШІ. Це саме по собі є величезною зміною в хмарному бізнесі, так звана IaaS стала MaaS.
**З: Раніше китайським компаніям штучного інтелекту доводилося розробляти проекти, що було дуже важко. Проблеми неможливо вирішити за допомогою стандартизованих продуктів, як ми це робимо зараз. **
Шен Доу: Ми тоді обговорювали хмарну стратегію з Робіном (примітка: засновник, голова правління та генеральний директор Baidu Робін Лі). Він також попросив нас стандартизувати та масштабувати, інакше Baidu не зможе відобразити Baidu як технологію компанія значення.
**З: Отже, у довгостроковому майбутньому буде стандартизація та масштаб? **
**Shen Dou:**Великі моделі мали велику невизначеність на початку. Сьогодні багато клієнтів ще не мають єдиного розуміння лімітів потужності, меж, вартості, способів доставки та попиту на великі моделі. За короткий проміжок часу ми не можемо гарантувати, що всі клієнти перейдуть у публічну хмару, і спочатку це потрібно зробити через систему проекту.
Але навіть ця проектна система відрізняється від попередньої проектної системи. Наприклад, якщо я дам вам модель приватного розгортання, вона більше схожа на Windows або Office.Спочатку це версія 95, потім версія 97, а потім версія 2000. Ви повинні постійно оновлюватися. Здається, я дав вам компакт-диск, щоб ви поставили його вдома, але насправді ви повинні постійно підписуватися. Це не те саме, що оригінальна збірка.
**З: Але ваші фінанси покращилися. У першому кварталі цього року Baidu Smart Cloud вперше досягла квартального прибутку. Причиною, яку ви згадали, стала стандартизація хмарних сервісів, яка реалізувала масштабне повторне використання та скоротила витрати. **
**Шен Доу:**Так. У випадку чистої проектної системи або відносно високої частки проектної системи валовий прибуток після доставки є занадто низьким.
04 Після того, як ми керуємо Baidu Cloud більше року, ми маємо найкращу можливість
**З: як члена вищої команди прийняття рішень Baidu, які питання вас найбільше турбують і тривожать? Які питання ви часто обговорюєте зі своєю командою? **
**Шен Доу: Що стосується форми продукту, Робін має вимогу, щоб усі продукти були реконструйовані за допомогою штучного інтелекту. Це рефакторинг, а не доступ. **
Технічно ми думаємо про те, наскільки вищими можуть бути можливості сучасного генеративного ШІ. Поточні результати оцінювання Вень Сіньянь непогані, але це далеко не верхня межа людської мови або відмінне розуміння людської мови. Як ми можемо продовжувати швидко вдосконалювати цю здатність, безумовно, перше питання, про яке ми думаємо.
Крім того, є галузеве застосування, як можна реально використовувати модель, у яких сценаріях її можна використовувати, наскільки високий поріг, наскільки широкі межі, як підвищити її ефективність, як надихнути всіх думати про кращі способи використання ... Це те, про що ми повинні продовжувати думати.
**З: Це відносно м’які шари, а як щодо твердих? **
Shen Ji: Зараз кластери обчислювальної потужності варіюються від 10 000 карт до 10 000. Baidu — єдина компанія в Китаї, яка може виконувати одне завдання на рівні 10 000 карт.
У кластері Wanka справжні основні завдання організації, ефективності та безпеки невидимі для всіх, але вони надзвичайно важливі. Наприклад, нам потрібно покращити навчання та ефективність логічного висновку основного апаратного забезпечення та інтеграцію програмного та апаратного забезпечення. Це досить важливі речі.
**З: Ви стільки років керували пошуковим і рекламним бізнесом у Baidu, і лише минулого року ви взяли на себе відповідальність за інтелектуальну хмару, і ви одразу зіткнулися з історичною можливістю для великої моделі. Як ви думаєте, це благословення? Як почуваєшся? **
Шен Доу: Це не так перебільшено, але я справді схвильований і мені пощастило зробити таку річ.
Коли я очолив минулого року, у мене виникла ідея масштабування та стандартизації хмарних сервісів. Але оскільки можливості штучного інтелекту настільки фрагментовані, зробити це дуже важко. **Тоді я наполегливо думав, чи є щось, що потребує як можливостей штучного інтелекту, так і обчислювальної потужності штучного інтелекту, і може використовуватися багатьма людьми одночасно? Довго не можу знайти. **
Потім з'явилася велика модель. Одразу відчув себе добре.
Шен Доу, виконавчий віце-президент Baidu Group і президент Baidu Intelligent Cloud Business Group (ACG) | Джерело зображення: Baidu
**З: Ви особисто вивчали штучний інтелект. Вам більше підходять великі моделі? **
Шен Доу: Це дуже схоже на те, що я робив, будучи аспірантом. Хоча я завжди вивчав інформатику, я більше працював над програмним забезпеченням і працював над штучним інтелектом.
Після отримання хмари (апаратного забезпечення нижчого рівня) я дійсно знову прочитав книги про операційну систему та принципи створення комп’ютера. Якщо це справді IaaS, мережеві компоненти та обчислення для зберігання в епоху ЦП, я думаю, що це все ще трохи складно.
Але після появи великої моделі я виявив, що ці речі були інкапсульовані нижче. Зараз я в основному вивчаю велику модель, як-от читання статей, використання Python для виклику API на Qianfan тощо. Мені набагато комфортніше.
**З: Далі, які ваші очікування щодо розвитку та темпів зростання Baidu Smart Cloud? **
**Shen Dou:**Baidu Smart Cloud зараз наближається до 20 мільярдів юанів, що все ще відносно мало. Завдяки підтримці великих моделей попит наших клієнтів став дуже високим, і тепер ми переповнені. Проте все ще є необхідний процес, щоб дійсно дозволити користувачам використовувати його та якісно надавати його.
**З: Чи буде невеликий спалах у четвертому кварталі? **
**Шен Доу:**Деякі люди вважають, що четвертий квартал вибухне. Попит справді почав зростати, але я думаю, що він може зрости лише наступного року.
**З: Як би ви оцінили свою удачу? **
Шен Доу: Я думаю, що Baidu пощастило. Baidu стільки років розробляє штучний інтелект і доклала стільки зусиль. Якщо велика модель не прийде, шлях комерціалізації хмари буде справді складнішим і складнішим. Це лише показує, що компаніям з Vision зрештою не надто пощастить.