Dialogue avec Shen Dou, président de Baidu Intelligent Cloud : Il existe aujourd'hui de nombreux grands modèles sur le marché, mais la plupart d'entre eux disparaîtront rapidement.
24 heures après la sortie de "Wen Xin Yi Yan", Shen Dou est allé dans le backend pour examiner les données et a découvert que Wen Xin Yi Yan avait répondu à "33,42 millions" de questions des utilisateurs. Ce nombre dépassait ses attentes.
Deux jours plus tard, Shen Dou s'est entretenu avec plusieurs professionnels des médias, dont moi-même, et a déclaré : « Nous pensions également qu'il y avait moins de gens qui regardaient le spectacle, mais nous ne nous attendions pas à ce que l'enthousiasme des utilisateurs reste le même.
En septembre, alors que le grand boom du modèle chinois dure depuis six mois, les gens ordinaires ont enfin la possibilité de mettre la main dessus.
Depuis le 31 août, un certain nombre de grands modèles, dont « Wen Xin Yi Yan », ont été enregistrés et officiellement ouverts au public. Cette nouvelle a non seulement incité les utilisateurs à l'essayer, mais a également déclenché des réponses enthousiastes de la part des entreprises. ** Shen Dou a déclaré que le jour de l'ouverture de Wenxinyiyan, le nombre d'entreprises actives quotidiennement sur la plate-forme grand modèle Baidu Smart Cloud Qianfan a augmenté de plus de 40 %. ——Cette dernière est une grande plateforme de développement et de gestion de modèles lancée par Baidu pour les entreprises. **
À l'ère des grands modèles, Baidu espère promouvoir l'utilisation de grands modèles par les particuliers et les entreprises sur le même calendrier. D'un point de vue macro, cela favorise la vulgarisation de la technologie de pointe des grands modèles. Du point de vue de l'entreprise, cela aide Baidu à gérer ses propres affaires. Bien que la valeur commerciale des utilisateurs de l'extrémité C ne soit pas immédiatement apparente, la valeur commerciale des clients de l'extrémité B se reflète directement dans les frais de planification des API modèles et les revenus du cloud computing.
En mai de l'année dernière, Shen Dou, responsable de Baidu Mobile Ecosystem (MEG) depuis de nombreuses années, a été nommé président du Baidu Intelligent Cloud Group (ACG). Le groupe attend de lui qu'il saisisse les opportunités de l'ère AIGC et intègre le cloud intelligent dans la deuxième courbe de croissance de Baidu.
Mais la situation à laquelle Shen Ji était confrontée était très difficile. Baidu n'est pas le plus grand fournisseur de cloud computing en Chine, mais se classe seulement en tête dans le cloud public pour les services liés à l'IA. À cette époque, Shen Dou espérait également utiliser l'IA pour stimuler la croissance de l'ensemble du service cloud, mais les capacités de l'IA à l'époque étaient trop « fragmentées » pour se débarrasser de la situation actuelle de coûts de service élevés et de difficultés de mise à l'échelle. , et de maigres bénéfices.
Mais quelques mois plus tard, l’ère des grands modèles arrive. D'un point de vue concurrentiel, les services cloud de base, autrefois dominés par l'IaaS (Infrastructure as a Service) et le PaaS (Platform as a Service), cèdent la place à des services cloud tels que le MaaS (Model as a Service), dominés par l'IA. . Shen Dou estime que c'est l'opportunité pour Baidu Smart Cloud de « dépasser sur un virage ».
Du point de vue des revenus, les capacités polyvalentes des grands modèles permettent aux services cloud d'être plus standardisés, afin qu'ils puissent être réutilisés à grande échelle dans différents scénarios, réduisant ainsi les coûts des services et augmentant les bénéfices. C’est pour cette raison que la direction de Baidu a déclaré aux investisseurs lors de la conférence téléphonique sur les résultats du deuxième trimestre 2023 que l’IA et les grands modèles permettraient à Baidu Smart Cloud d’atteindre des marges bénéficiaires plus élevées.
**Ce qui suit est le texte intégral de notre conversation avec Shen Dou, compilé par Geek Park. **
Source de l'image : générée par Unbounded AI
01 Wenxinyiyan du côté C, plateforme Qianfan du côté B, deux faces du succès
**Q : Après avoir regardé le divertissement, il est temps de faire quelque chose de pratique. Il y a deux jours, Baidu a ouvert Wen Xinyiyan du côté C. Que pensez-vous de ces données d'utilisation des utilisateurs ? Attendu ou inattendu ? Quelles sont les capacités d’exploitation et de maintenance du backend ? **
Shen Dou : J'ai envoyé les données au groupe à 12h30 ce soir-là et mes collègues ont publié les données le lendemain. Les données ont été interceptées par moi du système et présentées intactes au monde extérieur. C'est absolument vrai.
Nous avions également l'impression qu'il y avait moins de gens « qui regardaient l'excitation », donc nos attentes n'étaient pas si élevées. De manière inattendue, il y a eu 33,42 millions de réponses ce jour-là, ce qui montre que les utilisateurs ont toujours des attentes élevées envers Wenxin Yiyan. Tout le monde n'est pas venu poser une question, ni partir après quelques phrases, mais a eu de nombreux cycles de dialogue. De ce point de vue, l’enthousiasme des utilisateurs est toujours là.
Cela fait cinq ou six mois que Wenxin Yiyan a commencé le test interne le 16 mars. Cela nous a laissé suffisamment de temps pour nous préparer, tant en termes d'amélioration des effets que de réduction des coûts. Par exemple, la vitesse d'inférence du grand modèle Wenxin a augmenté de plus de 30 fois par rapport à l'original, ce qui réduit considérablement le coût d'inférence et nous permet de transporter un si grand nombre d'utilisateurs.
**Q : Ainsi, les progrès technologiques des grands modèles de Baidu au cours de cette période incluent également une progression des coûts ? **
Shen Ji : Oui, le grand modèle lui-même est un paradigme technique gourmand en ressources.
Au début, nous ne nous attendions pas à un trafic aussi important, et la ressource machine (puissance de calcul) elle-même est très précieuse. Nous avons pensé que ce serait un gaspillage d'y mettre trop de machines, nous n'avons donc pas mis trop de machines supplémentaires. . Après l'augmentation du nombre d'utilisateurs ce jour-là, heureusement, grâce à l'amélioration de nos performances de raisonnement, nous fournissons toujours aux utilisateurs des services stables.
Nous disposons également d'une bonne réserve de puissance de calcul, et nous continuerons à réduire les coûts de formation et d'inférence pour répondre sans problème aux besoins des utilisateurs. A cette époque, nous discutions au sein de notre groupe interne pour savoir si nous pourrions résister au trafic. J'ai dit que rendre le trafic plus intense était tous les ennuis du bonheur.
**Q : Quels sont les avantages pour Baidu de la libéralisation de Wen Xinyiyan du côté C ? **
Shen Dou : Ce qui vous préoccupe peut-être, c'est de savoir si l'ouverture au côté C est durable si elle ne peut pas apporter de valeur commerciale.
En fait, tant qu’elle crée réellement de la valeur pour les utilisateurs, la commercialisation n’est qu’une question de temps. Dans l’histoire du développement technologique, il existe très peu d’exemples précieux mais difficiles à réaliser. Wen Xinyiyan a en effet apporté une réelle valeur aux utilisateurs finaux C. Hier, j'ai vu des commentaires disant que sans Wenxinyiyan, l'efficacité de son bureau diminuerait. Par conséquent, tant qu’il aura de la valeur, la commercialisation du Wenxinyiyan à l’avenir viendra naturellement.
**Q : La forme de produit final C de China Big Model sera-t-elle cohérente avec ChatGPT ? Est-ce un frais d'abonnement ? **
Shen Ji : Il est trop tôt pour parler de la forme du produit d'un grand modèle, et sa définition n'est pas encore si claire.
Lorsque l'Internet mobile a commencé à émerger, nous pouvions utiliser quelques mots-clés pour le définir clairement, tels que SoLoMo (Social, Local, Mobile, utilisant les médias sociaux, les services de géolocalisation et les terminaux mobiles pour offrir une meilleure expérience utilisateur). Mais aujourd’hui, le grand modèle ne peut être défini en quelques mots clairs. Ses capacités sont plus puissantes, mais ses frontières sont également plus larges et il est loin d’être temps de converger vers la forme du produit.
OpenAI est une entreprise axée sur la technologie et l’expérience utilisateur n’est en fait pas son point fort. La forme du produit qu'elle conçoit aujourd'hui en est encore à ses débuts. Ensuite, la vitesse d'itération du produit sera très rapide et la forme changera radicalement.
**Q : Le modèle commercial de ChatGPT consistant à facturer des frais d'abonnement aux utilisateurs finaux C est-il réalisable en Chine ? **
Shen Dou : Nous pouvons développer de nouvelles méthodes de monétisation, telles que les trois méthodes de monétisation courantes que sont la publicité, le commerce électronique et les jeux.
Si vous êtes prêt à dépenser deux mille yuans par mois pour embaucher un assistant, alors si l'IA peut faire 1/10 des choses qu'un assistant peut faire, comme vous aider à établir des itinéraires de voyage, à réserver des billets d'avion et des hôtels, et même à vous mobiliser. des applications de taxi et de livraison de nourriture, voulez-vous ? Prêt à dépenser deux cents yuans ? C'est juste que le mode de réalisation n'est pas nécessairement les frais d'adhésion, il peut s'agir de commissions de transaction ou d'autres méthodes.
Pour un autre exemple, un certain nombre de personnages PNJ dans le jeu sont pilotés par l'IA générative, et la diffusion en direct d'« humains numériques » dans le domaine du commerce électronique est également prise en charge par l'IA générative, ce qui peut conduire à différentes méthodes de monétisation. En fin de compte, la forme du produit du côté C détermine sa méthode de monétisation.
**Q : Si le produit final C est en fin de compte un outil de productivité, est-il possible que l'entreprise paie l'individu au lieu de l'individu ? **
Shen Dou : C'est possible. Par exemple, Baidu Netdisk est également un outil d'efficacité : de nombreuses entreprises achètent des comptes Netdisk pour que leurs employés puissent les utiliser. Nous avons également contacté des entreprises pour attribuer à chaque employé un compte Copilot pour écrire des programmes. Ce sont tous des cas où les entreprises paient la facture des particuliers.
Interface "Wen Xin Yi Yan"
**Q : En tant qu'entreprise de contenu, nous souhaitons également particulièrement utiliser de grands modèles pour produire des articles. Vous venez de lancer la plateforme de services de modèles à grande échelle « Qianfan » de To B. Quel est le contexte du lancement de « Qianfan » ? Comment peut-il aider les entreprises sans programmeurs à déployer de grands modèles ? **
**Shen Dou :**C'est une très bonne question. En fait, c'est pourquoi nous avons construit la plateforme Qianfan.
La caractéristique de ce grand modèle mis en œuvre du côté B est que les grandes entreprises prennent les devants et que de nombreux clients sont des institutions financières, des institutions énergétiques, des établissements d'enseignement, etc. Ils ont une caractéristique évidente selon laquelle ils doivent être déployés en privé, mais le seuil est très élevé et ils doivent former un groupe de techniciens pour itérer le modèle, ce qui peut ralentir le temps nécessaire à l'entrée en vigueur du grand modèle.
Au contraire, comme de nombreuses petites et moyennes entreprises, vous n’exclurez probablement pas un produit SaaS (basé sur une plateforme), ni les cloud publics. La plateforme Qianfan est un tel produit. Les entreprises peuvent y appeler directement des API ou affiner des échantillons de formation pour créer leurs propres modèles avec presque aucun code. **Notre objectif de Qianfan est d'abaisser le seuil de déploiement des grands modèles et de promouvoir l'application généralisée des grands modèles. **
**Q : Il semble que vous et OpenAI ayez des chemins différents. OpenAI lance d'abord le produit côté C ChatGPT, puis lance lentement les produits côté B, tandis que Baidu fait progresser simultanément les produits côté C et côté B. Pourquoi y a-t-il cette différence ? **
**Shen Ji :**La technologie a un problème d'acceptation, et davantage d'utilisateurs doivent vraiment l'utiliser et trouver sa valeur. Tout le monde parle de maquettes, mais combien de personnes ont réellement utilisé des maquettes ? Les entreprises clientes du secteur B sont plus conscientes de l’impact potentiel du grand modèle sur l’ensemble de leur paradigme de production et doivent l’utiliser davantage.
Mais s’ils n’utilisent pas les API du cloud public et ne mettent pas en place leur propre environnement pour en faire l’expérience et l’essayer, ils ne font alors qu’imaginer des choses. Nous devons donc créer Qianfan et les laisser utiliser d'abord le grand modèle. En fait, concernant l'ouverture complète des grands modèles, la face C attend depuis longtemps, et la face B attend aussi depuis longtemps. C'est juste que la face B est plus proche de la commercialisation.
**Q : Après la libération de Wen Xinyiyan, dans quelle mesure la demande pour la face B de la plateforme Qianfan a-t-elle augmenté ? **
Shen Ji : Le jour de l'ouverture de Wenxin Yiyan, le nombre d'entreprises actives quotidiennement sur la plate-forme de modèles à grande échelle Baidu Smart Cloud Qianfan a augmenté de plus de 40 %, un peu mieux.
La relaxation fera non seulement augmenter les données du côté C, mais fera également augmenter les données du côté B. Parce que cela aidera les entreprises du segment B à réduire leurs coûts et à accélérer les itérations (Remarque : il est moins cher et plus pratique d'utiliser des modèles nationaux).
Cependant, en termes de croissance des données, la face B n’est toujours pas aussi bonne que la face C. Aujourd'hui, supposons que quelqu'un veuille utiliser "Wen Xin Yi Yan" du côté B. Au lieu d'appeler l'API, il pourrait aussi bien aller du côté C pour en faire l'expérience en premier. Lorsqu'il pensera que l'expérience est bonne, il viendra à Qianfan pour l'utiliser. Faire en sorte que la face B l’utilise nécessite un processus de développement.
**Q : Si le côté C et le côté B vont de pair, comment définissez-vous la priorité ? L’accent est-il principalement mis sur la face C ou sur la face B ? **
Shen Ji : Lorsqu'il y a un conflit de ressources, la priorité doit être définie. La caractéristique d'un grand modèle est qu'il a une couche épaisse en bas qui est universelle.Lorsque l'on recherche des applications en haut, qu'il s'agisse de To B ou de To C, Baidu doit travailler ensemble pour le faire. Il n’y a pas de conflit de ressources.
Du côté C, Baidu recherche activement des formes de produits et des modèles commerciaux capables de mettre en œuvre de grands modèles. Baidu doit reconstruire ses produits C-end sur la base de grands modèles. Par exemple, à en juger par les propres données de produits de Baidu, Baidu Netdisk, Baidu Library et d'autres produits, après une reconstruction basée sur de grands modèles, la fidélité des utilisateurs et les taux de paiement des adhésions sont très élevés. Amélioration : la nouvelle application Wenxin Yiyan et la nouvelle version de Baidu Search sont également devenues de nouvelles entrées vers des applications de grands modèles. Du côté B, Baidu Intelligent Cloud sert bien le marché To B en créant la meilleure plateforme de grands modèles.
**Q : En fait, la base la plus universelle est votre cloud computing. Que vous serviez des clients internes ou externes, c'est votre succès. **
Shen Dou : Oui, si vous servez bien les clients internes, vous servirez bien les clients externes. Si vous servez bien les clients externes, vous servirez bien les clients internes. C'est la beauté du MaaS. Sinon, en supposant que les piles technologiques externes et internes soient complètement deux ensembles, le coût sera trop élevé.
Nous marchons sur deux jambes. Baidu espère certainement créer un produit To C à succès, mais nous sommes également très disposés à aider davantage d'entreprises et de développeurs à créer de bonnes applications To C grâce au grand modèle et à la puissance de calcul sous-jacents. En fait, peu importe qui réussit, c’est le succès du modèle sous-jacent.
02 Le grand modèle lance une compétition éliminatoire brutale, et l'avenir du modèle open source est inquiétant
**Q : En plus de Wen Xinyiyan, la plateforme Qianfan a également lancé d'autres modèles. Quelle est la différence entre Qianfan et les plateformes d'agrégation de modèles comme Hugging Face ? **
Shen Dou : À l'heure actuelle ou pendant longtemps, les entreprises espèrent essayer différents modèles, que ce soit en raison de l'adaptabilité du modèle à la scène ou des besoins psychologiques des clients. De ce point de vue, nous devons également proposer des modèles tiers.
Mais tous les modèles ne valent pas la peine d’être essayés, ce qui constituerait un énorme gaspillage de ressources. Par conséquent, Qianfan a ses propres principes de dépistage et les modèles que nous proposons sont relativement excellents et faciles à utiliser.
**Q : Hugging Face se positionne donc comme une communauté et Qianfan se positionne comme une plateforme ? **
Shen Dou : C'est vrai. Qianfan résout non seulement votre problème de choix d'un modèle, mais résout également votre problème d'utilisation réelle du modèle. Son utilisation inclut une série de questions telles que les données, la formation, le réglage, l'ingénierie et la construction d'applications. Le coût et l'efficacité doivent également être pleinement pris en compte. Qianfan fournit un service à guichet unique, ce qui fait la différence entre Qianfan et Hugging Face.
Le modèle Hugging Face a une étendue suffisante et Qianfan s'appuie sur les avantages naturels des fournisseurs de cloud pour disposer d'un espace d'exploitation suffisamment grand et peut également réaliser une formation de bout en bout et une optimisation des performances d'inférence. Par exemple, l'accélération pendant le processus de formation, la détection, la localisation et la récupération rapides des pannes ; pendant le processus d'inférence, basé sur l'évolutivité de l'énorme cluster informatique hétérogène de Baidu, il a une très bonne élasticité des ressources et peut également fournir des services sans serveur, permettant aux clients de obtenez des services à faible coût. Coûts d’infrastructure, aucune opération ni maintenance requise et avantages d’évolutivité élevés. C'est là que Qianfan va plus loin que Hugging Face.
Plateforme grand modèle Baidu Intelligent Cloud Qianfan | Source de l'image : site officiel de Baidu Intelligent Cloud
**Q : Vous ne semblez pas optimiste quant au modèle open source, mais l'open source dilue le coût de déploiement de grands modèles pour les entreprises, on ne peut donc pas dire que cela n'a aucun sens. Que pensez-vous exactement du modèle open source ? **
**Shen Dou :**À votre avis, qui supportera le coût de LLaMA (Remarque : le grand modèle open source de Facebook) ? C'est Facebook. Qui partagera le coût de Facebook ? **Si vous ne parvenez pas à comprendre le point final de ce problème, alors c'est (open source) de l'eau sans source et un arbre sans racines, et des problèmes finiront par surgir un jour. **
Parce que c'est différent des logiciels open source traditionnels : dans le passé, l'investissement d'une personne dans l'open source était le coût de son temps. Mais aujourd’hui, si l’on veut développer un grand modèle open source, le coût des machines et des données est trop élevé.
**Q : Vous pouvez utiliser l'amour pour produire de l'électricité, mais vous ne pouvez pas utiliser l'amour pour calculer. **
Shen Dou : Oui, vous devez y consacrer des dizaines de millions pour un seul cycle d'entraînement.
Un peu similaire au gameplay open source traditionnel d'aujourd'hui, c'est qu'ils utilisent tous l'open source pour attirer l'attention des utilisateurs et espèrent finalement choisir d'autres grands modèles (fermés).
**Q : Est-il possible d'avoir une relation similaire à Red Hat et IBM (Remarque : en 2018, IBM a annoncé l'acquisition de Red Hat, la plus grande société open source au monde) ? Et si de riches propriétaires d’entreprises comme IBM étaient prêts à soutenir l’open source ? De cette façon, l’open source bénéficiera d’un soutien financier et de données. **
Shen Dou : L'Open Source existera certainement pendant longtemps. Alors que les grands modèles reçoivent de plus en plus d’attention, les gouvernements et les entreprises peuvent faire des dons pour soutenir la recherche dans ce domaine et promouvoir l’éducation sur l’ensemble du marché. Mais quelle valeur cela peut-il générer au final ? Je pense qu’il est fort probable qu’il ne devienne pas courant et qu’il ne forme pas un modèle commercial complet en boucle fermée.
Le développement de logiciels traditionnels peut former une boucle fermée. Par exemple, si vous écrivez un morceau de code ou mettez à niveau une fonction, vous pouvez rapidement vous enregistrer (enregistrer) et les capacités de l'ensemble du logiciel open source seront améliorées d'une couche. Mais après la sortie de LLaMA aujourd'hui, quel que soit le nombre de personnes qui l'utilisent, il ne peut pas être enregistré. Les données, la puissance de calcul et les capacités ne peuvent pas être rétablies, et une boucle fermée ne peut pas être formée.
**Q : De nombreuses écoles open source pensent que le modèle open source a lu des milliards de paramètres. Bien qu'il ne soit pas aussi bon que le modèle fermé, il reste très utilisable. Tout comme le modèle lui-même n'a pas les niveaux de graduation 985 et 211, mais au moins c'est un niveau professionnel qui peut être utilisé pour un réglage plus précis vertical. **
Shen Ji : Le modèle de base (modèle de base) va-t-il s'améliorer ? Si le modèle de base est déjà très bon aujourd’hui et qu’il n’est pas nécessaire de le modifier, alors il n’y a pas de problème. Mais la situation actuelle est que le modèle de base ne compte que 60 points, et nous devons nous efforcer d'atteindre 90 ou 95 points.
**Q : Pourquoi devrions-nous progresser ? Le véritable sentiment de nombreuses entreprises est que GPT3.0 peut déjà résoudre le problème, alors quelle est la signification du progrès ? **
Shen Dou : C'est une très bonne question, et nous en avons également discuté en interne. Aujourd’hui, le modèle de base peut résoudre une grande partie du problème s’il atteint 60 points, mais il reste encore un grand écart entre lui et une solution parfaite. Et la nature humaine exige que si vous me laissez le résoudre en une seule fois, je ne le ferai jamais en deux fois.
Aujourd’hui, sur la base de seulement 60 points du Foundation Model, vous avez entraîné 85 points. Après cela, le Foundation Model a atteint 85 points, pouvez-vous obtenir 95 points ? Il n’y a aucune limite à ce que les gens peuvent poursuivre à cet égard.
Cette limite doit continuer à être tirée vers le haut. Prenons l'exemple de la recherche : les recherches effectuées il y a plus de 20 ans peuvent être utilisées. Alors, qu'a fait Google au cours des 20 dernières années ? On dirait que vous avez terminé, mais ce n'est pas le cas.
**Q : Que pensez-vous du prochain paysage concurrentiel des grands modèles ? **
Shen Dou : Il existe de nombreux modèles sur le marché aujourd'hui, mais je pense que beaucoup d'entre eux disparaîtront rapidement.
La raison pour laquelle de nombreux modèles existent encore aujourd’hui est que beaucoup de gens ne savent toujours pas à quel point ils sont bons ou mauvais. Quoi qu'il en soit, personne ne peut l'essayer, personne ne peut l'utiliser, et il se classe assez bien lors du premier test. Mais à mesure que le modèle se libéralise, les avantages et les inconvénients deviennent plus faciles à juger. Aujourd'hui, pour ceux qui réalisent de grands modèles, si vous leur posez 30 millions de questions et essayez de les saisir, la plupart d'entre elles échoueront probablement.
Cela conduira à une concentration progressive du trafic, permettant aux modèles principaux de réaliser plus facilement des économies d'échelle, amortissant ainsi davantage le coût de développement du modèle. L’écart va encore se creuser.
**Q : Quand commenceront les huitièmes de finale ? **
Shen Ji : C'est difficile à dire, après tout, cela peut prendre un certain temps avant que tout le monde collecte des fonds. Pour les grandes entreprises, le brûlage reste abordable, mais cela dépend aussi de la valeur du brûlage. De toute façon, certaines entreprises ont de nombreux scénarios d'application, elles ne les laisseront donc certainement pas ajuster les API de grands modèles d'autres personnes pour le moment, elles créeront donc certainement leur propre modèle. Mieux, presque (ce n’est pas grave), au moins on n’a pas besoin de s’appuyer sur le monde extérieur. Les grandes entreprises continueront à fabriquer des modèles pendant un certain temps.
03 Le grand modèle fait évoluer les services de cloud computing vers la « standardisation », et Baidu Cloud gagne enfin de l'argent
**Q : Les grands modèles deviendront-ils la base de toutes les applications à l'avenir ? Cela créera-t-il un écosystème de développement et d’applications complètement différent ? **
Shen Ji : Il ne fait aucun doute que le grand modèle deviendra une nouvelle ère de système d'exploitation et deviendra la base de nombreuses applications.
Depuis longtemps, les gens utilisent le langage comme instruction lorsqu’ils traitent avec des personnes et des machines. Mais dans le passé, les machines ne comprenaient pas le langage naturel, nous avons donc écrit un ensemble de langages de programmation pour qu'elles puissent le comprendre. Maintenant que les grands modèles comprennent le langage naturel, l’ensemble du paradigme de développement d’applications a fondamentalement changé. Le développement est davantage motivé par la créativité que par la capacité à coder.
De plus, les grands modèles ont également la possibilité de connecter des systèmes entre eux. À l'image de l'émergence des plug-ins, c'est-à-dire des composants qui complètent indépendamment une certaine capacité et attendent d'être appelés, le grand modèle peut combiner des plug-ins pour accomplir une tâche spécifique. Cela modifiera encore davantage le paradigme du développement.
**Q : Si le grand modèle peut résoudre les problèmes grâce à tous les plug-ins, cette interconnexion est-elle déguisée ? **
**Shen Dou :**En fait, toujours pas. En effet, ces APP existent désormais sur le même téléphone mobile et dans la même application, mais elles ne sont toujours pas interconnectées. À l'avenir, Meituan et Didi rejoindront la grande base de modèles, mais ils ne seront toujours pas interopérables.
**Q : Le problème sous-jacent n'a pas été résolu. **
Shen Dou : Oui, l'interconnexion doit faire référence à l'ouverture des données. Je peux accéder à vos données et vous pouvez accéder à mes données. Mais dans le cadre de la grande base de modèles, nous sommes uniquement disposés à parler au hub, mais nos plug-ins ne se parlent pas.
**Q : Cette situation de non-interconnexion empêchera-t-elle les développeurs de mettre en œuvre en douceur la planification entre ressources ? Serait-ce là un défaut du modèle écologique de développement à grande échelle de la Chine ? **
**Shen Ji :**Je pense que la raison principale est que nous n'avons pas lâché prise et que l'ampleur du trafic n'a pas augmenté. Par exemple, Wen Xinyiyan a soudainement eu plus de 30 millions de trafic. Le développeur a calculé que peut-être 1 % lui appartenait, ce qui signifie qu'il y avait 300 000 visites, et il déciderait de le faire.
**Q : À l'ère des grands modèles, comment Baidu Cloud définit-il sa position dans l'écosystème ? Comment est réparti le mécanisme de prestations ? **
Shen Dou : Il est absolument impossible que Baidu seul fasse cela. Ce n’est pas que j’ai peur de ne pas pouvoir le faire, c’est que je n’y arriverai absolument pas.
Tout d’abord, les plug-ins auront certainement un écosystème très prospère, et ils se compléteront avec de grands modèles. Le plug-in doit obtenir du trafic du grand modèle, et le grand modèle a besoin de la prise en charge de la capacité du plug-in. Tout comme aujourd'hui, s'il n'y a pas de WeChat ou de Douyin sur le téléphone mobile, les utilisateurs ne peuvent pas l'utiliser.
Deuxièmement, en termes d'applications pour les clients finaux, qu'il s'agisse de déploiement de cloud privé ou de solutions au niveau plateforme comme Qianfan, il est finalement nécessaire que les partenaires écologiques résolvent le problème de livraison du dernier kilomètre, comme Kingdee, UFIDA, iSoftStone, etc. Ils ont des clients et des processus commerciaux particulièrement familiers, et les exigences finales y seront intégrées.
En résumé, le premier est l'agrégation des capacités pour développer l'écologie, le deuxième ce sont les partenaires qui aident à fournir les grands modèles et le troisième ce sont les clients qui utilisent les grands modèles pour renforcer leurs propres services. Ce sont tous des éléments écologiques.
**Q : Quels changements le paradigme technologique des grands modèles a-t-il apporté au cloud computing ? **
**Shen Dou :**La tendance du développement technologique est de plus en plus avancée. En d’autres termes, nous nous éloignons de plus en plus de la couche inférieure, il y a de moins en moins besoin de prêter attention aux détails, les emballages s’améliorent de plus en plus et il y a un grand nombre de personnes qui font ce travail dans les coulisses. . C’est aussi la valeur de la contribution du cloud.
La valeur apportée par les premiers CPU Cloud est que les clients n'ont pas besoin d'acheter leurs propres machines et de les regrouper avec des cartes une par une. Il est de mieux en mieux emballé et peut être utilisé directement dessus. Avec l'avènement de l'ère des grands modèles, le GPU « puce d'accélération AI » est progressivement devenu le centre de la puissance de calcul, et le taux de croissance de la puissance de calcul dépasse de loin celui du CPU. Cela accélérera notre passage du cloud CPU au cloud GPU.
À l'ère du cloud GPU, nous finirons par encapsuler davantage les capacités du cloud afin que la couche sous-jacente ne soit pas exposée, formant une forme d'interaction plus avancée et se connectant directement à l'API des grands modèles. Le Cloud d'aujourd'hui est encore développé pour les ingénieurs et les formes d'interaction ne sont pas assez approfondies.Mais à l'avenir, il y aura moins d'ingénieurs en bas de l'échelle et davantage de personnes passeront aux niveaux supérieurs. Il s’agit d’un changement radical.
Baidu Smart Cloud | Source de l’image : Visual China
**Q : Les grands modèles vont-ils remodeler le paysage du marché du cloud computing ? Si oui, quand verrons-nous le signal ? **
Shen Dou : J'aime cette question. S'il n'y a pas de grand modèle, le cloud de Baidu sera très difficile. Nous avons déjà crié "au plus profond de l'industrie, se concentrer sur la scène, intégrer le cloud et l'intelligence, et inclure l'IA". Ce que Baidu Smart Cloud veut faire, c'est mettre l'IA dans l'ensemble du service To B et en faire un point de croissance.
**Mais dans le passé, l’IA traditionnelle était très fragmentée. Il doit générer une capacité pour résoudre un problème, puis résoudre ce problème, sa polyvalence est donc relativement faible. Il en résulte qu’il s’agit d’un système de projet difficile à mettre à l’échelle et dont le bénéfice brut est faible. **
Après la sortie de l'IA générative, nous avons constaté qu'elle est très polyvalente et peut résoudre de nombreux problèmes à la fois. Elle est fondamentalement unifiée depuis la couche d'application vers le bas. Même si elle nécessite des réglages fins ou des plug-ins, il s'agit d'une action standardisée. Ceci est complètement différent des précédentes applications d’IA très fragmentées. Il s’agit en soi d’un énorme changement dans le secteur du cloud, et ce que l’on appelle l’IaaS est devenu le MaaS.
**Q : Dans le passé, les entreprises d'IA en Chine devaient toujours décrocher des projets, ce qui était très difficile. Il est impossible de résoudre les problèmes avec des produits standardisés comme c’est le cas actuellement. **
Shen Ji : Nous avons discuté de la stratégie cloud avec Robin (Remarque : le fondateur, président et PDG de Baidu, Robin Li), et il nous a également demandé de standardiser et d'évoluer, sinon nous ne serions pas en mesure de refléter Baidu en tant qu'entreprise technologique. valeur.
**Q : L'avenir à long terme sera donc une question de normalisation et d'échelle ? **
**Shen Dou :**Les grands modèles connaissaient une grande incertitude au début. Aujourd'hui, de nombreux clients n'ont pas encore une compréhension unifiée des limites de capacité, des limites, des coûts, des méthodes de livraison et de demande des grands modèles. Dans un court laps de temps, nous ne pouvons pas garantir que tous les clients accèderont au cloud public, nous devons d'abord le faire via un système de projet.
Mais même un tel système de projet est différent du système de projet précédent. Par exemple, si je vous donne un modèle de déploiement privé, il ressemble plus à Windows ou à Office : d'abord la version 95, puis la version 97, puis la version 2000. Vous devez constamment mettre à niveau. On dirait que je vous ai donné un CD à installer chez vous, mais en fait il faut continuer à vous abonner. Ce n'est pas la même chose que la version originale.
**Q : Mais vos finances se sont améliorées. Au premier trimestre de cette année, Baidu Smart Cloud a atteint pour la première fois une rentabilité trimestrielle, en raison, comme vous l'avez mentionné, de la standardisation des services cloud, qui a permis une réutilisation à grande échelle et une réduction des coûts. **
Shen Ji : Oui. Dans le cas d'un système de projet pur ou d'une proportion relativement élevée de système de projet, le bénéfice brut après livraison est trop faible.
04 Après avoir pris en charge Baidu Cloud pendant plus d'un an, nous avons la meilleure opportunité
**Q : En tant que membre de la plus haute équipe décisionnelle de Baidu, quels sont les problèmes qui vous préoccupent le plus et qui vous inquiètent le plus ? De quels sujets discutez-vous fréquemment avec votre équipe ? **
**Shen Dou : En termes de forme de produit, Robin exige que tous les produits soient reconstruits à l'aide de la pensée native de l'IA. C'est une refactorisation, pas un accès. **
Techniquement, nous réfléchissons à jusqu’où les capacités de l’IA générative actuelle peuvent aller. Les résultats actuels de l'évaluation de Wen Xinyiyan ne sont pas mauvais, mais ils sont loin de la limite supérieure du langage humain ou d'une excellente compréhension du langage humain. Comment pouvons-nous continuer à améliorer rapidement cette capacité est certainement la première question à laquelle nous réfléchissons.
Ensuite, en termes d'applications industrielles, comment le modèle peut-il être utilisé, dans quels scénarios peut-il être utilisé, quel est le seuil d'utilisation, quelle est la largeur de la frontière, comment son efficacité peut-elle être améliorée et comment peut-il inspirer chacun doit réfléchir à un meilleur usage... C'est une chose à laquelle nous devons continuer à réfléchir.
**Q : Ce sont des couches relativement douces. Qu'en est-il des couches plus dures ? **
Shen Ji : Désormais, les clusters de puissance de calcul vont de 10 000 à 10 000 cartes. Baidu est la seule entreprise en Chine capable d'exécuter une seule tâche au niveau de 10 000 cartes.
Dans le cadre du cluster Wanka, les véritables tâches sous-jacentes d’organisation, d’efficacité et de sécurité sont invisibles pour tous, mais elles sont extrêmement importantes. Par exemple, nous devons améliorer l'efficacité de la formation et de l'inférence du matériel sous-jacent ainsi que l'intégration des logiciels et du matériel. Ce sont toutes des choses assez cruciales.
**Q : Vous êtes responsable des activités de recherche et de publicité chez Baidu depuis de nombreuses années. Ce n'est que l'année dernière que vous avez pris en charge le cloud intelligent. Vous avez immédiatement découvert l'opportunité historique des grands modèles. Vous sentez-vous chanceux ? Comment vous sentez-vous? **
Shen Ji : Ce n'est pas si exagéré, mais je suis vraiment excité et chanceux de pouvoir faire une telle chose.
Lorsque j’ai pris mes fonctions l’année dernière, j’ai eu l’idée de faire évoluer et de standardiser les services cloud. Mais comme les capacités de l’IA sont très fragmentées, il est très difficile d’y parvenir. ** À cette époque, je réfléchissais sérieusement : existe-t-il quelque chose qui nécessite à la fois des capacités d'IA et une puissance de calcul d'IA, et qui peut être utilisé par de nombreuses personnes en même temps ? Je ne l'ai pas trouvé après une longue recherche. **
Puis, le grand modèle est apparu. Cela m’a paru bien tout de suite.
Shen Dou, vice-président exécutif du groupe Baidu et président du Baidu Intelligent Cloud Group (ACG) | Source de l'image : Baidu
**Q : Vous avez personnellement étudié l'intelligence artificielle. Les grands modèles vous conviennent-ils mieux ? **
Shen Dou : C'est très similaire à ce que j'ai fait en tant qu'étudiant diplômé. Bien que j'ai toujours étudié l'informatique, je travaille davantage sur les logiciels et j'ai travaillé sur l'intelligence artificielle.
Après avoir reçu le cloud (matériel de niveau inférieur) à ce moment-là, j'ai vraiment relu les livres sur le système d'exploitation et les principes de composition informatique. S'il s'agit vraiment de l'IaaS, des composants réseau et du stockage informatique à l'ère du CPU, je pense que c'est encore un peu difficile.
Mais après la sortie du grand modèle, j'ai découvert que ces choses étaient encapsulées ci-dessous.Maintenant, j'étudie principalement le grand modèle, comme lire des articles, utiliser Python pour appeler l'API sur Qianfan, etc. Je me sens beaucoup plus facile.
**Q : Ensuite, quelles sont vos attentes concernant le développement et le taux de croissance de Baidu Smart Cloud ? **
**Shen Dou :**Baidu Smart Cloud coûte désormais près de 20 milliards de yuans, ce qui est encore relativement faible. Avec le soutien des grands modèles, la demande de nos clients est devenue très forte, et maintenant nous sommes débordés. Cependant, il reste encore un processus à suivre pour permettre réellement aux utilisateurs de l'utiliser et de le fournir correctement.
**Q : Y aura-t-il une petite épidémie au quatrième trimestre ? **
**Shen Dou :**Certaines personnes estiment que le quatrième trimestre va exploser. La demande a effectivement commencé à reprendre, mais je pense qu’elle pourrait ne pas exploser avant l’année prochaine.
Shen Dou : Je pense que c'est la chance de Baidu. Baidu travaille dans l'IA depuis tant d'années et a déployé tant d'efforts. Si le grand modèle n'arrive pas, le chemin de la commercialisation du cloud est en effet plus difficile et plus difficile. Cela montre simplement que les entreprises ayant Vision n’auront finalement pas trop de chance.
Voir l'original
Le contenu est fourni à titre de référence uniquement, il ne s'agit pas d'une sollicitation ou d'une offre. Aucun conseil en investissement, fiscalité ou juridique n'est fourni. Consultez l'Avertissement pour plus de détails sur les risques.
Dialogue avec Shen Dou, président de Baidu Intelligent Cloud : Il existe aujourd'hui de nombreux grands modèles sur le marché, mais la plupart d'entre eux disparaîtront rapidement.
24 heures après la sortie de "Wen Xin Yi Yan", Shen Dou est allé dans le backend pour examiner les données et a découvert que Wen Xin Yi Yan avait répondu à "33,42 millions" de questions des utilisateurs. Ce nombre dépassait ses attentes.
Deux jours plus tard, Shen Dou s'est entretenu avec plusieurs professionnels des médias, dont moi-même, et a déclaré : « Nous pensions également qu'il y avait moins de gens qui regardaient le spectacle, mais nous ne nous attendions pas à ce que l'enthousiasme des utilisateurs reste le même.
En septembre, alors que le grand boom du modèle chinois dure depuis six mois, les gens ordinaires ont enfin la possibilité de mettre la main dessus.
Depuis le 31 août, un certain nombre de grands modèles, dont « Wen Xin Yi Yan », ont été enregistrés et officiellement ouverts au public. Cette nouvelle a non seulement incité les utilisateurs à l'essayer, mais a également déclenché des réponses enthousiastes de la part des entreprises. ** Shen Dou a déclaré que le jour de l'ouverture de Wenxinyiyan, le nombre d'entreprises actives quotidiennement sur la plate-forme grand modèle Baidu Smart Cloud Qianfan a augmenté de plus de 40 %. ——Cette dernière est une grande plateforme de développement et de gestion de modèles lancée par Baidu pour les entreprises. **
À l'ère des grands modèles, Baidu espère promouvoir l'utilisation de grands modèles par les particuliers et les entreprises sur le même calendrier. D'un point de vue macro, cela favorise la vulgarisation de la technologie de pointe des grands modèles. Du point de vue de l'entreprise, cela aide Baidu à gérer ses propres affaires. Bien que la valeur commerciale des utilisateurs de l'extrémité C ne soit pas immédiatement apparente, la valeur commerciale des clients de l'extrémité B se reflète directement dans les frais de planification des API modèles et les revenus du cloud computing.
En mai de l'année dernière, Shen Dou, responsable de Baidu Mobile Ecosystem (MEG) depuis de nombreuses années, a été nommé président du Baidu Intelligent Cloud Group (ACG). Le groupe attend de lui qu'il saisisse les opportunités de l'ère AIGC et intègre le cloud intelligent dans la deuxième courbe de croissance de Baidu.
Mais la situation à laquelle Shen Ji était confrontée était très difficile. Baidu n'est pas le plus grand fournisseur de cloud computing en Chine, mais se classe seulement en tête dans le cloud public pour les services liés à l'IA. À cette époque, Shen Dou espérait également utiliser l'IA pour stimuler la croissance de l'ensemble du service cloud, mais les capacités de l'IA à l'époque étaient trop « fragmentées » pour se débarrasser de la situation actuelle de coûts de service élevés et de difficultés de mise à l'échelle. , et de maigres bénéfices.
Mais quelques mois plus tard, l’ère des grands modèles arrive. D'un point de vue concurrentiel, les services cloud de base, autrefois dominés par l'IaaS (Infrastructure as a Service) et le PaaS (Platform as a Service), cèdent la place à des services cloud tels que le MaaS (Model as a Service), dominés par l'IA. . Shen Dou estime que c'est l'opportunité pour Baidu Smart Cloud de « dépasser sur un virage ».
Du point de vue des revenus, les capacités polyvalentes des grands modèles permettent aux services cloud d'être plus standardisés, afin qu'ils puissent être réutilisés à grande échelle dans différents scénarios, réduisant ainsi les coûts des services et augmentant les bénéfices. C’est pour cette raison que la direction de Baidu a déclaré aux investisseurs lors de la conférence téléphonique sur les résultats du deuxième trimestre 2023 que l’IA et les grands modèles permettraient à Baidu Smart Cloud d’atteindre des marges bénéficiaires plus élevées.
**Ce qui suit est le texte intégral de notre conversation avec Shen Dou, compilé par Geek Park. **
01 Wenxinyiyan du côté C, plateforme Qianfan du côté B, deux faces du succès
**Q : Après avoir regardé le divertissement, il est temps de faire quelque chose de pratique. Il y a deux jours, Baidu a ouvert Wen Xinyiyan du côté C. Que pensez-vous de ces données d'utilisation des utilisateurs ? Attendu ou inattendu ? Quelles sont les capacités d’exploitation et de maintenance du backend ? **
Shen Dou : J'ai envoyé les données au groupe à 12h30 ce soir-là et mes collègues ont publié les données le lendemain. Les données ont été interceptées par moi du système et présentées intactes au monde extérieur. C'est absolument vrai.
Nous avions également l'impression qu'il y avait moins de gens « qui regardaient l'excitation », donc nos attentes n'étaient pas si élevées. De manière inattendue, il y a eu 33,42 millions de réponses ce jour-là, ce qui montre que les utilisateurs ont toujours des attentes élevées envers Wenxin Yiyan. Tout le monde n'est pas venu poser une question, ni partir après quelques phrases, mais a eu de nombreux cycles de dialogue. De ce point de vue, l’enthousiasme des utilisateurs est toujours là.
Cela fait cinq ou six mois que Wenxin Yiyan a commencé le test interne le 16 mars. Cela nous a laissé suffisamment de temps pour nous préparer, tant en termes d'amélioration des effets que de réduction des coûts. Par exemple, la vitesse d'inférence du grand modèle Wenxin a augmenté de plus de 30 fois par rapport à l'original, ce qui réduit considérablement le coût d'inférence et nous permet de transporter un si grand nombre d'utilisateurs.
**Q : Ainsi, les progrès technologiques des grands modèles de Baidu au cours de cette période incluent également une progression des coûts ? **
Shen Ji : Oui, le grand modèle lui-même est un paradigme technique gourmand en ressources.
Au début, nous ne nous attendions pas à un trafic aussi important, et la ressource machine (puissance de calcul) elle-même est très précieuse. Nous avons pensé que ce serait un gaspillage d'y mettre trop de machines, nous n'avons donc pas mis trop de machines supplémentaires. . Après l'augmentation du nombre d'utilisateurs ce jour-là, heureusement, grâce à l'amélioration de nos performances de raisonnement, nous fournissons toujours aux utilisateurs des services stables.
Nous disposons également d'une bonne réserve de puissance de calcul, et nous continuerons à réduire les coûts de formation et d'inférence pour répondre sans problème aux besoins des utilisateurs. A cette époque, nous discutions au sein de notre groupe interne pour savoir si nous pourrions résister au trafic. J'ai dit que rendre le trafic plus intense était tous les ennuis du bonheur.
**Q : Quels sont les avantages pour Baidu de la libéralisation de Wen Xinyiyan du côté C ? **
Shen Dou : Ce qui vous préoccupe peut-être, c'est de savoir si l'ouverture au côté C est durable si elle ne peut pas apporter de valeur commerciale.
En fait, tant qu’elle crée réellement de la valeur pour les utilisateurs, la commercialisation n’est qu’une question de temps. Dans l’histoire du développement technologique, il existe très peu d’exemples précieux mais difficiles à réaliser. Wen Xinyiyan a en effet apporté une réelle valeur aux utilisateurs finaux C. Hier, j'ai vu des commentaires disant que sans Wenxinyiyan, l'efficacité de son bureau diminuerait. Par conséquent, tant qu’il aura de la valeur, la commercialisation du Wenxinyiyan à l’avenir viendra naturellement.
**Q : La forme de produit final C de China Big Model sera-t-elle cohérente avec ChatGPT ? Est-ce un frais d'abonnement ? **
Shen Ji : Il est trop tôt pour parler de la forme du produit d'un grand modèle, et sa définition n'est pas encore si claire.
Lorsque l'Internet mobile a commencé à émerger, nous pouvions utiliser quelques mots-clés pour le définir clairement, tels que SoLoMo (Social, Local, Mobile, utilisant les médias sociaux, les services de géolocalisation et les terminaux mobiles pour offrir une meilleure expérience utilisateur). Mais aujourd’hui, le grand modèle ne peut être défini en quelques mots clairs. Ses capacités sont plus puissantes, mais ses frontières sont également plus larges et il est loin d’être temps de converger vers la forme du produit.
OpenAI est une entreprise axée sur la technologie et l’expérience utilisateur n’est en fait pas son point fort. La forme du produit qu'elle conçoit aujourd'hui en est encore à ses débuts. Ensuite, la vitesse d'itération du produit sera très rapide et la forme changera radicalement.
**Q : Le modèle commercial de ChatGPT consistant à facturer des frais d'abonnement aux utilisateurs finaux C est-il réalisable en Chine ? **
Shen Dou : Nous pouvons développer de nouvelles méthodes de monétisation, telles que les trois méthodes de monétisation courantes que sont la publicité, le commerce électronique et les jeux.
Si vous êtes prêt à dépenser deux mille yuans par mois pour embaucher un assistant, alors si l'IA peut faire 1/10 des choses qu'un assistant peut faire, comme vous aider à établir des itinéraires de voyage, à réserver des billets d'avion et des hôtels, et même à vous mobiliser. des applications de taxi et de livraison de nourriture, voulez-vous ? Prêt à dépenser deux cents yuans ? C'est juste que le mode de réalisation n'est pas nécessairement les frais d'adhésion, il peut s'agir de commissions de transaction ou d'autres méthodes.
Pour un autre exemple, un certain nombre de personnages PNJ dans le jeu sont pilotés par l'IA générative, et la diffusion en direct d'« humains numériques » dans le domaine du commerce électronique est également prise en charge par l'IA générative, ce qui peut conduire à différentes méthodes de monétisation. En fin de compte, la forme du produit du côté C détermine sa méthode de monétisation.
**Q : Si le produit final C est en fin de compte un outil de productivité, est-il possible que l'entreprise paie l'individu au lieu de l'individu ? **
Shen Dou : C'est possible. Par exemple, Baidu Netdisk est également un outil d'efficacité : de nombreuses entreprises achètent des comptes Netdisk pour que leurs employés puissent les utiliser. Nous avons également contacté des entreprises pour attribuer à chaque employé un compte Copilot pour écrire des programmes. Ce sont tous des cas où les entreprises paient la facture des particuliers.
**Q : En tant qu'entreprise de contenu, nous souhaitons également particulièrement utiliser de grands modèles pour produire des articles. Vous venez de lancer la plateforme de services de modèles à grande échelle « Qianfan » de To B. Quel est le contexte du lancement de « Qianfan » ? Comment peut-il aider les entreprises sans programmeurs à déployer de grands modèles ? **
**Shen Dou :**C'est une très bonne question. En fait, c'est pourquoi nous avons construit la plateforme Qianfan.
La caractéristique de ce grand modèle mis en œuvre du côté B est que les grandes entreprises prennent les devants et que de nombreux clients sont des institutions financières, des institutions énergétiques, des établissements d'enseignement, etc. Ils ont une caractéristique évidente selon laquelle ils doivent être déployés en privé, mais le seuil est très élevé et ils doivent former un groupe de techniciens pour itérer le modèle, ce qui peut ralentir le temps nécessaire à l'entrée en vigueur du grand modèle.
Au contraire, comme de nombreuses petites et moyennes entreprises, vous n’exclurez probablement pas un produit SaaS (basé sur une plateforme), ni les cloud publics. La plateforme Qianfan est un tel produit. Les entreprises peuvent y appeler directement des API ou affiner des échantillons de formation pour créer leurs propres modèles avec presque aucun code. **Notre objectif de Qianfan est d'abaisser le seuil de déploiement des grands modèles et de promouvoir l'application généralisée des grands modèles. **
**Q : Il semble que vous et OpenAI ayez des chemins différents. OpenAI lance d'abord le produit côté C ChatGPT, puis lance lentement les produits côté B, tandis que Baidu fait progresser simultanément les produits côté C et côté B. Pourquoi y a-t-il cette différence ? **
**Shen Ji :**La technologie a un problème d'acceptation, et davantage d'utilisateurs doivent vraiment l'utiliser et trouver sa valeur. Tout le monde parle de maquettes, mais combien de personnes ont réellement utilisé des maquettes ? Les entreprises clientes du secteur B sont plus conscientes de l’impact potentiel du grand modèle sur l’ensemble de leur paradigme de production et doivent l’utiliser davantage.
Mais s’ils n’utilisent pas les API du cloud public et ne mettent pas en place leur propre environnement pour en faire l’expérience et l’essayer, ils ne font alors qu’imaginer des choses. Nous devons donc créer Qianfan et les laisser utiliser d'abord le grand modèle. En fait, concernant l'ouverture complète des grands modèles, la face C attend depuis longtemps, et la face B attend aussi depuis longtemps. C'est juste que la face B est plus proche de la commercialisation.
**Q : Après la libération de Wen Xinyiyan, dans quelle mesure la demande pour la face B de la plateforme Qianfan a-t-elle augmenté ? **
Shen Ji : Le jour de l'ouverture de Wenxin Yiyan, le nombre d'entreprises actives quotidiennement sur la plate-forme de modèles à grande échelle Baidu Smart Cloud Qianfan a augmenté de plus de 40 %, un peu mieux.
La relaxation fera non seulement augmenter les données du côté C, mais fera également augmenter les données du côté B. Parce que cela aidera les entreprises du segment B à réduire leurs coûts et à accélérer les itérations (Remarque : il est moins cher et plus pratique d'utiliser des modèles nationaux).
Cependant, en termes de croissance des données, la face B n’est toujours pas aussi bonne que la face C. Aujourd'hui, supposons que quelqu'un veuille utiliser "Wen Xin Yi Yan" du côté B. Au lieu d'appeler l'API, il pourrait aussi bien aller du côté C pour en faire l'expérience en premier. Lorsqu'il pensera que l'expérience est bonne, il viendra à Qianfan pour l'utiliser. Faire en sorte que la face B l’utilise nécessite un processus de développement.
**Q : Si le côté C et le côté B vont de pair, comment définissez-vous la priorité ? L’accent est-il principalement mis sur la face C ou sur la face B ? **
Shen Ji : Lorsqu'il y a un conflit de ressources, la priorité doit être définie. La caractéristique d'un grand modèle est qu'il a une couche épaisse en bas qui est universelle.Lorsque l'on recherche des applications en haut, qu'il s'agisse de To B ou de To C, Baidu doit travailler ensemble pour le faire. Il n’y a pas de conflit de ressources.
Du côté C, Baidu recherche activement des formes de produits et des modèles commerciaux capables de mettre en œuvre de grands modèles. Baidu doit reconstruire ses produits C-end sur la base de grands modèles. Par exemple, à en juger par les propres données de produits de Baidu, Baidu Netdisk, Baidu Library et d'autres produits, après une reconstruction basée sur de grands modèles, la fidélité des utilisateurs et les taux de paiement des adhésions sont très élevés. Amélioration : la nouvelle application Wenxin Yiyan et la nouvelle version de Baidu Search sont également devenues de nouvelles entrées vers des applications de grands modèles. Du côté B, Baidu Intelligent Cloud sert bien le marché To B en créant la meilleure plateforme de grands modèles.
**Q : En fait, la base la plus universelle est votre cloud computing. Que vous serviez des clients internes ou externes, c'est votre succès. **
Shen Dou : Oui, si vous servez bien les clients internes, vous servirez bien les clients externes. Si vous servez bien les clients externes, vous servirez bien les clients internes. C'est la beauté du MaaS. Sinon, en supposant que les piles technologiques externes et internes soient complètement deux ensembles, le coût sera trop élevé.
Nous marchons sur deux jambes. Baidu espère certainement créer un produit To C à succès, mais nous sommes également très disposés à aider davantage d'entreprises et de développeurs à créer de bonnes applications To C grâce au grand modèle et à la puissance de calcul sous-jacents. En fait, peu importe qui réussit, c’est le succès du modèle sous-jacent.
02 Le grand modèle lance une compétition éliminatoire brutale, et l'avenir du modèle open source est inquiétant
**Q : En plus de Wen Xinyiyan, la plateforme Qianfan a également lancé d'autres modèles. Quelle est la différence entre Qianfan et les plateformes d'agrégation de modèles comme Hugging Face ? **
Shen Dou : À l'heure actuelle ou pendant longtemps, les entreprises espèrent essayer différents modèles, que ce soit en raison de l'adaptabilité du modèle à la scène ou des besoins psychologiques des clients. De ce point de vue, nous devons également proposer des modèles tiers.
Mais tous les modèles ne valent pas la peine d’être essayés, ce qui constituerait un énorme gaspillage de ressources. Par conséquent, Qianfan a ses propres principes de dépistage et les modèles que nous proposons sont relativement excellents et faciles à utiliser.
**Q : Hugging Face se positionne donc comme une communauté et Qianfan se positionne comme une plateforme ? **
Shen Dou : C'est vrai. Qianfan résout non seulement votre problème de choix d'un modèle, mais résout également votre problème d'utilisation réelle du modèle. Son utilisation inclut une série de questions telles que les données, la formation, le réglage, l'ingénierie et la construction d'applications. Le coût et l'efficacité doivent également être pleinement pris en compte. Qianfan fournit un service à guichet unique, ce qui fait la différence entre Qianfan et Hugging Face.
Le modèle Hugging Face a une étendue suffisante et Qianfan s'appuie sur les avantages naturels des fournisseurs de cloud pour disposer d'un espace d'exploitation suffisamment grand et peut également réaliser une formation de bout en bout et une optimisation des performances d'inférence. Par exemple, l'accélération pendant le processus de formation, la détection, la localisation et la récupération rapides des pannes ; pendant le processus d'inférence, basé sur l'évolutivité de l'énorme cluster informatique hétérogène de Baidu, il a une très bonne élasticité des ressources et peut également fournir des services sans serveur, permettant aux clients de obtenez des services à faible coût. Coûts d’infrastructure, aucune opération ni maintenance requise et avantages d’évolutivité élevés. C'est là que Qianfan va plus loin que Hugging Face.
**Q : Vous ne semblez pas optimiste quant au modèle open source, mais l'open source dilue le coût de déploiement de grands modèles pour les entreprises, on ne peut donc pas dire que cela n'a aucun sens. Que pensez-vous exactement du modèle open source ? **
**Shen Dou :**À votre avis, qui supportera le coût de LLaMA (Remarque : le grand modèle open source de Facebook) ? C'est Facebook. Qui partagera le coût de Facebook ? **Si vous ne parvenez pas à comprendre le point final de ce problème, alors c'est (open source) de l'eau sans source et un arbre sans racines, et des problèmes finiront par surgir un jour. **
Parce que c'est différent des logiciels open source traditionnels : dans le passé, l'investissement d'une personne dans l'open source était le coût de son temps. Mais aujourd’hui, si l’on veut développer un grand modèle open source, le coût des machines et des données est trop élevé.
**Q : Vous pouvez utiliser l'amour pour produire de l'électricité, mais vous ne pouvez pas utiliser l'amour pour calculer. **
Shen Dou : Oui, vous devez y consacrer des dizaines de millions pour un seul cycle d'entraînement.
Un peu similaire au gameplay open source traditionnel d'aujourd'hui, c'est qu'ils utilisent tous l'open source pour attirer l'attention des utilisateurs et espèrent finalement choisir d'autres grands modèles (fermés).
**Q : Est-il possible d'avoir une relation similaire à Red Hat et IBM (Remarque : en 2018, IBM a annoncé l'acquisition de Red Hat, la plus grande société open source au monde) ? Et si de riches propriétaires d’entreprises comme IBM étaient prêts à soutenir l’open source ? De cette façon, l’open source bénéficiera d’un soutien financier et de données. **
Shen Dou : L'Open Source existera certainement pendant longtemps. Alors que les grands modèles reçoivent de plus en plus d’attention, les gouvernements et les entreprises peuvent faire des dons pour soutenir la recherche dans ce domaine et promouvoir l’éducation sur l’ensemble du marché. Mais quelle valeur cela peut-il générer au final ? Je pense qu’il est fort probable qu’il ne devienne pas courant et qu’il ne forme pas un modèle commercial complet en boucle fermée.
Le développement de logiciels traditionnels peut former une boucle fermée. Par exemple, si vous écrivez un morceau de code ou mettez à niveau une fonction, vous pouvez rapidement vous enregistrer (enregistrer) et les capacités de l'ensemble du logiciel open source seront améliorées d'une couche. Mais après la sortie de LLaMA aujourd'hui, quel que soit le nombre de personnes qui l'utilisent, il ne peut pas être enregistré. Les données, la puissance de calcul et les capacités ne peuvent pas être rétablies, et une boucle fermée ne peut pas être formée.
**Q : De nombreuses écoles open source pensent que le modèle open source a lu des milliards de paramètres. Bien qu'il ne soit pas aussi bon que le modèle fermé, il reste très utilisable. Tout comme le modèle lui-même n'a pas les niveaux de graduation 985 et 211, mais au moins c'est un niveau professionnel qui peut être utilisé pour un réglage plus précis vertical. **
Shen Ji : Le modèle de base (modèle de base) va-t-il s'améliorer ? Si le modèle de base est déjà très bon aujourd’hui et qu’il n’est pas nécessaire de le modifier, alors il n’y a pas de problème. Mais la situation actuelle est que le modèle de base ne compte que 60 points, et nous devons nous efforcer d'atteindre 90 ou 95 points.
**Q : Pourquoi devrions-nous progresser ? Le véritable sentiment de nombreuses entreprises est que GPT3.0 peut déjà résoudre le problème, alors quelle est la signification du progrès ? **
Shen Dou : C'est une très bonne question, et nous en avons également discuté en interne. Aujourd’hui, le modèle de base peut résoudre une grande partie du problème s’il atteint 60 points, mais il reste encore un grand écart entre lui et une solution parfaite. Et la nature humaine exige que si vous me laissez le résoudre en une seule fois, je ne le ferai jamais en deux fois.
Aujourd’hui, sur la base de seulement 60 points du Foundation Model, vous avez entraîné 85 points. Après cela, le Foundation Model a atteint 85 points, pouvez-vous obtenir 95 points ? Il n’y a aucune limite à ce que les gens peuvent poursuivre à cet égard.
Cette limite doit continuer à être tirée vers le haut. Prenons l'exemple de la recherche : les recherches effectuées il y a plus de 20 ans peuvent être utilisées. Alors, qu'a fait Google au cours des 20 dernières années ? On dirait que vous avez terminé, mais ce n'est pas le cas.
**Q : Que pensez-vous du prochain paysage concurrentiel des grands modèles ? **
Shen Dou : Il existe de nombreux modèles sur le marché aujourd'hui, mais je pense que beaucoup d'entre eux disparaîtront rapidement.
La raison pour laquelle de nombreux modèles existent encore aujourd’hui est que beaucoup de gens ne savent toujours pas à quel point ils sont bons ou mauvais. Quoi qu'il en soit, personne ne peut l'essayer, personne ne peut l'utiliser, et il se classe assez bien lors du premier test. Mais à mesure que le modèle se libéralise, les avantages et les inconvénients deviennent plus faciles à juger. Aujourd'hui, pour ceux qui réalisent de grands modèles, si vous leur posez 30 millions de questions et essayez de les saisir, la plupart d'entre elles échoueront probablement.
Cela conduira à une concentration progressive du trafic, permettant aux modèles principaux de réaliser plus facilement des économies d'échelle, amortissant ainsi davantage le coût de développement du modèle. L’écart va encore se creuser.
**Q : Quand commenceront les huitièmes de finale ? **
Shen Ji : C'est difficile à dire, après tout, cela peut prendre un certain temps avant que tout le monde collecte des fonds. Pour les grandes entreprises, le brûlage reste abordable, mais cela dépend aussi de la valeur du brûlage. De toute façon, certaines entreprises ont de nombreux scénarios d'application, elles ne les laisseront donc certainement pas ajuster les API de grands modèles d'autres personnes pour le moment, elles créeront donc certainement leur propre modèle. Mieux, presque (ce n’est pas grave), au moins on n’a pas besoin de s’appuyer sur le monde extérieur. Les grandes entreprises continueront à fabriquer des modèles pendant un certain temps.
03 Le grand modèle fait évoluer les services de cloud computing vers la « standardisation », et Baidu Cloud gagne enfin de l'argent
**Q : Les grands modèles deviendront-ils la base de toutes les applications à l'avenir ? Cela créera-t-il un écosystème de développement et d’applications complètement différent ? **
Shen Ji : Il ne fait aucun doute que le grand modèle deviendra une nouvelle ère de système d'exploitation et deviendra la base de nombreuses applications.
Depuis longtemps, les gens utilisent le langage comme instruction lorsqu’ils traitent avec des personnes et des machines. Mais dans le passé, les machines ne comprenaient pas le langage naturel, nous avons donc écrit un ensemble de langages de programmation pour qu'elles puissent le comprendre. Maintenant que les grands modèles comprennent le langage naturel, l’ensemble du paradigme de développement d’applications a fondamentalement changé. Le développement est davantage motivé par la créativité que par la capacité à coder.
De plus, les grands modèles ont également la possibilité de connecter des systèmes entre eux. À l'image de l'émergence des plug-ins, c'est-à-dire des composants qui complètent indépendamment une certaine capacité et attendent d'être appelés, le grand modèle peut combiner des plug-ins pour accomplir une tâche spécifique. Cela modifiera encore davantage le paradigme du développement.
**Q : Si le grand modèle peut résoudre les problèmes grâce à tous les plug-ins, cette interconnexion est-elle déguisée ? **
**Shen Dou :**En fait, toujours pas. En effet, ces APP existent désormais sur le même téléphone mobile et dans la même application, mais elles ne sont toujours pas interconnectées. À l'avenir, Meituan et Didi rejoindront la grande base de modèles, mais ils ne seront toujours pas interopérables.
**Q : Le problème sous-jacent n'a pas été résolu. **
Shen Dou : Oui, l'interconnexion doit faire référence à l'ouverture des données. Je peux accéder à vos données et vous pouvez accéder à mes données. Mais dans le cadre de la grande base de modèles, nous sommes uniquement disposés à parler au hub, mais nos plug-ins ne se parlent pas.
**Q : Cette situation de non-interconnexion empêchera-t-elle les développeurs de mettre en œuvre en douceur la planification entre ressources ? Serait-ce là un défaut du modèle écologique de développement à grande échelle de la Chine ? **
**Shen Ji :**Je pense que la raison principale est que nous n'avons pas lâché prise et que l'ampleur du trafic n'a pas augmenté. Par exemple, Wen Xinyiyan a soudainement eu plus de 30 millions de trafic. Le développeur a calculé que peut-être 1 % lui appartenait, ce qui signifie qu'il y avait 300 000 visites, et il déciderait de le faire.
**Q : À l'ère des grands modèles, comment Baidu Cloud définit-il sa position dans l'écosystème ? Comment est réparti le mécanisme de prestations ? **
Shen Dou : Il est absolument impossible que Baidu seul fasse cela. Ce n’est pas que j’ai peur de ne pas pouvoir le faire, c’est que je n’y arriverai absolument pas.
Tout d’abord, les plug-ins auront certainement un écosystème très prospère, et ils se compléteront avec de grands modèles. Le plug-in doit obtenir du trafic du grand modèle, et le grand modèle a besoin de la prise en charge de la capacité du plug-in. Tout comme aujourd'hui, s'il n'y a pas de WeChat ou de Douyin sur le téléphone mobile, les utilisateurs ne peuvent pas l'utiliser.
Deuxièmement, en termes d'applications pour les clients finaux, qu'il s'agisse de déploiement de cloud privé ou de solutions au niveau plateforme comme Qianfan, il est finalement nécessaire que les partenaires écologiques résolvent le problème de livraison du dernier kilomètre, comme Kingdee, UFIDA, iSoftStone, etc. Ils ont des clients et des processus commerciaux particulièrement familiers, et les exigences finales y seront intégrées.
En résumé, le premier est l'agrégation des capacités pour développer l'écologie, le deuxième ce sont les partenaires qui aident à fournir les grands modèles et le troisième ce sont les clients qui utilisent les grands modèles pour renforcer leurs propres services. Ce sont tous des éléments écologiques.
**Q : Quels changements le paradigme technologique des grands modèles a-t-il apporté au cloud computing ? **
**Shen Dou :**La tendance du développement technologique est de plus en plus avancée. En d’autres termes, nous nous éloignons de plus en plus de la couche inférieure, il y a de moins en moins besoin de prêter attention aux détails, les emballages s’améliorent de plus en plus et il y a un grand nombre de personnes qui font ce travail dans les coulisses. . C’est aussi la valeur de la contribution du cloud.
La valeur apportée par les premiers CPU Cloud est que les clients n'ont pas besoin d'acheter leurs propres machines et de les regrouper avec des cartes une par une. Il est de mieux en mieux emballé et peut être utilisé directement dessus. Avec l'avènement de l'ère des grands modèles, le GPU « puce d'accélération AI » est progressivement devenu le centre de la puissance de calcul, et le taux de croissance de la puissance de calcul dépasse de loin celui du CPU. Cela accélérera notre passage du cloud CPU au cloud GPU.
À l'ère du cloud GPU, nous finirons par encapsuler davantage les capacités du cloud afin que la couche sous-jacente ne soit pas exposée, formant une forme d'interaction plus avancée et se connectant directement à l'API des grands modèles. Le Cloud d'aujourd'hui est encore développé pour les ingénieurs et les formes d'interaction ne sont pas assez approfondies.Mais à l'avenir, il y aura moins d'ingénieurs en bas de l'échelle et davantage de personnes passeront aux niveaux supérieurs. Il s’agit d’un changement radical.
Baidu Smart Cloud | Source de l’image : Visual China
**Q : Les grands modèles vont-ils remodeler le paysage du marché du cloud computing ? Si oui, quand verrons-nous le signal ? **
Shen Dou : J'aime cette question. S'il n'y a pas de grand modèle, le cloud de Baidu sera très difficile. Nous avons déjà crié "au plus profond de l'industrie, se concentrer sur la scène, intégrer le cloud et l'intelligence, et inclure l'IA". Ce que Baidu Smart Cloud veut faire, c'est mettre l'IA dans l'ensemble du service To B et en faire un point de croissance.
**Mais dans le passé, l’IA traditionnelle était très fragmentée. Il doit générer une capacité pour résoudre un problème, puis résoudre ce problème, sa polyvalence est donc relativement faible. Il en résulte qu’il s’agit d’un système de projet difficile à mettre à l’échelle et dont le bénéfice brut est faible. **
Après la sortie de l'IA générative, nous avons constaté qu'elle est très polyvalente et peut résoudre de nombreux problèmes à la fois. Elle est fondamentalement unifiée depuis la couche d'application vers le bas. Même si elle nécessite des réglages fins ou des plug-ins, il s'agit d'une action standardisée. Ceci est complètement différent des précédentes applications d’IA très fragmentées. Il s’agit en soi d’un énorme changement dans le secteur du cloud, et ce que l’on appelle l’IaaS est devenu le MaaS.
**Q : Dans le passé, les entreprises d'IA en Chine devaient toujours décrocher des projets, ce qui était très difficile. Il est impossible de résoudre les problèmes avec des produits standardisés comme c’est le cas actuellement. **
Shen Ji : Nous avons discuté de la stratégie cloud avec Robin (Remarque : le fondateur, président et PDG de Baidu, Robin Li), et il nous a également demandé de standardiser et d'évoluer, sinon nous ne serions pas en mesure de refléter Baidu en tant qu'entreprise technologique. valeur.
**Q : L'avenir à long terme sera donc une question de normalisation et d'échelle ? **
**Shen Dou :**Les grands modèles connaissaient une grande incertitude au début. Aujourd'hui, de nombreux clients n'ont pas encore une compréhension unifiée des limites de capacité, des limites, des coûts, des méthodes de livraison et de demande des grands modèles. Dans un court laps de temps, nous ne pouvons pas garantir que tous les clients accèderont au cloud public, nous devons d'abord le faire via un système de projet.
Mais même un tel système de projet est différent du système de projet précédent. Par exemple, si je vous donne un modèle de déploiement privé, il ressemble plus à Windows ou à Office : d'abord la version 95, puis la version 97, puis la version 2000. Vous devez constamment mettre à niveau. On dirait que je vous ai donné un CD à installer chez vous, mais en fait il faut continuer à vous abonner. Ce n'est pas la même chose que la version originale.
**Q : Mais vos finances se sont améliorées. Au premier trimestre de cette année, Baidu Smart Cloud a atteint pour la première fois une rentabilité trimestrielle, en raison, comme vous l'avez mentionné, de la standardisation des services cloud, qui a permis une réutilisation à grande échelle et une réduction des coûts. **
Shen Ji : Oui. Dans le cas d'un système de projet pur ou d'une proportion relativement élevée de système de projet, le bénéfice brut après livraison est trop faible.
04 Après avoir pris en charge Baidu Cloud pendant plus d'un an, nous avons la meilleure opportunité
**Q : En tant que membre de la plus haute équipe décisionnelle de Baidu, quels sont les problèmes qui vous préoccupent le plus et qui vous inquiètent le plus ? De quels sujets discutez-vous fréquemment avec votre équipe ? **
**Shen Dou : En termes de forme de produit, Robin exige que tous les produits soient reconstruits à l'aide de la pensée native de l'IA. C'est une refactorisation, pas un accès. **
Techniquement, nous réfléchissons à jusqu’où les capacités de l’IA générative actuelle peuvent aller. Les résultats actuels de l'évaluation de Wen Xinyiyan ne sont pas mauvais, mais ils sont loin de la limite supérieure du langage humain ou d'une excellente compréhension du langage humain. Comment pouvons-nous continuer à améliorer rapidement cette capacité est certainement la première question à laquelle nous réfléchissons.
Ensuite, en termes d'applications industrielles, comment le modèle peut-il être utilisé, dans quels scénarios peut-il être utilisé, quel est le seuil d'utilisation, quelle est la largeur de la frontière, comment son efficacité peut-elle être améliorée et comment peut-il inspirer chacun doit réfléchir à un meilleur usage... C'est une chose à laquelle nous devons continuer à réfléchir.
**Q : Ce sont des couches relativement douces. Qu'en est-il des couches plus dures ? **
Shen Ji : Désormais, les clusters de puissance de calcul vont de 10 000 à 10 000 cartes. Baidu est la seule entreprise en Chine capable d'exécuter une seule tâche au niveau de 10 000 cartes.
Dans le cadre du cluster Wanka, les véritables tâches sous-jacentes d’organisation, d’efficacité et de sécurité sont invisibles pour tous, mais elles sont extrêmement importantes. Par exemple, nous devons améliorer l'efficacité de la formation et de l'inférence du matériel sous-jacent ainsi que l'intégration des logiciels et du matériel. Ce sont toutes des choses assez cruciales.
**Q : Vous êtes responsable des activités de recherche et de publicité chez Baidu depuis de nombreuses années. Ce n'est que l'année dernière que vous avez pris en charge le cloud intelligent. Vous avez immédiatement découvert l'opportunité historique des grands modèles. Vous sentez-vous chanceux ? Comment vous sentez-vous? **
Shen Ji : Ce n'est pas si exagéré, mais je suis vraiment excité et chanceux de pouvoir faire une telle chose.
Lorsque j’ai pris mes fonctions l’année dernière, j’ai eu l’idée de faire évoluer et de standardiser les services cloud. Mais comme les capacités de l’IA sont très fragmentées, il est très difficile d’y parvenir. ** À cette époque, je réfléchissais sérieusement : existe-t-il quelque chose qui nécessite à la fois des capacités d'IA et une puissance de calcul d'IA, et qui peut être utilisé par de nombreuses personnes en même temps ? Je ne l'ai pas trouvé après une longue recherche. **
Puis, le grand modèle est apparu. Cela m’a paru bien tout de suite.
Shen Dou, vice-président exécutif du groupe Baidu et président du Baidu Intelligent Cloud Group (ACG) | Source de l'image : Baidu
**Q : Vous avez personnellement étudié l'intelligence artificielle. Les grands modèles vous conviennent-ils mieux ? **
Shen Dou : C'est très similaire à ce que j'ai fait en tant qu'étudiant diplômé. Bien que j'ai toujours étudié l'informatique, je travaille davantage sur les logiciels et j'ai travaillé sur l'intelligence artificielle.
Après avoir reçu le cloud (matériel de niveau inférieur) à ce moment-là, j'ai vraiment relu les livres sur le système d'exploitation et les principes de composition informatique. S'il s'agit vraiment de l'IaaS, des composants réseau et du stockage informatique à l'ère du CPU, je pense que c'est encore un peu difficile.
Mais après la sortie du grand modèle, j'ai découvert que ces choses étaient encapsulées ci-dessous.Maintenant, j'étudie principalement le grand modèle, comme lire des articles, utiliser Python pour appeler l'API sur Qianfan, etc. Je me sens beaucoup plus facile.
**Q : Ensuite, quelles sont vos attentes concernant le développement et le taux de croissance de Baidu Smart Cloud ? **
**Shen Dou :**Baidu Smart Cloud coûte désormais près de 20 milliards de yuans, ce qui est encore relativement faible. Avec le soutien des grands modèles, la demande de nos clients est devenue très forte, et maintenant nous sommes débordés. Cependant, il reste encore un processus à suivre pour permettre réellement aux utilisateurs de l'utiliser et de le fournir correctement.
**Q : Y aura-t-il une petite épidémie au quatrième trimestre ? **
**Shen Dou :**Certaines personnes estiment que le quatrième trimestre va exploser. La demande a effectivement commencé à reprendre, mais je pense qu’elle pourrait ne pas exploser avant l’année prochaine.
**Q : Comment évalueriez-vous votre propre chance ? **
Shen Dou : Je pense que c'est la chance de Baidu. Baidu travaille dans l'IA depuis tant d'années et a déployé tant d'efforts. Si le grand modèle n'arrive pas, le chemin de la commercialisation du cloud est en effet plus difficile et plus difficile. Cela montre simplement que les entreprises ayant Vision n’auront finalement pas trop de chance.