Vào giờ thứ 24 sau khi "Wen Xin Yi Yan" được phát hành, Shen Dou đi vào phần phụ trợ để xem số liệu và phát hiện Wen Xin Yi Yan đã trả lời "33,42 triệu" câu hỏi từ người dùng, con số này vượt quá sự mong đợi của anh.
Hai ngày sau, khi Thẩm Đậu ngồi cùng mấy người làm truyền thông, trong đó có tôi, nói về sự việc, anh ấy nói: “Ban đầu chúng tôi nghĩ rằng sẽ có ít người xem hơn, nhưng không ngờ rằng sự nhiệt tình của người dùng đã tăng lên.” không giảm đi."
Vào tháng 9, khi cơn sốt người mẫu lớn ở Trung Quốc kéo dài được nửa năm, những người bình thường cuối cùng cũng có cơ hội bắt đầu.
Bắt đầu từ ngày 31/8, một số mẫu xe lớn, trong đó có "Wen Xin Yi Yan" đã được đăng ký và chính thức mở cửa đón công chúng. Tin tức này không chỉ khiến người dùng hào hứng dùng thử mà còn gây ra phản ứng nhiệt tình từ các công ty. ** Shen Dou cho biết, vào ngày Wenxinyiyan được khai trương, số lượng doanh nghiệp hoạt động hàng ngày trên nền tảng mô hình lớn Baidu Smart Cloud Qianfan đã tăng hơn 40%. ---Sau này là một nền tảng quản lý và phát triển mô hình lớn do Baidu đưa ra dành cho các doanh nghiệp. **
Trong thời đại của các mô hình lớn, Baidu hy vọng sẽ thúc đẩy việc sử dụng các mô hình lớn của các cá nhân và doanh nghiệp trên cùng một dòng thời gian. Từ góc độ vĩ mô, điều này có lợi cho việc phổ biến công nghệ tiên tiến của các mô hình lớn. Từ góc độ công ty, điều này giúp Baidu thực hiện công việc kinh doanh của riêng mình. Mặc dù giá trị thương mại của người dùng bên C không rõ ràng ngay lập tức, nhưng giá trị thương mại của khách hàng bên B được phản ánh trực tiếp trong phí lập lịch API mô hình và doanh thu điện toán đám mây.
Vào tháng 5 năm ngoái, Shen Dou, người đã phụ trách Hệ sinh thái di động Baidu (MEG) trong nhiều năm, đã được giao phó vị trí chủ tịch quan trọng của Tập đoàn kinh doanh đám mây thông minh Baidu (ACG). Kỳ vọng của tập đoàn đối với anh là nắm bắt các cơ hội của kỷ nguyên AIGC và xây dựng đám mây thông minh vào đường cong tăng trưởng thứ hai của Baidu.
Nhưng tình thế Thẩm Ji gặp phải lại rất khó khăn. Baidu không phải là nhà cung cấp điện toán đám mây lớn nhất ở Trung Quốc nhưng lại đứng đầu về đám mây công cộng về các dịch vụ liên quan đến AI. Vào thời điểm đó, Shen Dou cũng hy vọng có thể sử dụng AI để thúc đẩy sự phát triển của toàn bộ dịch vụ đám mây, nhưng đáng tiếc là khả năng AI vào thời điểm đó quá “phân mảnh” và không thể thoát khỏi tình trạng chi phí dịch vụ cao như hiện nay. khó khăn trong việc mở rộng quy mô và lợi nhuận ít ỏi.
Nhưng vài tháng sau, kỷ nguyên của người mẫu lớn đã đến. Từ góc độ bối cảnh cạnh tranh, các dịch vụ đám mây cơ bản dựa trên IaaS (Cơ sở hạ tầng là dịch vụ) và PaaS (Nền tảng là dịch vụ) trước đây đang được chuyển sang dịch vụ đám mây MaaS (Mô hình là dịch vụ) dựa trên AI. Shen Dou tin rằng đây là cơ hội để Baidu Smart Cloud "vượt mặt trong các góc cua".
Từ góc độ doanh thu, khả năng đa năng của các mô hình lớn cho phép dịch vụ đám mây được tiêu chuẩn hóa hơn, để chúng có thể được tái sử dụng trên quy mô lớn trong các tình huống khác nhau, giảm chi phí dịch vụ và tăng lợi nhuận. Chính vì lý do này mà ban lãnh đạo của Baidu đã nói với các nhà đầu tư trong cuộc gọi hội nghị thu nhập vào quý 2 năm 2023 rằng AI và các mô hình lớn sẽ cho phép Baidu Smart Cloud đạt được tỷ suất lợi nhuận cao hơn.
**Sau đây là toàn văn cuộc trò chuyện của chúng tôi với Shen Dou, do Geek Park tổ chức. **
Nguồn hình ảnh: Được tạo bởi AI không giới hạn
01 Wenxin Yiyan ở phía C và nền tảng Qianfan ở phía B, một sân khấu thành công với cả hai phía
**Q: Sau khi xem xong trò vui, đã đến lúc thực sự làm điều gì đó thiết thực. Hai ngày trước, Baidu đã mở Wen Xinyiyan ở phía C. Bạn nghĩ gì về dữ liệu sử dụng của người dùng này? Dự kiến hay bất ngờ? Khả năng vận hành và bảo trì của nền là gì? **
Shen Dou: Tôi gửi dữ liệu cho nhóm vào lúc 12:30 tối hôm đó và các đồng nghiệp của tôi đã công bố dữ liệu vào ngày hôm sau. Dữ liệu được tôi chặn từ hệ thống và đưa ra thế giới bên ngoài một cách nguyên vẹn, hoàn toàn là sự thật.
Chúng tôi cũng cảm thấy có ít người “xem náo nhiệt” hơn nên kỳ vọng của chúng tôi cũng không cao. Thật bất ngờ, ngày hôm đó có 33,42 triệu phản hồi, điều này cho thấy người dùng vẫn đặt nhiều kỳ vọng vào Wenxin Yiyan. Mọi người không tiến lên đặt câu hỏi, cũng không rời đi sau vài câu mà trải qua nhiều vòng đối thoại. Từ góc độ này, sự nhiệt tình của người dùng vẫn còn đó.
Wen Xinyiyan đã thử nghiệm nội bộ được năm hoặc sáu tháng kể từ ngày 16 tháng 3, điều này giúp chúng tôi có nhiều thời gian chuẩn bị, cả về mặt cải thiện hiệu quả và giảm chi phí. Ví dụ: tốc độ suy luận của mô hình lớn Wenxin đã tăng hơn 30 lần so với ban đầu, điều này đã giảm đáng kể chi phí suy luận và cho phép chúng tôi xử lý số lượng lớn người dùng như vậy.
**Q: Vậy tiến bộ công nghệ của các mô hình lớn của Baidu trong giai đoạn này cũng bao gồm cả tiến bộ về chi phí? **
Shen Ji: Đúng vậy, bản thân mô hình lớn là một mô hình kỹ thuật sử dụng nhiều tài nguyên.
Ban đầu chúng tôi không ngờ lưu lượng truy cập lại lớn như vậy, bản thân tài nguyên máy (sức mạnh tính toán) đã rất quý giá, chúng tôi cảm thấy đặt quá nhiều máy sẽ lãng phí nên không đặt thêm quá nhiều máy. Sau khi quy mô người dùng tăng lên vào ngày hôm đó, may mắn thay, hiệu suất suy luận của chúng tôi được cải thiện nên chúng tôi vẫn cung cấp dịch vụ ổn định cho người dùng.
Chúng tôi cũng có trong tay một nguồn dự trữ sức mạnh tính toán tốt và chúng tôi sẽ tiếp tục giảm chi phí đào tạo và lý luận trong tương lai để không gặp vấn đề gì trong việc đáp ứng nhu cầu của người dùng. Vào thời điểm đó, chúng tôi đã thảo luận trong nhóm nội bộ của mình xem liệu giao thông có thể bị cản trở hay không. Tôi nói rằng làm cho giao thông trở nên bạo lực hơn là tất cả những rắc rối của hạnh phúc.
**Q: Việc phát hành Wenxin Yiyan ở phía C mang lại lợi ích gì cho Baidu? **
Shen Dou: Điều bạn có thể lo lắng là liệu việc mở cửa sang bên C có bền vững hay không nếu không mang lại giá trị thương mại.
Trên thực tế, chỉ cần giá trị thực sự được tạo ra cho người dùng thì việc thương mại hóa chỉ là vấn đề thời gian. Trong lịch sử phát triển công nghệ, có rất ít ví dụ có giá trị nhưng khó thực hiện. Wen Xinyiyan quả thực đã mang lại giá trị thực sự cho người dùng C. Hôm qua tôi thấy một số bình luận nói rằng nếu không có Wenxinyiyan, hiệu quả làm việc tại văn phòng của anh ấy sẽ giảm sút. Vì vậy, chỉ cần nó có giá trị thì việc thương mại hóa Wen Xinyiyan trong tương lai sẽ diễn ra theo đúng lộ trình.
**Hỏi: Mẫu sản phẩm C-end của China Big Model có phù hợp với ChatGPT không? Đây có phải là phí đăng ký không? **
Shen Ji: Còn quá sớm để nói về hình thức sản phẩm của một mô hình lớn và định nghĩa về nó vẫn chưa quá rõ ràng.
Khi Internet di động ra đời, chúng ta có thể sử dụng một số từ khóa để làm rõ định nghĩa của nó, chẳng hạn như SoLoMo (Xã hội, Địa phương, Di động, sử dụng mạng xã hội, dịch vụ định vị địa lý và thiết bị đầu cuối di động để cung cấp trải nghiệm người dùng tốt hơn). Nhưng bây giờ mô hình lớn không thể được định nghĩa bằng một vài từ rõ ràng. Khả năng của nó mạnh mẽ hơn, nhưng ranh giới của nó cũng rộng hơn và còn lâu mới hội tụ được về hình thức sản phẩm.
OpenAI là một công ty định hướng công nghệ và trải nghiệm người dùng thực sự không phải là điểm mạnh của nó. Hình thức sản phẩm mà nó thiết kế ngày nay vẫn còn ở giai đoạn đầu, tiếp theo là tốc độ lặp lại của sản phẩm sẽ rất nhanh và hình thức sẽ thay đổi mạnh mẽ.
**Hỏi: Mô hình kinh doanh thu phí đăng ký từ người dùng C-end của ChatGPT có khả thi ở Trung Quốc không? **
Shen Ji: Chúng tôi có thể phát triển các phương thức kiếm tiền mới, chẳng hạn như ba phương thức kiếm tiền phổ biến là quảng cáo, thương mại điện tử và trò chơi.
Nếu bạn sẵn sàng chi 2.000 nhân dân tệ mỗi tháng để thuê một trợ lý, thì khi AI có thể làm được 1/10 nhiệm vụ của trợ lý, chẳng hạn như giúp bạn lập hành trình du lịch, đặt vé máy bay, khách sạn, thậm chí huy động taxi và phần mềm giao đồ ăn. , bạn có sẵn sàng chi hai trăm nhân dân tệ không? Chỉ là phương thức hiện thực hóa không nhất thiết phải là phí thành viên, nó có thể là hoa hồng giao dịch hoặc các phương thức khác.
Ví dụ khác, một loạt nhân vật NPC trong trò chơi được điều khiển bởi AI tổng quát và việc phát sóng trực tiếp "con người kỹ thuật số" trong lĩnh vực thương mại điện tử cũng được hỗ trợ bởi AI tổng quát, điều này có thể dẫn đến các phương thức kiếm tiền khác nhau. Cuối cùng, hình thức sản phẩm của bên C quyết định phương thức kiếm tiền của nó.
**Hỏi: Nếu sản phẩm C-end cuối cùng là một công cụ năng suất, liệu công ty có thể trả tiền cho cá nhân thay vì cá nhân không? **
**Thẩm Ji:**Có thể. Ví dụ: Baidu Netdisk cũng có thể được coi là một công cụ hiệu quả và nhiều công ty sẽ mua tài khoản Netdisk để nhân viên của họ sử dụng. Chúng tôi cũng đã liên hệ với các công ty và cấp cho mỗi nhân viên một tài khoản Copilot để viết chương trình. Đây đều là những trường hợp công ty trả tiền cho cá nhân.
Giao diện "Wen Xin Yi Yan"
**Q: Là một công ty nội dung, chúng tôi cũng đặc biệt mong muốn sử dụng các mô hình lớn để sản xuất bài viết. Bạn vừa ra mắt nền tảng dịch vụ mô hình lớn "Qianfan" của To B. Bối cảnh ra mắt "Qianfan" là gì? Làm cách nào chúng tôi có thể giúp các công ty không có lập trình viên triển khai các mô hình lớn? **
**Thẩm Đậu:**Đây là một câu hỏi rất hay. Trên thực tế, đó là lý do tại sao chúng tôi xây dựng nền tảng Qianfan.
Đặc điểm của mô hình lớn đang triển khai bên B này là các công ty lớn đi đầu, nhiều khách hàng là các tổ chức tài chính, năng lượng, giáo dục… Họ có một đặc điểm rõ ràng là cần phải triển khai riêng tư, nhưng ngưỡng rất cao và họ phải đào tạo một loạt kỹ thuật viên để lặp lại mô hình, điều này có thể làm chậm thời gian để mô hình lớn phát huy tác dụng.
Ngược lại, giống như nhiều công ty vừa và nhỏ, rất có thể bạn sẽ không loại trừ sản phẩm SaaS (dựa trên nền tảng), cũng như sẽ không loại trừ các đám mây công cộng. Nền tảng Qianfan là một sản phẩm như vậy. Doanh nghiệp có thể gọi trực tiếp các API trên đó hoặc tinh chỉnh các mẫu đào tạo để tạo ra mô hình của riêng mình mà hầu như không cần mã. **Mục đích của Qianfan của chúng tôi là hạ thấp ngưỡng triển khai của các mô hình lớn và thúc đẩy việc áp dụng rộng rãi các mô hình lớn. **
**Q: Có vẻ như bạn và OpenAI có những con đường khác nhau. OpenAI lần đầu tiên ra mắt sản phẩm bên C ChatGPT, sau đó từ từ ra mắt các sản phẩm bên B, trong khi Baidu phát triển đồng thời cả sản phẩm bên C và bên B. Tại sao có sự khác biệt này? **
**Shen Dou: **Công nghệ đều có vấn đề về khả năng chấp nhận và nhiều người dùng thực sự phải sử dụng nó hơn và tìm ra giá trị của nó. Mọi người đều nói về những mô hình lớn, nhưng có bao nhiêu người đã thực sự sử dụng những mô hình lớn? Khách hàng doanh nghiệp bên B nhận thức rõ hơn về tác động tiềm tàng của các mô hình lớn đối với toàn bộ mô hình sản xuất của họ và họ cần sử dụng chúng nhiều hơn.
Nhưng nếu họ không sử dụng public cloud API cũng như không thiết lập môi trường riêng để trải nghiệm và dùng thử thì đơn giản là họ chỉ đang tưởng tượng ra mọi thứ ở đó mà thôi. Vì vậy chúng ta cần tạo ra Qianfan và để họ sử dụng mô hình lớn trước. Trên thực tế, liên quan đến việc mở bán hoàn toàn các mẫu xe lớn, bên C đã chờ đợi rất lâu, bên B cũng đã chờ đợi rất lâu. Chỉ là bên B gần với việc thương mại hóa hơn thôi.
**Q: Sau khi Wen Xinyiyan được phát hành, nhu cầu về mặt B của Nền tảng Qianfan đã tăng lên bao nhiêu? **
Shen Dou: Vào ngày Wen Xinyiyan khai trương, trên nền tảng mô hình lớn Baidu Intelligence Cloud Qianfan, số lượng doanh nghiệp hoạt động hàng ngày đã tăng hơn 40%.Xét rằng tốc độ phản hồi của TO B thường bị tụt lại phía sau, thực tế tình hình sẽ tốt hơn một chút.
Sự thư giãn sẽ không chỉ thúc đẩy dữ liệu ở phía C mà còn thúc đẩy dữ liệu ở phía B. Bởi vì điều này sẽ giúp các công ty B-side giảm chi phí và tăng tốc độ lặp lại (lưu ý: sử dụng mô hình trong nước sẽ rẻ hơn và tiện lợi hơn).
Tuy nhiên, xét về tốc độ tăng trưởng dữ liệu, bên B vẫn không bằng bên C. Ngày nay, giả sử ai đó muốn sử dụng "Wen Xin Yi Yan" ở bên B. Thay vì gọi API, anh ta có thể đến bên C để trải nghiệm trước. Khi hắn cho rằng kinh nghiệm tốt, hắn sẽ dùng nó đối với Thiên Phàm. Để sử dụng được mặt B đòi hỏi phải có một quá trình trau dồi.
**Q: Nếu bên C và bên B song hành với nhau thì bạn đặt mức độ ưu tiên như thế nào? Trọng tâm chủ yếu ở bên C hay bên B? **
Shen Shake: Chỉ cần đặt mức độ ưu tiên khi có xung đột tài nguyên. Đặc điểm của mô hình lớn là có lớp dày ở dưới mang tính phổ quát, khi tìm ứng dụng ở trên, dù là To B hay To C thì Baidu đều phải phối hợp với nhau mới làm được. Không có xung đột tài nguyên.
Về phía C, Baidu đang tích cực nghiên cứu các dạng sản phẩm và mô hình kinh doanh có thể triển khai các mô hình lớn. Baidu cần tái cấu trúc các sản phẩm C-end của riêng mình dựa trên mô hình lớn. Ví dụ: từ dữ liệu sản phẩm của chính Baidu, Baidu Netdisk, Thư viện Baidu và các sản phẩm khác, sau khi tái thiết dựa trên mô hình lớn, mức độ gắn bó của người dùng và tỷ lệ thanh toán của thành viên rất cao Cải tiến, ứng dụng Wenxin Yiyan mới được tạo và Tìm kiếm Baidu được xây dựng lại cũng đã trở thành lối vào mới cho các ứng dụng mô hình lớn. Về phía B, Đám mây thông minh Baidu phục vụ tốt thị trường To B bằng cách tạo ra nền tảng mô hình lớn tốt nhất.
**Q: Trên thực tế, nền tảng phổ biến nhất là điện toán đám mây của bạn. Dù bạn phục vụ khách hàng nội bộ hay khách hàng bên ngoài thì đó chính là thành công của bạn. **
**Shen Ji:**Đúng vậy, nếu bạn phục vụ tốt khách hàng nội bộ, bạn có thể phục vụ tốt khách hàng bên ngoài và nếu bạn phục vụ tốt khách hàng bên ngoài, bạn có thể phục vụ tốt khách hàng nội bộ. Đây là vẻ đẹp của MaaS. Nếu không, giả sử rằng ngăn xếp công nghệ bên ngoài và bên trong hoàn toàn là hai bộ thì chi phí sẽ quá cao.
Chúng tôi đi bằng hai chân. Baidu chắc chắn hy vọng sẽ tạo ra một sản phẩm To C bom tấn, nhưng chúng tôi cũng rất sẵn lòng hỗ trợ nhiều công ty và nhà phát triển hơn để tạo ra các ứng dụng To C tốt thông qua mô hình lớn và sức mạnh tính toán cơ bản. Trên thực tế, dù ai thành công ở trên thì đó cũng là thành công của mô hình lớn cơ bản.
02 Mô hình lớn bắt đầu cuộc cạnh tranh loại trực tiếp khốc liệt và tương lai của mô hình nguồn mở thật đáng lo ngại
**Q: Ngoài Wenxin Yiyan, nền tảng Qianfan cũng đã ra mắt các mẫu khác. Sự khác biệt giữa Qianfan và nền tảng tổng hợp mô hình như Ôm Mặt là gì? **
Shen Dou: Hiện tại hoặc trong thời gian dài, các công ty hy vọng sẽ thử nghiệm các mô hình khác nhau, có thể là do khả năng thích ứng với bối cảnh của mô hình hay nhu cầu tâm lý của khách hàng. Từ góc độ này, chúng tôi cũng cần cung cấp các mô hình của bên thứ ba.
Nhưng không phải mô hình nào cũng đáng thử và điều đó sẽ gây lãng phí tài nguyên rất lớn. Vì vậy, Qianfan có những nguyên tắc sàng lọc riêng và tất cả các mô hình chúng tôi đưa ra đều là những mô hình tương đối xuất sắc và dễ sử dụng.
**Q: Vậy Ôm Mặt được định vị là một cộng đồng, còn Qianfan được định vị là một nền tảng? **
Thẩm Ji: Đúng vậy. Qianfan không chỉ giải quyết vấn đề chọn mô hình của bạn mà còn giải quyết vấn đề thực tế sử dụng mô hình của bạn. Việc sử dụng nó cũng bao gồm một loạt vấn đề như dữ liệu, đào tạo, điều chỉnh, kỹ thuật và xây dựng ứng dụng, đồng thời xem xét đầy đủ chi phí và hiệu quả. Qianfan cung cấp dịch vụ một cửa, đó là điểm khác biệt giữa Qianfan và Ôm Mặt.
Mô hình Ôm Mặt có đủ chiều rộng và Qianfan dựa vào lợi thế tự nhiên của các nhà cung cấp đám mây để có không gian hoạt động đủ lớn và cũng có thể đạt được tối ưu hóa hiệu suất suy luận và đào tạo từ đầu đến cuối. Ví dụ: tăng tốc trong quá trình đào tạo, cảm biến lỗi, định vị và phục hồi nhanh chóng; trong quá trình suy luận, dựa trên khả năng mở rộng của cụm điện toán không đồng nhất khổng lồ của Baidu, nó có độ đàn hồi tài nguyên rất tốt và cũng có thể cung cấp các dịch vụ không có máy chủ, cho phép khách hàng có được các dịch vụ với chi phí thấp Chi phí cơ sở hạ tầng, không cần vận hành và bảo trì và lợi ích về khả năng mở rộng cao. Đây là điểm mà Qianfan đi sâu hơn Ôm Mặt.
Nền tảng mô hình quy mô lớn Baidu Smart Cloud Qianfan | Nguồn hình ảnh: Trang web chính thức của Baidu Smart Cloud
**Q: Bạn có vẻ không lạc quan về mô hình nguồn mở, nhưng nguồn mở làm loãng chi phí triển khai các mô hình lớn cho doanh nghiệp nên không thể nói là vô nghĩa. Chính xác thì bạn nghĩ gì về mô hình nguồn mở? **
**Shen Dou:**Bạn nghĩ ai sẽ chịu chi phí cho LLaMA (Lưu ý: mô hình lớn nguồn mở của Facebook)? Đó là Facebook. Ai sẽ chia sẻ chi phí của Facebook? **Nếu bạn không thể tìm ra điểm cuối của vấn đề này, thì nó (nguồn mở) là nước không có nguồn và cây không có rễ, và một ngày nào đó vấn đề sẽ nảy sinh. **
Bởi vì điều này khác với phần mềm nguồn mở truyền thống. Trước đây, việc đầu tư của một người vào nguồn mở là chi phí thời gian của chính người đó. Nhưng ngày nay, nếu một người muốn mở nguồn các mô hình lớn thì chi phí máy móc và dữ liệu quá cao.
**Q: Bạn có thể dùng tình yêu để tạo ra điện, nhưng không thể dùng tình yêu để tính toán. **
Shen Ji: Đúng vậy, bạn phải bỏ ra hàng chục triệu cho một đợt huấn luyện.
Ngày nay, có điểm tương đồng với các phương pháp nguồn mở truyền thống là đều sử dụng nguồn mở để thu hút sự chú ý của người dùng và cuối cùng hy vọng sẽ chọn các mô hình lớn (nguồn đóng) khác.
**Q: Có thể có mối quan hệ tương tự như Red Hat và IBM không (Lưu ý: Năm 2018, IBM công bố mua lại Red Hat, công ty nguồn mở lớn nhất thế giới)? Giả sử một chủ doanh nghiệp giàu có bất đắc dĩ như IBM sẵn sàng hỗ trợ nguồn mở? Bằng cách này, nguồn mở sẽ có hỗ trợ tài chính và dữ liệu. **
Shen Ji: Nguồn mở chắc chắn sẽ tồn tại lâu dài. Khi các mô hình quy mô lớn ngày càng được chú ý nhiều hơn, chính phủ và doanh nghiệp có thể tài trợ để hỗ trợ nghiên cứu trong lĩnh vực này và thúc đẩy giáo dục toàn thị trường. Nhưng cuối cùng nó có thể tạo ra bao nhiêu giá trị? Tôi nghĩ khả năng cao là nó sẽ không trở thành xu hướng chủ đạo, cũng như sẽ không hình thành một mô hình kinh doanh khép kín hoàn chỉnh.
Phát triển phần mềm truyền thống có thể tạo thành một vòng khép kín. Ví dụ: nếu bạn viết một đoạn mã hoặc nâng cấp một chức năng, bạn có thể nhanh chóng đăng ký (check in) và khả năng của toàn bộ phần mềm nguồn mở sẽ được cải thiện thêm một cấp. Nhưng sau khi LLaMA được phát hành ngày hôm nay, cho dù có bao nhiêu người sử dụng nó cũng không thể kiểm tra được, không thể trả lại dữ liệu, không thể trả lại sức mạnh tính toán và không thể trả lại khả năng, do đó không thể hình thành một vòng khép kín .
**Q: Nhiều nhóm nguồn mở tin rằng mô hình nguồn mở đã đọc hàng nghìn tỷ tham số, tuy không tốt bằng mô hình nguồn đóng nhưng vẫn rất hữu dụng. Cũng giống như bản thân mô hình, mặc dù nó không ở cấp độ sau đại học là 985 và 211, nhưng ít nhất nó cũng ở cấp độ chuyên nghiệp và có thể được sử dụng để tinh chỉnh theo chiều dọc hơn. **
Shen Dou: Mô hình nền tảng có nên cải thiện không? Nếu Mô hình Nền tảng ngày nay đã rất tốt và không cần phải thay đổi nữa thì không có vấn đề gì. Nhưng tình hình hiện nay là Mô hình Nền tảng chỉ có điểm 60, chúng ta phải phấn đấu đạt được điểm 90 hoặc 95.
**Q: Tại sao chúng ta nên tiến bộ? Cảm giác thực sự của nhiều doanh nghiệp là GPT3.0 đã có thể giải quyết được vấn đề, vậy ý nghĩa của sự tiến bộ là gì? **
Shen Dou: Đây là một câu hỏi rất hay và chúng tôi cũng đã thảo luận nội bộ về vấn đề này. Ngày nay, Mô hình Nền tảng có thể giải quyết được phần lớn vấn đề nếu đạt được 60 điểm, nhưng vẫn còn một khoảng cách lớn giữa nó và một giải pháp hoàn hảo. Và yêu cầu của bản chất con người là nếu có thể để tôi giải quyết một lần thì tôi sẽ không bao giờ làm hai lần.
Hôm nay, chỉ với 60 điểm trong Mô hình Nền tảng, bạn đã rèn luyện được 85 điểm. Sau đó, Foundation Model đạt 85 điểm, liệu bạn có được 95 điểm không? Không có giới hạn cho việc theo đuổi của con người về mặt này.
Giới hạn này chắc chắn sẽ tiếp tục được đẩy lên cao hơn. Lấy tìm kiếm làm ví dụ, những tìm kiếm được thực hiện cách đây hơn 20 năm đều có thể được sử dụng. Vậy Google đã làm gì trong 20 năm qua? Có vẻ như bạn đã hoàn tất nhưng không phải vậy.
**Q: Bạn nghĩ gì về bối cảnh cạnh tranh tiếp theo của các mẫu xe cỡ lớn? **
Shen Ji: Trên thị trường hiện nay có rất nhiều mẫu mã, nhưng tôi nghĩ nhiều mẫu trong số đó sẽ nhanh chóng biến mất.
Sở dĩ hiện nay có nhiều mô hình còn tồn tại là do nhiều người không biết tốt hay xấu. Dù sao thì không ai có thể thử, không ai có thể sử dụng, hơn nữa thứ hạng trong lần thử nghiệm đầu tiên khá cao. Nhưng với việc phát hành mô hình, việc đánh giá ưu và nhược điểm sẽ dễ dàng hơn. Ngày nay, những người làm mô hình lớn, nếu đưa cho họ 30 triệu câu hỏi để nhập và làm thử, ước tính hơn một nửa sẽ phải down xuống.
Điều này sẽ dẫn đến sự tập trung lưu lượng truy cập dần dần, giúp các mô hình đầu dễ dàng hình thành tính kinh tế theo quy mô, từ đó khấu hao thêm chi phí phát triển mô hình. Khoảng cách sẽ ngày càng mở rộng.
**Q: Khi nào các vòng đấu loại trực tiếp sẽ bắt đầu? **
Shen Ji: Thật khó để nói, xét cho cùng thì có thể phải mất một thời gian để mọi người quyên góp được tiền. Đối với các doanh nghiệp lớn, việc đốt vẫn còn chi phí hợp lý nhưng còn phụ thuộc vào giá trị của việc đốt. Dù sao cũng có một số công ty đang hướng tới kịch bản ứng dụng của riêng mình, lúc này yêu cầu họ điều chỉnh API mô hình lớn của người khác chắc chắn là không tốt, vì vậy họ chắc chắn sẽ tạo ra mô hình của riêng mình. Tốt hơn, gần như (không quan trọng), ít nhất bạn không cần phải dựa vào thế giới bên ngoài. Các công ty lớn sẽ tiếp tục sản xuất mô hình trong một thời gian.
03 Các mô hình lớn cho phép các dịch vụ điện toán đám mây tiến tới "tiêu chuẩn hóa" và Baidu Cloud cuối cùng cũng kiếm được tiền
**Hỏi: Liệu các mô hình lớn có trở thành nền tảng cho tất cả các ứng dụng trong tương lai không? Liệu điều này có tạo ra một hệ sinh thái ứng dụng và phát triển hoàn toàn khác không? **
Shen Dou: Không còn nghi ngờ gì nữa, các mẫu máy cỡ lớn sẽ trở thành kỷ nguyên mới của hệ điều hành và trở thành nền tảng cho nhiều ứng dụng.
Từ lâu, con người đã sử dụng ngôn ngữ làm chỉ dẫn khi giao tiếp với con người và máy móc. Nhưng trước đây, máy móc không hiểu được ngôn ngữ tự nhiên nên chúng ta buộc phải viết một bộ ngôn ngữ lập trình để nó hiểu được. Giờ đây, mô hình lớn đã hiểu được ngôn ngữ tự nhiên, toàn bộ mô hình phát triển ứng dụng đã trải qua một sự thay đổi cơ bản. Sự phát triển được thúc đẩy bởi ý tưởng hơn là khả năng viết mã.
Ngoài ra, các mô hình lớn còn có khả năng kết nối các hệ thống với nhau. Giống như sự xuất hiện hiện nay của các plug-in, là các thành phần hoàn thành một cách độc lập một khả năng nhất định và chờ được gọi, các mô hình lớn có thể kết hợp các plug-in để hoàn thành một nhiệm vụ cụ thể. Điều này sẽ tiếp tục thay đổi mô hình phát triển.
**Q: Nếu một mô hình lớn có thể kết nối tất cả các plug-in để giải quyết vấn đề thì đây có phải là một hình thức kết nối trá hình không? **
**Thẩm Đậu:**Thật ra thì vẫn chưa. Trên thực tế, các APP này hiện cũng tồn tại trên cùng một điện thoại di động và trong cùng một chương trình ứng dụng nhưng nó vẫn chưa thực hiện được việc kết nối với nhau. Trong tương lai, trên nền tảng mô hình lớn, Meituan và Didi sẽ kết nối nhưng vẫn chưa liên lạc với nhau.
**Q: Vấn đề cơ bản vẫn chưa được giải quyết. **
Shen Dou: Đúng vậy, kết nối nên ám chỉ việc mở dữ liệu, tôi có thể truy cập dữ liệu của bạn và bạn có thể truy cập dữ liệu của tôi. Nhưng trong cơ sở mô hình lớn, chúng tôi chỉ sẵn sàng nói chuyện với trung tâm chứ không nói chuyện với các plug-in của chúng tôi.
**Hỏi: Việc thiếu kết nối này có ngăn cản các nhà phát triển triển khai suôn sẻ việc lập kế hoạch tài nguyên chéo không? Liệu đây có phải là một lỗ hổng trong hệ sinh thái phát triển mô hình lớn của Trung Quốc? **
Shen Dou: Tôi nghĩ nguyên nhân chính là do chưa được tự do hóa và quy mô giao thông chưa tăng lên. Ví dụ: Wenxin Yiyan có hơn 30 triệu lượt truy cập cùng một lúc và nếu nhà phát triển tính toán rằng 1% có thể là của riêng anh ta thì có 300.000 lượt truy cập và anh ta sẽ quyết định làm điều đó.
**Q: Trong kỷ nguyên của các mô hình lớn, Baidu Cloud xác định vị thế của mình trong hệ sinh thái như thế nào? Cơ chế phúc lợi được phân bổ như thế nào? **
Shen Dou: Việc một mình Baidu hoàn toàn không thể làm được điều này. Không phải là tôi sợ mình không làm được mà là tôi tuyệt đối không làm được.
Trước hết, các plugin chắc chắn sẽ có một hệ sinh thái rất thịnh vượng và chúng sẽ bổ sung cho nhau bằng các mô hình lớn. Plug-in cần lấy lưu lượng truy cập từ các mô hình lớn và các mô hình lớn cần có sự hỗ trợ của khả năng plug-in, giống như ngày nay, giả sử không có WeChat hoặc Douyin trên điện thoại di động, người dùng có thể không sử dụng.
Thứ hai, về mặt các ứng dụng hướng đến khách hàng cuối, bất kể đó là triển khai đám mây riêng hay giải pháp cấp nền tảng như Qianfan, cuối cùng nó sẽ yêu cầu các đối tác sinh thái hoàn thành khâu phân phối chặng cuối, như Kingdee, UFIDA và iSoftStone. Họ có những khách hàng và quy trình kinh doanh đặc biệt quen thuộc và những yêu cầu cuối cùng sẽ được tích hợp vào đó.
Tóm lại, thứ nhất là sự tổng hợp các năng lực để phát triển hệ sinh thái, thứ hai là các đối tác giúp đưa ra các mô hình lớn và thứ ba là khách hàng sử dụng các mô hình lớn để củng cố dịch vụ của mình.
**H: Mô hình công nghệ của các mô hình lớn đã mang đến những thay đổi gì cho điện toán đám mây? **
**Shen Dou:**Xu hướng phát triển công nghệ ngày càng tiên tiến. Nói cách khác, chúng ta ngày càng rời xa lớp dưới cùng, ngày càng ít cần chú ý đến chi tiết, bao bì ngày càng tốt hơn và có một số lượng lớn người làm những công việc này ở hậu trường . Bản thân điều này cũng là giá trị do đám mây đóng góp.
Giá trị mà đám mây CPU đời đầu mang lại là khách hàng không cần phải mua máy riêng và đóng gói từng thẻ một mà được đóng gói ngày càng tốt hơn và có thể sử dụng trực tiếp trên đó. Với sự ra đời của thời đại mô hình lớn, GPU "chip tăng tốc AI" đã dần trở thành trung tâm của sức mạnh tính toán và tốc độ tăng trưởng sức mạnh tính toán vượt xa CPU. Điều này sẽ đẩy nhanh quá trình chuyển đổi của chúng tôi từ đám mây CPU sang đám mây GPU.
Trong kỷ nguyên của đám mây GPU, cuối cùng chúng ta sẽ gói gọn hơn nữa các khả năng của đám mây để lớp bên dưới không bị lộ ra ngoài, tạo thành một hình thức tương tác nâng cao hơn và kết nối trực tiếp với API của các mô hình lớn. Đám mây ngày nay vẫn được phát triển cho các kỹ sư và hình thức tương tác chưa đủ kỹ lưỡng, nhưng trong tương lai sẽ có ít kỹ sư ở cấp dưới hơn và sẽ có nhiều người lên cấp trên hơn. Đây là một sự thay đổi mạnh mẽ.
Đám mây thông minh Baidu | Nguồn ảnh: Visual China
**Hỏi: Liệu các mô hình lớn có định hình lại bối cảnh thị trường điện toán đám mây không? Nếu vậy, khi nào tôi có thể nhìn thấy tín hiệu? **
Shen Ji: Tôi thích câu hỏi này. Nếu không có các mô hình lớn, đám mây của Baidu sẽ rất khó vận hành. Trước đây, chúng tôi đã kêu gọi "đi sâu vào ngành, tập trung vào hiện trường, tích hợp đám mây và trí thông minh cũng như tính toàn diện của AI". Điều mà Baidu Smart Cloud muốn làm là đưa AI vào toàn bộ dịch vụ To B và biến nó thành một điểm tăng trưởng.
**Nhưng trước đây, AI truyền thống rất rời rạc. Nó cần tạo ra khả năng giải quyết vấn đề và sau đó giải quyết vấn đề đó, vì vậy tính linh hoạt của nó tương đối kém. Điều này dẫn đến việc nó trở thành một hệ thống dự án, khó mở rộng quy mô và có lợi nhuận gộp thấp. **
Sau khi Generative AI ra đời, chúng tôi thấy nó có tính linh hoạt rất tốt, có thể giải quyết nhiều vấn đề cùng một lúc, về cơ bản là thống nhất từ lớp ứng dụng trở xuống, ngay cả khi cần tinh chỉnh và plug-in thì chúng đều là những hành động được tiêu chuẩn hóa . Điều này hoàn toàn khác với các ứng dụng AI rất phân mảnh trước đây. Bản thân điều này đã là một sự thay đổi lớn trong kinh doanh trên nền tảng đám mây, cái gọi là IaaS đã trở thành MaaS.
**Q: Trước đây, các công ty AI của Trung Quốc phải thực hiện các dự án, điều này rất khó khăn. Vấn đề không thể được giải quyết thông qua các sản phẩm tiêu chuẩn hóa như chúng ta hiện nay. **
Shen Ji: Chúng tôi đã thảo luận về chiến lược đám mây với Robin (Lưu ý: Người sáng lập, chủ tịch và Giám đốc điều hành Baidu Robin Li), đồng thời anh ấy cũng yêu cầu chúng tôi tiêu chuẩn hóa và mở rộng quy mô, nếu không chúng tôi sẽ không thể phản ánh Baidu là một công ty công nghệ. giá trị.
**Q: Vậy tương lai lâu dài sẽ là về tiêu chuẩn hóa và quy mô? **
**Shen Ji: **Những ngày đầu, các mô hình lớn có rất nhiều điều không chắc chắn. Ngày nay, nhiều khách hàng không có hiểu biết thống nhất về giới hạn công suất, ranh giới, chi phí, phương thức giao hàng và nhu cầu của các mô hình lớn. Trong một khoảng thời gian ngắn, chúng tôi không thể đảm bảo rằng tất cả khách hàng sẽ đến với đám mây công cộng và trước tiên chúng tôi phải thực hiện điều đó thông qua hệ thống dự án.
Nhưng ngay cả hệ thống dự án như vậy cũng khác với hệ thống dự án trước đó. Ví dụ: nếu tôi đưa cho bạn một mô hình triển khai riêng thì nó giống Windows hoặc Office hơn, đầu tiên là phiên bản 95, sau đó là phiên bản 97, rồi đến phiên bản 2000. Bạn phải liên tục nâng cấp. Hình như tôi đưa cho bạn một đĩa CD để cài đặt ở nhà nhưng thực tế là bạn phải đăng ký tiếp. Điều này không giống với bản dựng ban đầu.
**Q: Nhưng tình hình tài chính của bạn đã được cải thiện. Trong quý đầu tiên của năm nay, Baidu Smart Cloud lần đầu tiên đạt được lợi nhuận hàng quý. Lý do bạn đề cập là do việc tiêu chuẩn hóa các dịch vụ đám mây, giúp tái sử dụng quy mô và giảm chi phí. **
Thẩm Ji: Vâng. Trong trường hợp hệ thống dự án thuần túy hoặc hệ thống dự án có tỷ trọng tương đối cao thì lợi nhuận gộp sau khi bàn giao quá thấp.
04 Sau hơn một năm phụ trách Baidu Cloud, chúng tôi có cơ hội tốt nhất
**Q: Với tư cách là thành viên trong nhóm ra quyết định hàng đầu của Baidu, vấn đề bạn quan tâm và lo lắng nhất là gì? Bạn thường xuyên thảo luận vấn đề gì với nhóm của mình? **
**Shen Dou: Về hình thức sản phẩm, Robin yêu cầu tất cả các sản phẩm phải được tái tạo bằng tư duy bản địa của AI. Đó là sự tái thiết, không phải sự hội nhập. **
Về mặt kỹ thuật, chúng tôi đang suy nghĩ xem khả năng của AI thế hệ ngày nay có thể phát triển cao hơn bao nhiêu. Kết quả đánh giá hiện tại của Wen Xinyiyan không tệ, nhưng nó còn cách xa giới hạn trên của ngôn ngữ con người hoặc khả năng hiểu ngôn ngữ con người xuất sắc. Làm thế nào chúng ta có thể tiếp tục cải thiện nhanh chóng khả năng này chắc chắn là câu hỏi đầu tiên chúng ta nghĩ đến.
Sau đó, về mặt ứng dụng trong ngành, mô hình có thể được sử dụng như thế nào, nó có thể được sử dụng trong những tình huống nào, ngưỡng sử dụng nó cao đến mức nào, ranh giới rộng bao nhiêu, hiệu quả của nó có thể được cải thiện như thế nào và nó có thể truyền cảm hứng như thế nào. mọi người hãy nghĩ đến cách sử dụng tốt hơn... Đây là những điều chúng ta cần phải tiếp tục suy nghĩ.
**Q: Đây là những lớp tương đối mềm, còn những lớp cứng hơn thì sao? **
Shen Dou: Ngày nay, các cụm sức mạnh tính toán đã tăng từ 1.000 thẻ lên 10.000 thẻ. Baidu là công ty duy nhất ở Trung Quốc thực sự có thể thực hiện một nhiệm vụ duy nhất ở cấp độ 10.000 thẻ.
Trong cụm Wanka, các nhiệm vụ cơ bản thực sự về tổ chức, hiệu quả và bảo mật là vô hình đối với mọi người, nhưng chúng cực kỳ quan trọng. Ví dụ: chúng ta cần cải thiện hiệu quả đào tạo và suy luận của phần cứng cơ bản cũng như sự tích hợp giữa phần mềm và phần cứng. Đây đều là những điều khá quan trọng.
**Q: Bạn đã phụ trách mảng kinh doanh tìm kiếm và quảng cáo tại Baidu trong nhiều năm, mãi đến năm ngoái, bạn mới đảm nhận mảng đám mây thông minh, bạn ngay lập tức bắt gặp cơ hội lịch sử của các mô hình lớn. Bạn có nghĩ đó là một phước lành? Bạn cảm thấy thế nào? **
Shen Dou: Không hề cường điệu chút nào nhưng tôi thực sự rất hào hứng và may mắn khi làm được điều như vậy.
Khi tiếp quản vào năm ngoái, tôi đã có ý tưởng mở rộng quy mô và tiêu chuẩn hóa (dịch vụ đám mây). Nhưng vì khả năng của AI quá rời rạc nên rất khó thực hiện được. **Lúc đó tôi đã suy nghĩ rất kỹ, liệu có thứ gì vừa đòi hỏi khả năng AI vừa sức mạnh tính toán của AI và có thể được nhiều người sử dụng cùng lúc không? Tôi không thể tìm thấy nó sau khi tìm kiếm một thời gian dài. **
Sau đó, các mô hình lớn xuất hiện. Đột nhiên cảm thấy thoải mái.
Shen Dou, phó chủ tịch điều hành của Tập đoàn Baidu và chủ tịch của Tập đoàn kinh doanh đám mây thông minh Baidu (ACG) | Nguồn ảnh: Baidu
**Q: Bạn đang học về trí tuệ nhân tạo, mô hình lớn có phù hợp với bạn hơn không? **
Shen Dou: Điều này rất giống với những gì tôi đã làm khi còn là nghiên cứu sinh. Mặc dù tôi luôn nghiên cứu về khoa học máy tính nhưng tôi đang làm việc nhiều hơn về phần mềm và trí tuệ nhân tạo.
Sau khi kết nối với đám mây (phần cứng cấp thấp), tôi thực sự đã đọc lại cuốn sách về hệ điều hành và nguyên tắc cấu tạo máy tính. Nếu thực sự là IaaS, các thành phần mạng và tính toán lưu trữ trong thời đại CPU, tôi nghĩ vẫn còn hơi khó khăn.
Nhưng sau khi mô hình lớn ra thì mình thấy những thứ đó đều được gói gọn bên dưới, hiện tại mình chủ yếu nghiên cứu về mô hình lớn như đọc báo, dùng Python để gọi API trên Qianfan, v.v. Tôi cảm thấy dễ dàng hơn nhiều.
**Hỏi: Tiếp theo, bạn kỳ vọng gì về tốc độ phát triển và tăng trưởng của Baidu Smart Cloud? **
**Shen Dou:**Baidu Smart Cloud hiện có giá trị gần 20 tỷ nhân dân tệ, vẫn còn tương đối nhỏ. Với sự hỗ trợ của các mô hình lớn, nhu cầu của khách hàng đã trở nên rất mạnh mẽ và giờ đây chúng tôi đã bị choáng ngợp. Tuy nhiên, vẫn cần có một quy trình để thực sự cho phép người dùng sử dụng và phân phối nó một cách tốt nhất.
**Q: Sẽ có một đợt bùng phát nhỏ trong quý 4 phải không? **
**Shen Ji:**Một số người ước tính rằng sẽ có một đợt bùng phát vào quý IV. Nhu cầu thực sự đã bắt đầu tăng lên, nhưng tôi nghĩ có thể phải đến năm sau nó mới bùng nổ.
**Q: Bạn đánh giá vận may của mình như thế nào? **
Shen Dou: Tôi nghĩ đây là sự may mắn của Baidu. Baidu đã làm AI rất nhiều năm và bỏ ra rất nhiều công sức cho nó, nếu không có những mô hình lớn, con đường thương mại hóa đám mây quả thực sẽ khó khăn và gian nan hơn. Điều này chỉ cho thấy rằng những công ty có Tầm nhìn cuối cùng sẽ không gặp xui xẻo.
Xem bản gốc
Nội dung chỉ mang tính chất tham khảo, không phải là lời chào mời hay đề nghị. Không cung cấp tư vấn về đầu tư, thuế hoặc pháp lý. Xem Tuyên bố miễn trừ trách nhiệm để biết thêm thông tin về rủi ro.
Đối thoại với Shen Dou, Chủ tịch Baidu Smart Cloud: Trên thị trường hiện nay có rất nhiều mẫu mã lớn nhưng hầu hết sẽ nhanh chóng biến mất
Vào giờ thứ 24 sau khi "Wen Xin Yi Yan" được phát hành, Shen Dou đi vào phần phụ trợ để xem số liệu và phát hiện Wen Xin Yi Yan đã trả lời "33,42 triệu" câu hỏi từ người dùng, con số này vượt quá sự mong đợi của anh.
Hai ngày sau, khi Thẩm Đậu ngồi cùng mấy người làm truyền thông, trong đó có tôi, nói về sự việc, anh ấy nói: “Ban đầu chúng tôi nghĩ rằng sẽ có ít người xem hơn, nhưng không ngờ rằng sự nhiệt tình của người dùng đã tăng lên.” không giảm đi."
Vào tháng 9, khi cơn sốt người mẫu lớn ở Trung Quốc kéo dài được nửa năm, những người bình thường cuối cùng cũng có cơ hội bắt đầu.
Bắt đầu từ ngày 31/8, một số mẫu xe lớn, trong đó có "Wen Xin Yi Yan" đã được đăng ký và chính thức mở cửa đón công chúng. Tin tức này không chỉ khiến người dùng hào hứng dùng thử mà còn gây ra phản ứng nhiệt tình từ các công ty. ** Shen Dou cho biết, vào ngày Wenxinyiyan được khai trương, số lượng doanh nghiệp hoạt động hàng ngày trên nền tảng mô hình lớn Baidu Smart Cloud Qianfan đã tăng hơn 40%. ---Sau này là một nền tảng quản lý và phát triển mô hình lớn do Baidu đưa ra dành cho các doanh nghiệp. **
Trong thời đại của các mô hình lớn, Baidu hy vọng sẽ thúc đẩy việc sử dụng các mô hình lớn của các cá nhân và doanh nghiệp trên cùng một dòng thời gian. Từ góc độ vĩ mô, điều này có lợi cho việc phổ biến công nghệ tiên tiến của các mô hình lớn. Từ góc độ công ty, điều này giúp Baidu thực hiện công việc kinh doanh của riêng mình. Mặc dù giá trị thương mại của người dùng bên C không rõ ràng ngay lập tức, nhưng giá trị thương mại của khách hàng bên B được phản ánh trực tiếp trong phí lập lịch API mô hình và doanh thu điện toán đám mây.
Vào tháng 5 năm ngoái, Shen Dou, người đã phụ trách Hệ sinh thái di động Baidu (MEG) trong nhiều năm, đã được giao phó vị trí chủ tịch quan trọng của Tập đoàn kinh doanh đám mây thông minh Baidu (ACG). Kỳ vọng của tập đoàn đối với anh là nắm bắt các cơ hội của kỷ nguyên AIGC và xây dựng đám mây thông minh vào đường cong tăng trưởng thứ hai của Baidu.
Nhưng tình thế Thẩm Ji gặp phải lại rất khó khăn. Baidu không phải là nhà cung cấp điện toán đám mây lớn nhất ở Trung Quốc nhưng lại đứng đầu về đám mây công cộng về các dịch vụ liên quan đến AI. Vào thời điểm đó, Shen Dou cũng hy vọng có thể sử dụng AI để thúc đẩy sự phát triển của toàn bộ dịch vụ đám mây, nhưng đáng tiếc là khả năng AI vào thời điểm đó quá “phân mảnh” và không thể thoát khỏi tình trạng chi phí dịch vụ cao như hiện nay. khó khăn trong việc mở rộng quy mô và lợi nhuận ít ỏi.
Nhưng vài tháng sau, kỷ nguyên của người mẫu lớn đã đến. Từ góc độ bối cảnh cạnh tranh, các dịch vụ đám mây cơ bản dựa trên IaaS (Cơ sở hạ tầng là dịch vụ) và PaaS (Nền tảng là dịch vụ) trước đây đang được chuyển sang dịch vụ đám mây MaaS (Mô hình là dịch vụ) dựa trên AI. Shen Dou tin rằng đây là cơ hội để Baidu Smart Cloud "vượt mặt trong các góc cua".
Từ góc độ doanh thu, khả năng đa năng của các mô hình lớn cho phép dịch vụ đám mây được tiêu chuẩn hóa hơn, để chúng có thể được tái sử dụng trên quy mô lớn trong các tình huống khác nhau, giảm chi phí dịch vụ và tăng lợi nhuận. Chính vì lý do này mà ban lãnh đạo của Baidu đã nói với các nhà đầu tư trong cuộc gọi hội nghị thu nhập vào quý 2 năm 2023 rằng AI và các mô hình lớn sẽ cho phép Baidu Smart Cloud đạt được tỷ suất lợi nhuận cao hơn.
**Sau đây là toàn văn cuộc trò chuyện của chúng tôi với Shen Dou, do Geek Park tổ chức. **
01 Wenxin Yiyan ở phía C và nền tảng Qianfan ở phía B, một sân khấu thành công với cả hai phía
**Q: Sau khi xem xong trò vui, đã đến lúc thực sự làm điều gì đó thiết thực. Hai ngày trước, Baidu đã mở Wen Xinyiyan ở phía C. Bạn nghĩ gì về dữ liệu sử dụng của người dùng này? Dự kiến hay bất ngờ? Khả năng vận hành và bảo trì của nền là gì? **
Shen Dou: Tôi gửi dữ liệu cho nhóm vào lúc 12:30 tối hôm đó và các đồng nghiệp của tôi đã công bố dữ liệu vào ngày hôm sau. Dữ liệu được tôi chặn từ hệ thống và đưa ra thế giới bên ngoài một cách nguyên vẹn, hoàn toàn là sự thật.
Chúng tôi cũng cảm thấy có ít người “xem náo nhiệt” hơn nên kỳ vọng của chúng tôi cũng không cao. Thật bất ngờ, ngày hôm đó có 33,42 triệu phản hồi, điều này cho thấy người dùng vẫn đặt nhiều kỳ vọng vào Wenxin Yiyan. Mọi người không tiến lên đặt câu hỏi, cũng không rời đi sau vài câu mà trải qua nhiều vòng đối thoại. Từ góc độ này, sự nhiệt tình của người dùng vẫn còn đó.
Wen Xinyiyan đã thử nghiệm nội bộ được năm hoặc sáu tháng kể từ ngày 16 tháng 3, điều này giúp chúng tôi có nhiều thời gian chuẩn bị, cả về mặt cải thiện hiệu quả và giảm chi phí. Ví dụ: tốc độ suy luận của mô hình lớn Wenxin đã tăng hơn 30 lần so với ban đầu, điều này đã giảm đáng kể chi phí suy luận và cho phép chúng tôi xử lý số lượng lớn người dùng như vậy.
**Q: Vậy tiến bộ công nghệ của các mô hình lớn của Baidu trong giai đoạn này cũng bao gồm cả tiến bộ về chi phí? **
Shen Ji: Đúng vậy, bản thân mô hình lớn là một mô hình kỹ thuật sử dụng nhiều tài nguyên.
Ban đầu chúng tôi không ngờ lưu lượng truy cập lại lớn như vậy, bản thân tài nguyên máy (sức mạnh tính toán) đã rất quý giá, chúng tôi cảm thấy đặt quá nhiều máy sẽ lãng phí nên không đặt thêm quá nhiều máy. Sau khi quy mô người dùng tăng lên vào ngày hôm đó, may mắn thay, hiệu suất suy luận của chúng tôi được cải thiện nên chúng tôi vẫn cung cấp dịch vụ ổn định cho người dùng.
Chúng tôi cũng có trong tay một nguồn dự trữ sức mạnh tính toán tốt và chúng tôi sẽ tiếp tục giảm chi phí đào tạo và lý luận trong tương lai để không gặp vấn đề gì trong việc đáp ứng nhu cầu của người dùng. Vào thời điểm đó, chúng tôi đã thảo luận trong nhóm nội bộ của mình xem liệu giao thông có thể bị cản trở hay không. Tôi nói rằng làm cho giao thông trở nên bạo lực hơn là tất cả những rắc rối của hạnh phúc.
**Q: Việc phát hành Wenxin Yiyan ở phía C mang lại lợi ích gì cho Baidu? **
Shen Dou: Điều bạn có thể lo lắng là liệu việc mở cửa sang bên C có bền vững hay không nếu không mang lại giá trị thương mại.
Trên thực tế, chỉ cần giá trị thực sự được tạo ra cho người dùng thì việc thương mại hóa chỉ là vấn đề thời gian. Trong lịch sử phát triển công nghệ, có rất ít ví dụ có giá trị nhưng khó thực hiện. Wen Xinyiyan quả thực đã mang lại giá trị thực sự cho người dùng C. Hôm qua tôi thấy một số bình luận nói rằng nếu không có Wenxinyiyan, hiệu quả làm việc tại văn phòng của anh ấy sẽ giảm sút. Vì vậy, chỉ cần nó có giá trị thì việc thương mại hóa Wen Xinyiyan trong tương lai sẽ diễn ra theo đúng lộ trình.
**Hỏi: Mẫu sản phẩm C-end của China Big Model có phù hợp với ChatGPT không? Đây có phải là phí đăng ký không? **
Shen Ji: Còn quá sớm để nói về hình thức sản phẩm của một mô hình lớn và định nghĩa về nó vẫn chưa quá rõ ràng.
Khi Internet di động ra đời, chúng ta có thể sử dụng một số từ khóa để làm rõ định nghĩa của nó, chẳng hạn như SoLoMo (Xã hội, Địa phương, Di động, sử dụng mạng xã hội, dịch vụ định vị địa lý và thiết bị đầu cuối di động để cung cấp trải nghiệm người dùng tốt hơn). Nhưng bây giờ mô hình lớn không thể được định nghĩa bằng một vài từ rõ ràng. Khả năng của nó mạnh mẽ hơn, nhưng ranh giới của nó cũng rộng hơn và còn lâu mới hội tụ được về hình thức sản phẩm.
OpenAI là một công ty định hướng công nghệ và trải nghiệm người dùng thực sự không phải là điểm mạnh của nó. Hình thức sản phẩm mà nó thiết kế ngày nay vẫn còn ở giai đoạn đầu, tiếp theo là tốc độ lặp lại của sản phẩm sẽ rất nhanh và hình thức sẽ thay đổi mạnh mẽ.
**Hỏi: Mô hình kinh doanh thu phí đăng ký từ người dùng C-end của ChatGPT có khả thi ở Trung Quốc không? **
Shen Ji: Chúng tôi có thể phát triển các phương thức kiếm tiền mới, chẳng hạn như ba phương thức kiếm tiền phổ biến là quảng cáo, thương mại điện tử và trò chơi.
Nếu bạn sẵn sàng chi 2.000 nhân dân tệ mỗi tháng để thuê một trợ lý, thì khi AI có thể làm được 1/10 nhiệm vụ của trợ lý, chẳng hạn như giúp bạn lập hành trình du lịch, đặt vé máy bay, khách sạn, thậm chí huy động taxi và phần mềm giao đồ ăn. , bạn có sẵn sàng chi hai trăm nhân dân tệ không? Chỉ là phương thức hiện thực hóa không nhất thiết phải là phí thành viên, nó có thể là hoa hồng giao dịch hoặc các phương thức khác.
Ví dụ khác, một loạt nhân vật NPC trong trò chơi được điều khiển bởi AI tổng quát và việc phát sóng trực tiếp "con người kỹ thuật số" trong lĩnh vực thương mại điện tử cũng được hỗ trợ bởi AI tổng quát, điều này có thể dẫn đến các phương thức kiếm tiền khác nhau. Cuối cùng, hình thức sản phẩm của bên C quyết định phương thức kiếm tiền của nó.
**Hỏi: Nếu sản phẩm C-end cuối cùng là một công cụ năng suất, liệu công ty có thể trả tiền cho cá nhân thay vì cá nhân không? **
**Thẩm Ji:**Có thể. Ví dụ: Baidu Netdisk cũng có thể được coi là một công cụ hiệu quả và nhiều công ty sẽ mua tài khoản Netdisk để nhân viên của họ sử dụng. Chúng tôi cũng đã liên hệ với các công ty và cấp cho mỗi nhân viên một tài khoản Copilot để viết chương trình. Đây đều là những trường hợp công ty trả tiền cho cá nhân.
**Q: Là một công ty nội dung, chúng tôi cũng đặc biệt mong muốn sử dụng các mô hình lớn để sản xuất bài viết. Bạn vừa ra mắt nền tảng dịch vụ mô hình lớn "Qianfan" của To B. Bối cảnh ra mắt "Qianfan" là gì? Làm cách nào chúng tôi có thể giúp các công ty không có lập trình viên triển khai các mô hình lớn? **
**Thẩm Đậu:**Đây là một câu hỏi rất hay. Trên thực tế, đó là lý do tại sao chúng tôi xây dựng nền tảng Qianfan.
Đặc điểm của mô hình lớn đang triển khai bên B này là các công ty lớn đi đầu, nhiều khách hàng là các tổ chức tài chính, năng lượng, giáo dục… Họ có một đặc điểm rõ ràng là cần phải triển khai riêng tư, nhưng ngưỡng rất cao và họ phải đào tạo một loạt kỹ thuật viên để lặp lại mô hình, điều này có thể làm chậm thời gian để mô hình lớn phát huy tác dụng.
Ngược lại, giống như nhiều công ty vừa và nhỏ, rất có thể bạn sẽ không loại trừ sản phẩm SaaS (dựa trên nền tảng), cũng như sẽ không loại trừ các đám mây công cộng. Nền tảng Qianfan là một sản phẩm như vậy. Doanh nghiệp có thể gọi trực tiếp các API trên đó hoặc tinh chỉnh các mẫu đào tạo để tạo ra mô hình của riêng mình mà hầu như không cần mã. **Mục đích của Qianfan của chúng tôi là hạ thấp ngưỡng triển khai của các mô hình lớn và thúc đẩy việc áp dụng rộng rãi các mô hình lớn. **
**Q: Có vẻ như bạn và OpenAI có những con đường khác nhau. OpenAI lần đầu tiên ra mắt sản phẩm bên C ChatGPT, sau đó từ từ ra mắt các sản phẩm bên B, trong khi Baidu phát triển đồng thời cả sản phẩm bên C và bên B. Tại sao có sự khác biệt này? **
**Shen Dou: **Công nghệ đều có vấn đề về khả năng chấp nhận và nhiều người dùng thực sự phải sử dụng nó hơn và tìm ra giá trị của nó. Mọi người đều nói về những mô hình lớn, nhưng có bao nhiêu người đã thực sự sử dụng những mô hình lớn? Khách hàng doanh nghiệp bên B nhận thức rõ hơn về tác động tiềm tàng của các mô hình lớn đối với toàn bộ mô hình sản xuất của họ và họ cần sử dụng chúng nhiều hơn.
Nhưng nếu họ không sử dụng public cloud API cũng như không thiết lập môi trường riêng để trải nghiệm và dùng thử thì đơn giản là họ chỉ đang tưởng tượng ra mọi thứ ở đó mà thôi. Vì vậy chúng ta cần tạo ra Qianfan và để họ sử dụng mô hình lớn trước. Trên thực tế, liên quan đến việc mở bán hoàn toàn các mẫu xe lớn, bên C đã chờ đợi rất lâu, bên B cũng đã chờ đợi rất lâu. Chỉ là bên B gần với việc thương mại hóa hơn thôi.
**Q: Sau khi Wen Xinyiyan được phát hành, nhu cầu về mặt B của Nền tảng Qianfan đã tăng lên bao nhiêu? **
Shen Dou: Vào ngày Wen Xinyiyan khai trương, trên nền tảng mô hình lớn Baidu Intelligence Cloud Qianfan, số lượng doanh nghiệp hoạt động hàng ngày đã tăng hơn 40%.Xét rằng tốc độ phản hồi của TO B thường bị tụt lại phía sau, thực tế tình hình sẽ tốt hơn một chút.
Sự thư giãn sẽ không chỉ thúc đẩy dữ liệu ở phía C mà còn thúc đẩy dữ liệu ở phía B. Bởi vì điều này sẽ giúp các công ty B-side giảm chi phí và tăng tốc độ lặp lại (lưu ý: sử dụng mô hình trong nước sẽ rẻ hơn và tiện lợi hơn).
Tuy nhiên, xét về tốc độ tăng trưởng dữ liệu, bên B vẫn không bằng bên C. Ngày nay, giả sử ai đó muốn sử dụng "Wen Xin Yi Yan" ở bên B. Thay vì gọi API, anh ta có thể đến bên C để trải nghiệm trước. Khi hắn cho rằng kinh nghiệm tốt, hắn sẽ dùng nó đối với Thiên Phàm. Để sử dụng được mặt B đòi hỏi phải có một quá trình trau dồi.
**Q: Nếu bên C và bên B song hành với nhau thì bạn đặt mức độ ưu tiên như thế nào? Trọng tâm chủ yếu ở bên C hay bên B? **
Shen Shake: Chỉ cần đặt mức độ ưu tiên khi có xung đột tài nguyên. Đặc điểm của mô hình lớn là có lớp dày ở dưới mang tính phổ quát, khi tìm ứng dụng ở trên, dù là To B hay To C thì Baidu đều phải phối hợp với nhau mới làm được. Không có xung đột tài nguyên.
Về phía C, Baidu đang tích cực nghiên cứu các dạng sản phẩm và mô hình kinh doanh có thể triển khai các mô hình lớn. Baidu cần tái cấu trúc các sản phẩm C-end của riêng mình dựa trên mô hình lớn. Ví dụ: từ dữ liệu sản phẩm của chính Baidu, Baidu Netdisk, Thư viện Baidu và các sản phẩm khác, sau khi tái thiết dựa trên mô hình lớn, mức độ gắn bó của người dùng và tỷ lệ thanh toán của thành viên rất cao Cải tiến, ứng dụng Wenxin Yiyan mới được tạo và Tìm kiếm Baidu được xây dựng lại cũng đã trở thành lối vào mới cho các ứng dụng mô hình lớn. Về phía B, Đám mây thông minh Baidu phục vụ tốt thị trường To B bằng cách tạo ra nền tảng mô hình lớn tốt nhất.
**Q: Trên thực tế, nền tảng phổ biến nhất là điện toán đám mây của bạn. Dù bạn phục vụ khách hàng nội bộ hay khách hàng bên ngoài thì đó chính là thành công của bạn. **
**Shen Ji:**Đúng vậy, nếu bạn phục vụ tốt khách hàng nội bộ, bạn có thể phục vụ tốt khách hàng bên ngoài và nếu bạn phục vụ tốt khách hàng bên ngoài, bạn có thể phục vụ tốt khách hàng nội bộ. Đây là vẻ đẹp của MaaS. Nếu không, giả sử rằng ngăn xếp công nghệ bên ngoài và bên trong hoàn toàn là hai bộ thì chi phí sẽ quá cao.
Chúng tôi đi bằng hai chân. Baidu chắc chắn hy vọng sẽ tạo ra một sản phẩm To C bom tấn, nhưng chúng tôi cũng rất sẵn lòng hỗ trợ nhiều công ty và nhà phát triển hơn để tạo ra các ứng dụng To C tốt thông qua mô hình lớn và sức mạnh tính toán cơ bản. Trên thực tế, dù ai thành công ở trên thì đó cũng là thành công của mô hình lớn cơ bản.
02 Mô hình lớn bắt đầu cuộc cạnh tranh loại trực tiếp khốc liệt và tương lai của mô hình nguồn mở thật đáng lo ngại
**Q: Ngoài Wenxin Yiyan, nền tảng Qianfan cũng đã ra mắt các mẫu khác. Sự khác biệt giữa Qianfan và nền tảng tổng hợp mô hình như Ôm Mặt là gì? **
Shen Dou: Hiện tại hoặc trong thời gian dài, các công ty hy vọng sẽ thử nghiệm các mô hình khác nhau, có thể là do khả năng thích ứng với bối cảnh của mô hình hay nhu cầu tâm lý của khách hàng. Từ góc độ này, chúng tôi cũng cần cung cấp các mô hình của bên thứ ba.
Nhưng không phải mô hình nào cũng đáng thử và điều đó sẽ gây lãng phí tài nguyên rất lớn. Vì vậy, Qianfan có những nguyên tắc sàng lọc riêng và tất cả các mô hình chúng tôi đưa ra đều là những mô hình tương đối xuất sắc và dễ sử dụng.
**Q: Vậy Ôm Mặt được định vị là một cộng đồng, còn Qianfan được định vị là một nền tảng? **
Thẩm Ji: Đúng vậy. Qianfan không chỉ giải quyết vấn đề chọn mô hình của bạn mà còn giải quyết vấn đề thực tế sử dụng mô hình của bạn. Việc sử dụng nó cũng bao gồm một loạt vấn đề như dữ liệu, đào tạo, điều chỉnh, kỹ thuật và xây dựng ứng dụng, đồng thời xem xét đầy đủ chi phí và hiệu quả. Qianfan cung cấp dịch vụ một cửa, đó là điểm khác biệt giữa Qianfan và Ôm Mặt.
Mô hình Ôm Mặt có đủ chiều rộng và Qianfan dựa vào lợi thế tự nhiên của các nhà cung cấp đám mây để có không gian hoạt động đủ lớn và cũng có thể đạt được tối ưu hóa hiệu suất suy luận và đào tạo từ đầu đến cuối. Ví dụ: tăng tốc trong quá trình đào tạo, cảm biến lỗi, định vị và phục hồi nhanh chóng; trong quá trình suy luận, dựa trên khả năng mở rộng của cụm điện toán không đồng nhất khổng lồ của Baidu, nó có độ đàn hồi tài nguyên rất tốt và cũng có thể cung cấp các dịch vụ không có máy chủ, cho phép khách hàng có được các dịch vụ với chi phí thấp Chi phí cơ sở hạ tầng, không cần vận hành và bảo trì và lợi ích về khả năng mở rộng cao. Đây là điểm mà Qianfan đi sâu hơn Ôm Mặt.
**Q: Bạn có vẻ không lạc quan về mô hình nguồn mở, nhưng nguồn mở làm loãng chi phí triển khai các mô hình lớn cho doanh nghiệp nên không thể nói là vô nghĩa. Chính xác thì bạn nghĩ gì về mô hình nguồn mở? **
**Shen Dou:**Bạn nghĩ ai sẽ chịu chi phí cho LLaMA (Lưu ý: mô hình lớn nguồn mở của Facebook)? Đó là Facebook. Ai sẽ chia sẻ chi phí của Facebook? **Nếu bạn không thể tìm ra điểm cuối của vấn đề này, thì nó (nguồn mở) là nước không có nguồn và cây không có rễ, và một ngày nào đó vấn đề sẽ nảy sinh. **
Bởi vì điều này khác với phần mềm nguồn mở truyền thống. Trước đây, việc đầu tư của một người vào nguồn mở là chi phí thời gian của chính người đó. Nhưng ngày nay, nếu một người muốn mở nguồn các mô hình lớn thì chi phí máy móc và dữ liệu quá cao.
**Q: Bạn có thể dùng tình yêu để tạo ra điện, nhưng không thể dùng tình yêu để tính toán. **
Shen Ji: Đúng vậy, bạn phải bỏ ra hàng chục triệu cho một đợt huấn luyện.
Ngày nay, có điểm tương đồng với các phương pháp nguồn mở truyền thống là đều sử dụng nguồn mở để thu hút sự chú ý của người dùng và cuối cùng hy vọng sẽ chọn các mô hình lớn (nguồn đóng) khác.
**Q: Có thể có mối quan hệ tương tự như Red Hat và IBM không (Lưu ý: Năm 2018, IBM công bố mua lại Red Hat, công ty nguồn mở lớn nhất thế giới)? Giả sử một chủ doanh nghiệp giàu có bất đắc dĩ như IBM sẵn sàng hỗ trợ nguồn mở? Bằng cách này, nguồn mở sẽ có hỗ trợ tài chính và dữ liệu. **
Shen Ji: Nguồn mở chắc chắn sẽ tồn tại lâu dài. Khi các mô hình quy mô lớn ngày càng được chú ý nhiều hơn, chính phủ và doanh nghiệp có thể tài trợ để hỗ trợ nghiên cứu trong lĩnh vực này và thúc đẩy giáo dục toàn thị trường. Nhưng cuối cùng nó có thể tạo ra bao nhiêu giá trị? Tôi nghĩ khả năng cao là nó sẽ không trở thành xu hướng chủ đạo, cũng như sẽ không hình thành một mô hình kinh doanh khép kín hoàn chỉnh.
Phát triển phần mềm truyền thống có thể tạo thành một vòng khép kín. Ví dụ: nếu bạn viết một đoạn mã hoặc nâng cấp một chức năng, bạn có thể nhanh chóng đăng ký (check in) và khả năng của toàn bộ phần mềm nguồn mở sẽ được cải thiện thêm một cấp. Nhưng sau khi LLaMA được phát hành ngày hôm nay, cho dù có bao nhiêu người sử dụng nó cũng không thể kiểm tra được, không thể trả lại dữ liệu, không thể trả lại sức mạnh tính toán và không thể trả lại khả năng, do đó không thể hình thành một vòng khép kín .
**Q: Nhiều nhóm nguồn mở tin rằng mô hình nguồn mở đã đọc hàng nghìn tỷ tham số, tuy không tốt bằng mô hình nguồn đóng nhưng vẫn rất hữu dụng. Cũng giống như bản thân mô hình, mặc dù nó không ở cấp độ sau đại học là 985 và 211, nhưng ít nhất nó cũng ở cấp độ chuyên nghiệp và có thể được sử dụng để tinh chỉnh theo chiều dọc hơn. **
Shen Dou: Mô hình nền tảng có nên cải thiện không? Nếu Mô hình Nền tảng ngày nay đã rất tốt và không cần phải thay đổi nữa thì không có vấn đề gì. Nhưng tình hình hiện nay là Mô hình Nền tảng chỉ có điểm 60, chúng ta phải phấn đấu đạt được điểm 90 hoặc 95.
**Q: Tại sao chúng ta nên tiến bộ? Cảm giác thực sự của nhiều doanh nghiệp là GPT3.0 đã có thể giải quyết được vấn đề, vậy ý nghĩa của sự tiến bộ là gì? **
Shen Dou: Đây là một câu hỏi rất hay và chúng tôi cũng đã thảo luận nội bộ về vấn đề này. Ngày nay, Mô hình Nền tảng có thể giải quyết được phần lớn vấn đề nếu đạt được 60 điểm, nhưng vẫn còn một khoảng cách lớn giữa nó và một giải pháp hoàn hảo. Và yêu cầu của bản chất con người là nếu có thể để tôi giải quyết một lần thì tôi sẽ không bao giờ làm hai lần.
Hôm nay, chỉ với 60 điểm trong Mô hình Nền tảng, bạn đã rèn luyện được 85 điểm. Sau đó, Foundation Model đạt 85 điểm, liệu bạn có được 95 điểm không? Không có giới hạn cho việc theo đuổi của con người về mặt này.
Giới hạn này chắc chắn sẽ tiếp tục được đẩy lên cao hơn. Lấy tìm kiếm làm ví dụ, những tìm kiếm được thực hiện cách đây hơn 20 năm đều có thể được sử dụng. Vậy Google đã làm gì trong 20 năm qua? Có vẻ như bạn đã hoàn tất nhưng không phải vậy.
**Q: Bạn nghĩ gì về bối cảnh cạnh tranh tiếp theo của các mẫu xe cỡ lớn? **
Shen Ji: Trên thị trường hiện nay có rất nhiều mẫu mã, nhưng tôi nghĩ nhiều mẫu trong số đó sẽ nhanh chóng biến mất.
Sở dĩ hiện nay có nhiều mô hình còn tồn tại là do nhiều người không biết tốt hay xấu. Dù sao thì không ai có thể thử, không ai có thể sử dụng, hơn nữa thứ hạng trong lần thử nghiệm đầu tiên khá cao. Nhưng với việc phát hành mô hình, việc đánh giá ưu và nhược điểm sẽ dễ dàng hơn. Ngày nay, những người làm mô hình lớn, nếu đưa cho họ 30 triệu câu hỏi để nhập và làm thử, ước tính hơn một nửa sẽ phải down xuống.
Điều này sẽ dẫn đến sự tập trung lưu lượng truy cập dần dần, giúp các mô hình đầu dễ dàng hình thành tính kinh tế theo quy mô, từ đó khấu hao thêm chi phí phát triển mô hình. Khoảng cách sẽ ngày càng mở rộng.
**Q: Khi nào các vòng đấu loại trực tiếp sẽ bắt đầu? **
Shen Ji: Thật khó để nói, xét cho cùng thì có thể phải mất một thời gian để mọi người quyên góp được tiền. Đối với các doanh nghiệp lớn, việc đốt vẫn còn chi phí hợp lý nhưng còn phụ thuộc vào giá trị của việc đốt. Dù sao cũng có một số công ty đang hướng tới kịch bản ứng dụng của riêng mình, lúc này yêu cầu họ điều chỉnh API mô hình lớn của người khác chắc chắn là không tốt, vì vậy họ chắc chắn sẽ tạo ra mô hình của riêng mình. Tốt hơn, gần như (không quan trọng), ít nhất bạn không cần phải dựa vào thế giới bên ngoài. Các công ty lớn sẽ tiếp tục sản xuất mô hình trong một thời gian.
03 Các mô hình lớn cho phép các dịch vụ điện toán đám mây tiến tới "tiêu chuẩn hóa" và Baidu Cloud cuối cùng cũng kiếm được tiền
**Hỏi: Liệu các mô hình lớn có trở thành nền tảng cho tất cả các ứng dụng trong tương lai không? Liệu điều này có tạo ra một hệ sinh thái ứng dụng và phát triển hoàn toàn khác không? **
Shen Dou: Không còn nghi ngờ gì nữa, các mẫu máy cỡ lớn sẽ trở thành kỷ nguyên mới của hệ điều hành và trở thành nền tảng cho nhiều ứng dụng.
Từ lâu, con người đã sử dụng ngôn ngữ làm chỉ dẫn khi giao tiếp với con người và máy móc. Nhưng trước đây, máy móc không hiểu được ngôn ngữ tự nhiên nên chúng ta buộc phải viết một bộ ngôn ngữ lập trình để nó hiểu được. Giờ đây, mô hình lớn đã hiểu được ngôn ngữ tự nhiên, toàn bộ mô hình phát triển ứng dụng đã trải qua một sự thay đổi cơ bản. Sự phát triển được thúc đẩy bởi ý tưởng hơn là khả năng viết mã.
Ngoài ra, các mô hình lớn còn có khả năng kết nối các hệ thống với nhau. Giống như sự xuất hiện hiện nay của các plug-in, là các thành phần hoàn thành một cách độc lập một khả năng nhất định và chờ được gọi, các mô hình lớn có thể kết hợp các plug-in để hoàn thành một nhiệm vụ cụ thể. Điều này sẽ tiếp tục thay đổi mô hình phát triển.
**Q: Nếu một mô hình lớn có thể kết nối tất cả các plug-in để giải quyết vấn đề thì đây có phải là một hình thức kết nối trá hình không? **
**Thẩm Đậu:**Thật ra thì vẫn chưa. Trên thực tế, các APP này hiện cũng tồn tại trên cùng một điện thoại di động và trong cùng một chương trình ứng dụng nhưng nó vẫn chưa thực hiện được việc kết nối với nhau. Trong tương lai, trên nền tảng mô hình lớn, Meituan và Didi sẽ kết nối nhưng vẫn chưa liên lạc với nhau.
**Q: Vấn đề cơ bản vẫn chưa được giải quyết. **
Shen Dou: Đúng vậy, kết nối nên ám chỉ việc mở dữ liệu, tôi có thể truy cập dữ liệu của bạn và bạn có thể truy cập dữ liệu của tôi. Nhưng trong cơ sở mô hình lớn, chúng tôi chỉ sẵn sàng nói chuyện với trung tâm chứ không nói chuyện với các plug-in của chúng tôi.
**Hỏi: Việc thiếu kết nối này có ngăn cản các nhà phát triển triển khai suôn sẻ việc lập kế hoạch tài nguyên chéo không? Liệu đây có phải là một lỗ hổng trong hệ sinh thái phát triển mô hình lớn của Trung Quốc? **
Shen Dou: Tôi nghĩ nguyên nhân chính là do chưa được tự do hóa và quy mô giao thông chưa tăng lên. Ví dụ: Wenxin Yiyan có hơn 30 triệu lượt truy cập cùng một lúc và nếu nhà phát triển tính toán rằng 1% có thể là của riêng anh ta thì có 300.000 lượt truy cập và anh ta sẽ quyết định làm điều đó.
**Q: Trong kỷ nguyên của các mô hình lớn, Baidu Cloud xác định vị thế của mình trong hệ sinh thái như thế nào? Cơ chế phúc lợi được phân bổ như thế nào? **
Shen Dou: Việc một mình Baidu hoàn toàn không thể làm được điều này. Không phải là tôi sợ mình không làm được mà là tôi tuyệt đối không làm được.
Trước hết, các plugin chắc chắn sẽ có một hệ sinh thái rất thịnh vượng và chúng sẽ bổ sung cho nhau bằng các mô hình lớn. Plug-in cần lấy lưu lượng truy cập từ các mô hình lớn và các mô hình lớn cần có sự hỗ trợ của khả năng plug-in, giống như ngày nay, giả sử không có WeChat hoặc Douyin trên điện thoại di động, người dùng có thể không sử dụng.
Thứ hai, về mặt các ứng dụng hướng đến khách hàng cuối, bất kể đó là triển khai đám mây riêng hay giải pháp cấp nền tảng như Qianfan, cuối cùng nó sẽ yêu cầu các đối tác sinh thái hoàn thành khâu phân phối chặng cuối, như Kingdee, UFIDA và iSoftStone. Họ có những khách hàng và quy trình kinh doanh đặc biệt quen thuộc và những yêu cầu cuối cùng sẽ được tích hợp vào đó.
Tóm lại, thứ nhất là sự tổng hợp các năng lực để phát triển hệ sinh thái, thứ hai là các đối tác giúp đưa ra các mô hình lớn và thứ ba là khách hàng sử dụng các mô hình lớn để củng cố dịch vụ của mình.
**H: Mô hình công nghệ của các mô hình lớn đã mang đến những thay đổi gì cho điện toán đám mây? **
**Shen Dou:**Xu hướng phát triển công nghệ ngày càng tiên tiến. Nói cách khác, chúng ta ngày càng rời xa lớp dưới cùng, ngày càng ít cần chú ý đến chi tiết, bao bì ngày càng tốt hơn và có một số lượng lớn người làm những công việc này ở hậu trường . Bản thân điều này cũng là giá trị do đám mây đóng góp.
Giá trị mà đám mây CPU đời đầu mang lại là khách hàng không cần phải mua máy riêng và đóng gói từng thẻ một mà được đóng gói ngày càng tốt hơn và có thể sử dụng trực tiếp trên đó. Với sự ra đời của thời đại mô hình lớn, GPU "chip tăng tốc AI" đã dần trở thành trung tâm của sức mạnh tính toán và tốc độ tăng trưởng sức mạnh tính toán vượt xa CPU. Điều này sẽ đẩy nhanh quá trình chuyển đổi của chúng tôi từ đám mây CPU sang đám mây GPU.
Trong kỷ nguyên của đám mây GPU, cuối cùng chúng ta sẽ gói gọn hơn nữa các khả năng của đám mây để lớp bên dưới không bị lộ ra ngoài, tạo thành một hình thức tương tác nâng cao hơn và kết nối trực tiếp với API của các mô hình lớn. Đám mây ngày nay vẫn được phát triển cho các kỹ sư và hình thức tương tác chưa đủ kỹ lưỡng, nhưng trong tương lai sẽ có ít kỹ sư ở cấp dưới hơn và sẽ có nhiều người lên cấp trên hơn. Đây là một sự thay đổi mạnh mẽ.
Đám mây thông minh Baidu | Nguồn ảnh: Visual China
**Hỏi: Liệu các mô hình lớn có định hình lại bối cảnh thị trường điện toán đám mây không? Nếu vậy, khi nào tôi có thể nhìn thấy tín hiệu? **
Shen Ji: Tôi thích câu hỏi này. Nếu không có các mô hình lớn, đám mây của Baidu sẽ rất khó vận hành. Trước đây, chúng tôi đã kêu gọi "đi sâu vào ngành, tập trung vào hiện trường, tích hợp đám mây và trí thông minh cũng như tính toàn diện của AI". Điều mà Baidu Smart Cloud muốn làm là đưa AI vào toàn bộ dịch vụ To B và biến nó thành một điểm tăng trưởng.
**Nhưng trước đây, AI truyền thống rất rời rạc. Nó cần tạo ra khả năng giải quyết vấn đề và sau đó giải quyết vấn đề đó, vì vậy tính linh hoạt của nó tương đối kém. Điều này dẫn đến việc nó trở thành một hệ thống dự án, khó mở rộng quy mô và có lợi nhuận gộp thấp. **
Sau khi Generative AI ra đời, chúng tôi thấy nó có tính linh hoạt rất tốt, có thể giải quyết nhiều vấn đề cùng một lúc, về cơ bản là thống nhất từ lớp ứng dụng trở xuống, ngay cả khi cần tinh chỉnh và plug-in thì chúng đều là những hành động được tiêu chuẩn hóa . Điều này hoàn toàn khác với các ứng dụng AI rất phân mảnh trước đây. Bản thân điều này đã là một sự thay đổi lớn trong kinh doanh trên nền tảng đám mây, cái gọi là IaaS đã trở thành MaaS.
**Q: Trước đây, các công ty AI của Trung Quốc phải thực hiện các dự án, điều này rất khó khăn. Vấn đề không thể được giải quyết thông qua các sản phẩm tiêu chuẩn hóa như chúng ta hiện nay. **
Shen Ji: Chúng tôi đã thảo luận về chiến lược đám mây với Robin (Lưu ý: Người sáng lập, chủ tịch và Giám đốc điều hành Baidu Robin Li), đồng thời anh ấy cũng yêu cầu chúng tôi tiêu chuẩn hóa và mở rộng quy mô, nếu không chúng tôi sẽ không thể phản ánh Baidu là một công ty công nghệ. giá trị.
**Q: Vậy tương lai lâu dài sẽ là về tiêu chuẩn hóa và quy mô? **
**Shen Ji: **Những ngày đầu, các mô hình lớn có rất nhiều điều không chắc chắn. Ngày nay, nhiều khách hàng không có hiểu biết thống nhất về giới hạn công suất, ranh giới, chi phí, phương thức giao hàng và nhu cầu của các mô hình lớn. Trong một khoảng thời gian ngắn, chúng tôi không thể đảm bảo rằng tất cả khách hàng sẽ đến với đám mây công cộng và trước tiên chúng tôi phải thực hiện điều đó thông qua hệ thống dự án.
Nhưng ngay cả hệ thống dự án như vậy cũng khác với hệ thống dự án trước đó. Ví dụ: nếu tôi đưa cho bạn một mô hình triển khai riêng thì nó giống Windows hoặc Office hơn, đầu tiên là phiên bản 95, sau đó là phiên bản 97, rồi đến phiên bản 2000. Bạn phải liên tục nâng cấp. Hình như tôi đưa cho bạn một đĩa CD để cài đặt ở nhà nhưng thực tế là bạn phải đăng ký tiếp. Điều này không giống với bản dựng ban đầu.
**Q: Nhưng tình hình tài chính của bạn đã được cải thiện. Trong quý đầu tiên của năm nay, Baidu Smart Cloud lần đầu tiên đạt được lợi nhuận hàng quý. Lý do bạn đề cập là do việc tiêu chuẩn hóa các dịch vụ đám mây, giúp tái sử dụng quy mô và giảm chi phí. **
Thẩm Ji: Vâng. Trong trường hợp hệ thống dự án thuần túy hoặc hệ thống dự án có tỷ trọng tương đối cao thì lợi nhuận gộp sau khi bàn giao quá thấp.
04 Sau hơn một năm phụ trách Baidu Cloud, chúng tôi có cơ hội tốt nhất
**Q: Với tư cách là thành viên trong nhóm ra quyết định hàng đầu của Baidu, vấn đề bạn quan tâm và lo lắng nhất là gì? Bạn thường xuyên thảo luận vấn đề gì với nhóm của mình? **
**Shen Dou: Về hình thức sản phẩm, Robin yêu cầu tất cả các sản phẩm phải được tái tạo bằng tư duy bản địa của AI. Đó là sự tái thiết, không phải sự hội nhập. **
Về mặt kỹ thuật, chúng tôi đang suy nghĩ xem khả năng của AI thế hệ ngày nay có thể phát triển cao hơn bao nhiêu. Kết quả đánh giá hiện tại của Wen Xinyiyan không tệ, nhưng nó còn cách xa giới hạn trên của ngôn ngữ con người hoặc khả năng hiểu ngôn ngữ con người xuất sắc. Làm thế nào chúng ta có thể tiếp tục cải thiện nhanh chóng khả năng này chắc chắn là câu hỏi đầu tiên chúng ta nghĩ đến.
Sau đó, về mặt ứng dụng trong ngành, mô hình có thể được sử dụng như thế nào, nó có thể được sử dụng trong những tình huống nào, ngưỡng sử dụng nó cao đến mức nào, ranh giới rộng bao nhiêu, hiệu quả của nó có thể được cải thiện như thế nào và nó có thể truyền cảm hứng như thế nào. mọi người hãy nghĩ đến cách sử dụng tốt hơn... Đây là những điều chúng ta cần phải tiếp tục suy nghĩ.
**Q: Đây là những lớp tương đối mềm, còn những lớp cứng hơn thì sao? **
Shen Dou: Ngày nay, các cụm sức mạnh tính toán đã tăng từ 1.000 thẻ lên 10.000 thẻ. Baidu là công ty duy nhất ở Trung Quốc thực sự có thể thực hiện một nhiệm vụ duy nhất ở cấp độ 10.000 thẻ.
Trong cụm Wanka, các nhiệm vụ cơ bản thực sự về tổ chức, hiệu quả và bảo mật là vô hình đối với mọi người, nhưng chúng cực kỳ quan trọng. Ví dụ: chúng ta cần cải thiện hiệu quả đào tạo và suy luận của phần cứng cơ bản cũng như sự tích hợp giữa phần mềm và phần cứng. Đây đều là những điều khá quan trọng.
**Q: Bạn đã phụ trách mảng kinh doanh tìm kiếm và quảng cáo tại Baidu trong nhiều năm, mãi đến năm ngoái, bạn mới đảm nhận mảng đám mây thông minh, bạn ngay lập tức bắt gặp cơ hội lịch sử của các mô hình lớn. Bạn có nghĩ đó là một phước lành? Bạn cảm thấy thế nào? **
Shen Dou: Không hề cường điệu chút nào nhưng tôi thực sự rất hào hứng và may mắn khi làm được điều như vậy.
Khi tiếp quản vào năm ngoái, tôi đã có ý tưởng mở rộng quy mô và tiêu chuẩn hóa (dịch vụ đám mây). Nhưng vì khả năng của AI quá rời rạc nên rất khó thực hiện được. **Lúc đó tôi đã suy nghĩ rất kỹ, liệu có thứ gì vừa đòi hỏi khả năng AI vừa sức mạnh tính toán của AI và có thể được nhiều người sử dụng cùng lúc không? Tôi không thể tìm thấy nó sau khi tìm kiếm một thời gian dài. **
Sau đó, các mô hình lớn xuất hiện. Đột nhiên cảm thấy thoải mái.
Shen Dou, phó chủ tịch điều hành của Tập đoàn Baidu và chủ tịch của Tập đoàn kinh doanh đám mây thông minh Baidu (ACG) | Nguồn ảnh: Baidu
**Q: Bạn đang học về trí tuệ nhân tạo, mô hình lớn có phù hợp với bạn hơn không? **
Shen Dou: Điều này rất giống với những gì tôi đã làm khi còn là nghiên cứu sinh. Mặc dù tôi luôn nghiên cứu về khoa học máy tính nhưng tôi đang làm việc nhiều hơn về phần mềm và trí tuệ nhân tạo.
Sau khi kết nối với đám mây (phần cứng cấp thấp), tôi thực sự đã đọc lại cuốn sách về hệ điều hành và nguyên tắc cấu tạo máy tính. Nếu thực sự là IaaS, các thành phần mạng và tính toán lưu trữ trong thời đại CPU, tôi nghĩ vẫn còn hơi khó khăn.
Nhưng sau khi mô hình lớn ra thì mình thấy những thứ đó đều được gói gọn bên dưới, hiện tại mình chủ yếu nghiên cứu về mô hình lớn như đọc báo, dùng Python để gọi API trên Qianfan, v.v. Tôi cảm thấy dễ dàng hơn nhiều.
**Hỏi: Tiếp theo, bạn kỳ vọng gì về tốc độ phát triển và tăng trưởng của Baidu Smart Cloud? **
**Shen Dou:**Baidu Smart Cloud hiện có giá trị gần 20 tỷ nhân dân tệ, vẫn còn tương đối nhỏ. Với sự hỗ trợ của các mô hình lớn, nhu cầu của khách hàng đã trở nên rất mạnh mẽ và giờ đây chúng tôi đã bị choáng ngợp. Tuy nhiên, vẫn cần có một quy trình để thực sự cho phép người dùng sử dụng và phân phối nó một cách tốt nhất.
**Q: Sẽ có một đợt bùng phát nhỏ trong quý 4 phải không? **
**Shen Ji:**Một số người ước tính rằng sẽ có một đợt bùng phát vào quý IV. Nhu cầu thực sự đã bắt đầu tăng lên, nhưng tôi nghĩ có thể phải đến năm sau nó mới bùng nổ.
**Q: Bạn đánh giá vận may của mình như thế nào? **
Shen Dou: Tôi nghĩ đây là sự may mắn của Baidu. Baidu đã làm AI rất nhiều năm và bỏ ra rất nhiều công sức cho nó, nếu không có những mô hình lớn, con đường thương mại hóa đám mây quả thực sẽ khó khăn và gian nan hơn. Điều này chỉ cho thấy rằng những công ty có Tầm nhìn cuối cùng sẽ không gặp xui xẻo.