Dialog dengan Shen Dou, Presiden Baidu Smart Cloud: Ada banyak model besar di pasaran saat ini, tetapi kebanyakan dari model tersebut akan hilang dengan cepat
Pada jam ke-24 setelah "Wen Xin Yi Yan" dirilis, Shen Dou masuk ke backend untuk melihat data dan menemukan bahwa Wen Xin Yi Yan telah menjawab "33,42 juta" pertanyaan dari pengguna.Jumlah ini melebihi ekspektasinya.
Dua hari kemudian, ketika Shen Dou duduk bersama beberapa awak media, termasuk saya, untuk membicarakan kejadian tersebut, dia berkata, "Awalnya kami mengira akan ada lebih sedikit orang yang menonton, tapi kami tidak menyangka antusiasme pengguna akan meningkat. tidak berkurang."
Pada bulan September, ketika kegilaan besar akan model di Tiongkok berlangsung selama setengah tahun, masyarakat awam akhirnya memiliki kesempatan untuk memulainya.
Mulai tanggal 31 Agustus, sejumlah model besar, termasuk "Wen Xin Yi Yan", telah didaftarkan dan resmi dibuka untuk umum. Kabar ini tak hanya membuat pengguna heboh untuk mencobanya, namun juga memicu respon antusias dari perusahaan. ** Shen Dou mengatakan bahwa pada hari pembukaan Wenxinyiyan, jumlah perusahaan aktif harian di platform model besar Baidu Smart Cloud Qianfan meningkat lebih dari 40%. ——Yang terakhir adalah platform pengembangan dan manajemen model besar yang diluncurkan oleh Baidu untuk perusahaan. **
Di era model besar, Baidu berharap dapat mempromosikan penggunaan model besar oleh individu dan perusahaan dalam jangka waktu yang sama. Dari perspektif makro, hal ini kondusif bagi mempopulerkan teknologi mutakhir pada model besar. Dari sudut pandang perusahaan, hal ini membantu Baidu menjalankan bisnisnya sendiri. Meskipun nilai komersial dari pengguna sisi-C tidak langsung terlihat, nilai komersial dari pelanggan sisi-B secara langsung tercermin dalam biaya penjadwalan model API dan pendapatan komputasi awan.
Pada Mei tahun lalu, Shen Dou, yang telah bertanggung jawab atas Baidu Mobile Ecosystem (MEG) selama bertahun-tahun, dipercaya memegang posisi penting sebagai presiden Baidu Smart Cloud Business Group (ACG). Harapan kelompok tersebut terhadapnya adalah memanfaatkan peluang di era AIGC dan menjadikan cloud cerdas ke dalam kurva pertumbuhan kedua Baidu.
Namun situasi yang dihadapi Shen Dou sangat sulit. Baidu bukanlah vendor komputasi awan terbesar di Tiongkok, namun menempati peringkat pertama dalam cloud publik untuk layanan terkait AI. Saat itu, Shen Dou juga berharap dapat menggunakan AI untuk mendorong pertumbuhan seluruh layanan cloud. Sayangnya, kemampuan AI pada saat itu terlalu "terfragmentasi" dan tidak dapat menghilangkan situasi biaya layanan yang tinggi saat ini. kesulitan dalam meningkatkan skala, dan keuntungan yang sedikit.
Namun beberapa bulan kemudian, era model besar tiba. Dari perspektif persaingan, layanan cloud dasar yang dulunya didominasi oleh IaaS (Infrastructure as a Service) dan PaaS (Platform as a Service) digantikan oleh layanan cloud seperti MaaS (Model as a Service) yang didominasi oleh AI. . Shen Dou percaya bahwa ini adalah kesempatan bagi Baidu Smart Cloud untuk "menyalip di tikungan".
Dari perspektif pendapatan, kemampuan universal model besar memungkinkan layanan cloud menjadi lebih terstandarisasi, memungkinkan penggunaan kembali dalam skala besar dalam berbagai skenario, mengurangi biaya layanan dan meningkatkan keuntungan. Karena alasan inilah manajemen Baidu mengatakan kepada investor pada laporan pendapatan kuartal kedua tahun 2023 bahwa AI dan model besar akan memungkinkan Baidu Intelligent Cloud mencapai margin keuntungan yang lebih tinggi.
**Berikut ini adalah teks lengkap percakapan kami dengan Shen Dou yang diselenggarakan oleh Geek Park. **
Sumber gambar: Dihasilkan oleh AI Tanpa Batas
01 Wenxinyiyan di sisi C, platform Qianfan di sisi B, dua sisi kesuksesan
**Q: Setelah menyaksikan keseruannya, saatnya melakukan sesuatu yang praktis. Dua hari lalu, Baidu membuka Wen Xinyiyan di sisi C. Apa pendapat Anda tentang data penggunaan pengguna ini? Diharapkan atau tidak terduga? Apa kemampuan operasi dan pemeliharaan latar belakangnya? **
Shen Dou: Saya mengirimkan data ke grup pada pukul 12:30 malam itu, dan rekan saya merilis datanya keesokan harinya. Data tersebut saya cegat dari sistem dan disajikan ke dunia luar secara utuh, dan ini sepenuhnya benar.
Awalnya kami mengira lebih sedikit orang yang "menonton keseruannya", jadi ekspektasi kami tidak terlalu tinggi. Di luar dugaan, terdapat 33,42 juta respon pada hari itu, yang menunjukkan bahwa pengguna memiliki ekspektasi yang tinggi terhadap Wen Xinyiyan. Setiap orang tidak datang untuk mengajukan satu atau dua pertanyaan lalu pergi, tetapi melakukan banyak dialog. Dari sudut pandang ini, antusiasme pengguna masih ada.
Wen Xinyiyan telah menjalani pengujian internal selama lima atau enam bulan sejak 16 Maret, yang memberi kami banyak waktu persiapan, baik dalam hal peningkatan efek maupun pengurangan biaya. Misalnya, kecepatan inferensi model besar Wenxin telah meningkat lebih dari 30 kali lipat dibandingkan dengan model aslinya, sehingga sangat mengurangi biaya inferensi dan memungkinkan kami menangani pengguna dalam jumlah besar.
**T: Jadi kemajuan teknologi model besar Baidu selama periode ini juga mencakup kemajuan biaya? **
Shen Ji: Ya, model besar itu sendiri adalah paradigma teknis yang intensif sumber daya.
Kami tidak mengharapkan lalu lintas yang begitu besar pada awalnya, dan sumber daya mesin (daya komputasi) itu sendiri sangat berharga. Kami merasa akan sia-sia jika menempatkan terlalu banyak mesin di sana, jadi kami tidak menempatkan terlalu banyak mesin tambahan. . Setelah peningkatan jumlah pengguna pada hari itu, untungnya, karena kinerja alasan kami meningkat, kami masih memberikan layanan yang stabil kepada pengguna.
Kami juga memiliki cadangan daya komputasi yang baik, dan kami akan terus mengurangi biaya pelatihan dan penalaran di masa mendatang, sehingga tidak ada masalah dalam memenuhi kebutuhan pengguna. Saat itu, kami berdiskusi di grup internal kami apakah lalu lintas bisa dilawan. Saya mengatakan bahwa membuat lalu lintas menjadi lebih padat adalah masalah kebahagiaan.
**T: Apa manfaat rilis Wenxin Yiyan di sisi C untuk Baidu? **
Shen Dou: Yang mungkin Anda khawatirkan adalah apakah keterbukaan terhadap sisi C akan berkelanjutan jika tidak dapat memberikan nilai komersial.
Faktanya, selama benar-benar menciptakan nilai bagi pengguna, komersialisasi hanya tinggal menunggu waktu saja. Dalam sejarah perkembangan teknologi, sangat sedikit contoh yang berharga namun sulit diwujudkan. Wen Xinyiyan memang memberikan nilai nyata bagi pengguna C-end. Kemarin saya melihat beberapa komentar yang mengatakan bahwa tanpa Wenxinyiyan, efisiensi kantornya akan menurun. Oleh karena itu, selama bernilai, komersialisasi Wenxinyiyan di masa depan akan terjadi secara alami.
**T: Apakah bentuk produk C-end pada model besar Tiongkok akan konsisten dengan ChatGPT? Apakah itu biaya berlangganan? **
Shen Ji: Masih terlalu dini untuk membicarakan bentuk produk model besar, dan definisinya belum begitu jelas.
Ketika Internet seluler mulai muncul, kita dapat menggunakan beberapa kata kunci untuk mendefinisikannya dengan jelas, seperti SoLoMo (Sosial, Lokal, Seluler, menggunakan media sosial, layanan geolokasi, dan perangkat terminal seluler untuk memberikan pengalaman pengguna yang lebih baik). Namun saat ini model besar tersebut tidak dapat didefinisikan dengan beberapa kata yang jelas. Kemampuannya lebih kuat, tetapi batasannya juga lebih luas, dan masih jauh dari waktu untuk menyatu pada bentuk produk.
OpenAI adalah perusahaan yang digerakkan oleh teknologi, dan pengalaman pengguna bukanlah keunggulannya. Bentuk produk yang dirancangnya saat ini masih sangat awal, dan kecepatan iterasi pada produk berikutnya akan sangat cepat, dan bentuk akan berubah secara drastis.
**T: Apakah model bisnis ChatGPT yang mengenakan biaya berlangganan dari pengguna C-end dapat dilakukan di Tiongkok? **
Shen Dou: Kami mungkin mengembangkan metode monetisasi baru, seperti tiga metode monetisasi umum yaitu periklanan, e-commerce, dan game.
Jika Anda bersedia mengeluarkan 2.000 yuan sebulan untuk menyewa seorang asisten, maka AI dapat melakukan 1/10 tugas asisten tersebut, seperti membantu Anda membuat rencana perjalanan, memesan tiket pesawat dan hotel, dan bahkan memobilisasi perangkat lunak taksi dan pengiriman makanan , maukah Anda bersedia mengeluarkan dua ratus dolar? Hanya saja cara realisasinya belum tentu iuran keanggotaan, bisa berupa komisi transaksi atau cara lainnya.
Contoh lainnya, sekumpulan karakter NPC dalam game digerakkan oleh AI generatif, dan siaran langsung "orang digital" di bidang e-commerce juga didukung oleh AI generatif, yang dapat menghasilkan metode monetisasi yang berbeda. Pada akhirnya, bentuk produk sisi-C menentukan metode monetisasinya.
**T: Jika produk C-end pada akhirnya merupakan alat produktivitas, mungkinkah perusahaanlah yang membayarnya, bukan individu yang membayarnya? **
Shen Dou: Itu mungkin. Misalnya, Baidu Netdisk juga dapat dianggap sebagai alat efisiensi, dan banyak perusahaan akan membeli akun Netdisk untuk digunakan oleh karyawannya. Kami juga telah menghubungi perusahaan dan menugaskan setiap karyawan akun Copilot untuk menulis program. Ini semua merupakan kasus di mana perusahaan menanggung tagihan untuk individu.
Antarmuka "Wen Xin Yi Yan".
**T: Sebagai perusahaan konten, kami juga secara khusus ingin menggunakan model besar untuk memproduksi artikel. Anda baru saja meluncurkan platform layanan model skala besar "Qianfan" milik To B. Apa latar belakang peluncuran "Qianfan"? Bagaimana kami dapat membantu perusahaan yang tidak memiliki pemrogram untuk menerapkan model besar? **
**Shen Dou:**Ini pertanyaan yang sangat bagus. Faktanya, inilah alasan kami membuat Platform Qianfan.
Karakteristik model besar yang diterapkan di sisi B adalah perusahaan besar yang memimpin, dan banyak pelanggannya adalah lembaga keuangan, lembaga energi, lembaga pendidikan, dll. Mereka memiliki fitur yang jelas bahwa mereka perlu diterapkan secara pribadi, tetapi ambang batasnya sangat tinggi, dan mereka harus melatih sekelompok teknisi untuk melakukan iterasi model, yang mungkin memperlambat waktu agar model besar dapat diterapkan.
Sebaliknya, seperti banyak perusahaan kecil dan menengah, ada kemungkinan besar Anda tidak akan menolak produk SaaS (berbasis platform), dan Anda juga tidak akan menolak cloud publik. Platform Qianfan adalah produk semacam itu. Perusahaan dapat langsung memanggil API di dalamnya, atau melatih sampel untuk penyesuaian, dan membuat model mereka sendiri dengan hampir tanpa kode. **Tujuan Qianfan kami adalah untuk menurunkan ambang penerapan model besar dan mempromosikan penerapan model besar secara luas. **
**T: Tampaknya Anda dan OpenAI memiliki jalur yang berbeda. OpenAI pertama-tama meluncurkan produk sisi-C ChatGPT, dan kemudian secara perlahan meluncurkan produk-produk sisi-B, sementara Baidu mengembangkan produk-produk sisi-C dan sisi-B secara bersamaan. Mengapa ada perbedaan ini? **
**Shen Dou: **Semua teknologi memiliki masalah penerimaan, dan lebih banyak pengguna harus benar-benar menggunakannya dan menemukan manfaatnya. Semua orang membicarakan model besar, tapi berapa banyak orang yang benar-benar menggunakan model besar? Pelanggan perusahaan sisi-B lebih sadar akan potensi dampak model besar terhadap keseluruhan paradigma produksi mereka, dan mereka perlu lebih sering menggunakannya.
Namun jika mereka tidak menggunakan API cloud publik atau menyiapkan lingkungan mereka sendiri untuk merasakan dan mencobanya, maka mereka hanya sekedar membayangkan hal-hal di sana. Jadi kita perlu membuat Qianfan dan membiarkan mereka menggunakan model besar terlebih dahulu. Padahal, soal full opening model besar, sisi C sudah lama menunggu, dan sisi B juga sudah menunggu lama. Hanya saja sisi B lebih mendekati komersialisasi.
**T: Setelah Wenxin melepaskannya, seberapa besar permintaan sisi B platform Qianfan didorong? **
Shen Ji: Pada hari pembukaan Wenxin Yiyan, jumlah perusahaan aktif harian di platform model skala besar Baidu Smart Cloud Qianfan meningkat lebih dari 40%.
Relaksasi tidak hanya akan menaikkan data di sisi C, tetapi juga akan menaikkan data di sisi B. Karena ini akan membantu perusahaan sisi B mengurangi biaya dan mempercepat iterasi (catatan: menggunakan model dalam negeri lebih murah dan nyaman).
Namun dalam hal pertumbuhan data, sisi B saat ini tidak sebaik sisi C. Saat ini, misalkan seseorang ingin menggunakan "Wen Xin Yi Yan" di sisi B. Daripada memanggil API, dia sebaiknya pergi ke sisi C untuk mencobanya terlebih dahulu. Jika menurutnya pengalamannya bagus, dia akan menggunakannya pada Qianfan. Mendapatkan sisi-B untuk digunakan memerlukan proses budidaya.
**Q: Jika sisi C dan sisi B berjalan beriringan, bagaimana cara mengatur prioritasnya? Apakah fokusnya terutama pada sisi C atau sisi B? **
Shen Shake: Prioritas perlu ditetapkan hanya ketika ada konflik sumber daya. Ciri khas dari model besar ini adalah ia memiliki lapisan yang sangat tebal di bagian bawah yang bersifat universal, sehingga menemukan penerapan di dalamnya, baik itu To B atau To C, adalah hal yang ingin dilakukan Baidu secara bersamaan. Tidak sampai pada konflik sumber daya.
Di sisi C, Baidu secara aktif meneliti bentuk produk dan model bisnis yang dapat diimplementasikan dalam model besar. Baidu perlu merekonstruksi produk C-endnya berdasarkan model yang besar, misalnya dilihat dari data produk Baidu sendiri, Baidu Netdisk, Perpustakaan Baidu, dan produk lainnya, setelah rekonstruksi berdasarkan model besar, tingkat keterikatan pengguna dan pembayaran keanggotaan sangat tinggi. Peningkatan; APP Wenxin Yiyan yang baru dibangun dan pencarian Baidu yang direkonstruksi juga menjadi pintu masuk baru untuk aplikasi model skala besar. Di sisi B, Baidu Smart Cloud melayani pasar To B dengan baik dengan menciptakan platform model skala besar terbaik.
**T: Faktanya, basis paling universal adalah komputasi awan Anda. Baik Anda melayani pelanggan internal atau eksternal, itu adalah kesuksesan Anda. **
Shen Dou: Ya, jika Anda melayani pelanggan internal dengan baik, Anda akan melayani pelanggan eksternal dengan baik. Jika Anda melayani pelanggan eksternal dengan baik, Anda akan melayani pelanggan internal dengan baik. Inilah keindahan MaaS. Jika tidak, dengan asumsi bahwa tumpukan teknologi eksternal dan internal seluruhnya merupakan dua set, biayanya akan terlalu tinggi.
Kami berjalan dengan dua kaki. Tentu saja, Baidu berharap dapat membuat produk To C yang laris, namun kami juga sangat bersedia mendukung lebih banyak perusahaan dan pengembang untuk membuat aplikasi To C yang baik melalui model besar dan daya komputasi yang mendasarinya. Faktanya, siapa pun yang berhasil di atas, itu adalah keberhasilan model yang mendasarinya.
02 Model besar memulai kompetisi eliminasi brutal, dan masa depan model open source mengkhawatirkan
**Q: Selain Wen Xinyiyan, platform Qianfan juga meluncurkan model lain. Apa perbedaan antara Qianfan dan platform agregasi model seperti Hugging Face? **
Shen Dou: Saat ini atau di masa yang akan datang, perusahaan berharap untuk mencoba model yang berbeda, baik karena kemampuan adaptasi model atau kebutuhan psikologis pelanggan. Dari perspektif ini, kami juga perlu menyediakan model pihak ketiga.
Namun tidak semua model layak untuk dicoba, dan hal tersebut akan membuang-buang sumber daya. Oleh karena itu, Qianfan memiliki prinsip penyaringannya sendiri, dan semua model yang kami buat adalah model yang relatif bagus dan mudah digunakan.
**Q: Jadi Hugging Face diposisikan sebagai komunitas, dan Qianfan diposisikan sebagai platform? **
Shen Dou: Benar. Qianfan tidak hanya memecahkan masalah Anda dalam memilih model, tetapi juga memecahkan masalah Anda dalam menggunakan model tersebut. Penggunaannya mencakup serangkaian masalah seperti data, pelatihan, penyetelan, teknik, dan konstruksi aplikasi.Biaya dan efisiensi juga harus dipertimbangkan sepenuhnya. Qianfan menyediakan layanan satu atap, itulah perbedaan antara Qianfan dan Hugging Face.
Model wajah Hugging memiliki cakupan yang cukup, dan mengandalkan keunggulan alami dari vendor cloud, Qianfan memiliki cukup ruang untuk pengoperasian, dan juga dapat mencapai pelatihan end-to-end dan optimalisasi kinerja inferensi. Misalnya, percepatan dalam proses pelatihan, persepsi cepat, lokasi, dan pemulihan kesalahan; dalam proses penalaran, berdasarkan skalabilitas cluster komputasi heterogen besar Baidu, ia memiliki elastisitas sumber daya yang sangat baik dan juga dapat menyediakan layanan tanpa server, memungkinkan pelanggan untuk mendapatkan biaya Infrastruktur berbiaya rendah, tidak memerlukan operasi dan pemeliharaan, dan manfaat skalabilitas yang tinggi. Di sinilah Qianfan melangkah lebih dalam dari Memeluk Wajah.
Platform model skala besar Baidu Smart Cloud Qianfan | Sumber gambar: Situs web resmi Baidu Smart Cloud
**T: Tampaknya Anda tidak terlalu optimis dengan model open source, namun open source mengurangi biaya penerapan model besar untuk perusahaan, sehingga tidak dapat dikatakan bahwa hal tersebut tidak ada artinya. Apa pendapat Anda sebenarnya tentang model sumber terbuka? **
**Shen Ji:**Anda mengatakan siapa yang akan menanggung biaya LLaMA (Catatan: model sumber terbuka Facebook)? Itu Facebook. Siapa yang akan berbagi biaya Facebook? **Jika Anda tidak dapat menemukan akhir dari masalah ini, maka (open source) adalah air tanpa sumber, pohon tanpa akar, dan suatu saat akan ada masalah. **
Karena ini berbeda dengan software open source tradisional, dulu investasi seseorang pada open source adalah mengorbankan waktunya sendiri. Namun saat ini, jika seseorang ingin mengembangkan model open source yang besar, biaya mesin dan datanya terlalu tinggi.
**T: Anda dapat menggunakan cinta untuk menghasilkan listrik, tetapi Anda tidak dapat menggunakan cinta untuk menghitung. **
Shen Ji: Ya, Anda harus mengeluarkan puluhan juta untuk satu putaran pelatihan.
Saat ini, terdapat kemiripan dengan metode open source tradisional, semuanya menggunakan open source untuk menarik perhatian pengguna, dan pada akhirnya berharap untuk memilih model besar (closed source) lainnya.
**T: Apakah mungkin untuk memiliki hubungan serupa dengan Red Hat dan IBM (Catatan: Pada tahun 2018, IBM mengumumkan akuisisi Red Hat, perusahaan open source terbesar di dunia)? Bagaimana jika pemilik bisnis kaya seperti IBM bersedia mendukung open source? Dengan cara ini, open source akan mendapat dukungan finansial dan data. **
Shen Dou: Open source pasti akan ada sejak lama. Ketika model-model besar mendapat lebih banyak perhatian, pemerintah dan perusahaan dapat menyumbang untuk mendukung penelitian di bidang ini dan mempromosikan pendidikan di seluruh pasar. Namun seberapa berhargakah hal itu pada akhirnya? Saya pikir kemungkinan besar hal ini tidak akan menjadi arus utama, juga tidak akan membentuk model bisnis loop tertutup yang lengkap.
Pengembangan perangkat lunak tradisional dapat membentuk lingkaran tertutup. Misalnya, jika Anda menulis sepotong kode atau meningkatkan suatu fungsi, Anda dapat dengan cepat check in (check in), dan kemampuan seluruh perangkat lunak sumber terbuka akan ditingkatkan satu lapisan. Namun setelah LLaMA dirilis hari ini, tidak peduli berapa banyak orang yang menggunakannya, tidak dapat dicek, data tidak dapat dikembalikan, daya komputasi tidak dapat dikembalikan, dan kemampuan tidak dapat dikembalikan, sehingga loop tertutup tidak dapat terbentuk. .
**T: Banyak sekolah open source yang percaya bahwa model open source telah membaca triliunan parameter. Meskipun tidak sebaik model sumber tertutup, namun masih sangat berguna. Sama seperti modelnya sendiri yang tidak memiliki tingkat kelulusan 985 dan 211, namun setidaknya merupakan tingkat profesional yang dapat digunakan untuk fine-tuning yang lebih vertikal. **
Shen Dou: Haruskah Model Fondasi ditingkatkan? Kalau Model Fondasi yang ada saat ini sudah sangat bagus dan tidak perlu diubah, maka tidak ada masalah. Namun situasi saat ini Model Fondasi hanya mendapat skor 60, dan kita harus berusaha keras untuk mencapai skor 90 atau 95.
**T: Mengapa ada kemajuan? Perasaan sebenarnya dari banyak perusahaan adalah bahwa GPT3.0 sudah dapat memecahkan masalah tersebut, lalu apa pentingnya kemajuan? **
Shen Ji: Ini adalah pertanyaan yang sangat bagus, dan kami telah mendiskusikannya secara internal. Saat ini, Model Fondasi dapat menyelesaikan sebagian besar masalah dengan skor 60, namun masih jauh dari solusi sempurna. Dan tuntutan sifat manusia adalah, selama Anda mengizinkan saya menyelesaikannya sekali, saya pasti tidak akan melakukannya dua kali.
Hari ini, hanya berdasarkan 60 poin dalam Model Fondasi, Anda telah melatih 85 poin. Setelah itu Foundation Model mencapai 85 poin, apakah bisa mendapat 95 poin? Tidak ada batasan dalam upaya manusia dalam hal ini.
Batasan ini pasti akan terus didorong ke atas. Ambil contoh penelusuran, penelusuran lebih dari 20 tahun yang lalu dapat digunakan, lalu apa yang telah dilakukan Google selama lebih dari 20 tahun? Sepertinya Anda sudah selesai, tetapi ternyata belum.
**Q: Bagaimana Anda melihat pola persaingan model besar di masa depan? **
Shen Dou: Ada banyak model di pasaran saat ini, tapi menurut saya banyak di antaranya yang akan hilang dengan cepat.
Alasan mengapa banyak model masih ada hingga saat ini adalah karena banyak orang yang tidak mengetahui apakah model tersebut baik atau buruk. Lagi pula, tidak ada yang bisa mencobanya, tidak ada yang bisa menggunakannya, dan peringkat pada tes pertama cukup tinggi. Namun dengan dirilisnya model tersebut, lebih mudah untuk menilai pro dan kontra. Saat ini, mereka yang membuat model besar, jika Anda memberi mereka 30 juta pertanyaan untuk dimasukkan dan dicoba, diperkirakan lebih dari setengahnya harus turun.
Hal ini akan menyebabkan konsentrasi lalu lintas secara bertahap, sehingga memudahkan model kepala untuk membentuk skala ekonomi, sehingga semakin mengamortisasi biaya pengembangan model. Kesenjangan ini akan semakin melebar.
**Q: Kapan babak sistem gugur akan dimulai? **
Shen Dou: Sulit untuk mengatakannya, lagipula, mungkin perlu waktu bagi semua orang untuk mengumpulkan uang. Bagi perusahaan besar, biaya pembakarannya masih terjangkau, namun juga bergantung pada nilai pembakarannya. Beberapa perusahaan memiliki banyak skenario aplikasi, jadi mereka pasti tidak akan membiarkan mereka menyesuaikan API model besar milik orang lain saat ini, jadi mereka pasti akan membuat model sendiri. Baik atau buruk (tidak masalah), setidaknya tidak harus bergantung pada pihak luar. Perusahaan besar akan terus membuat model untuk beberapa waktu.
03 Model besar memungkinkan layanan komputasi awan bergerak menuju "standarisasi", dan Baidu Cloud akhirnya menghasilkan uang
**T: Apakah model besar akan menjadi basis untuk semua aplikasi di masa depan? Akankah hal ini menciptakan ekosistem pengembangan dan aplikasi yang benar-benar berbeda? **
Shen Dou: Tidak ada keraguan bahwa model besar akan menjadi era baru sistem operasi dan menjadi basis bagi banyak aplikasi.
Sejak lama, manusia telah menggunakan bahasa sebagai instruksi ketika berhadapan dengan manusia dan mesin. Namun di masa lalu, mesin tidak memahami bahasa alami, jadi kami menulis seperangkat bahasa pemrograman agar dapat dipahami. Kini setelah model besar memahami bahasa alami, seluruh paradigma pengembangan aplikasi telah berubah secara mendasar. Perkembangan menjadi didorong oleh kreativitas daripada kemampuan kode.
Selain itu, model berukuran besar juga memiliki kemampuan untuk menghubungkan sistem secara seri. Seperti munculnya plug-in, yaitu komponen yang secara mandiri menyelesaikan kemampuan tertentu dan menunggu dipanggil, model besar dapat menggabungkan plug-in untuk menyelesaikan tugas tertentu. Hal ini akan semakin mengubah paradigma pembangunan.
**T: Jika model besar dapat menyelesaikan masalah melalui semua plug-in, apakah interkoneksi ini terselubung? **
Shen Ji: Sebenarnya masih belum ada. Faktanya, APP-APP tersebut kini juga ada di ponsel yang sama dan program aplikasi yang sama, dan masih belum mewujudkan interkoneksi. Nantinya, berdasarkan model besar, Meituan dan Didi akan terhubung, namun mereka tetap tidak berkomunikasi satu sama lain.
**T: Masalah mendasar belum terselesaikan. **
Shen Ji: Ya, interkoneksi harus mengacu pada konektivitas data. Saya dapat mengakses data Anda dan Anda dapat mengakses data saya. Namun dalam basis model yang besar, kami hanya ingin berkomunikasi dengan hub ini, tetapi plugin kami tidak berkomunikasi satu sama lain.
**T: Apakah situasi non-interkoneksi ini menyebabkan pengembang tidak dapat menerapkan penjadwalan lintas sumber daya dengan lancar? Mungkinkah ini merupakan cacat dalam ekologi pengembangan model skala besar di Tiongkok? **
Shen Dou: Saya rasa alasan utamanya adalah belum adanya liberalisasi dan skala lalu lintas yang belum meningkat. Misalnya, Wen Xinyiyan tiba-tiba memiliki lebih dari 30 juta lalu lintas, pengembang menghitung mungkin 1% adalah miliknya, yang berarti ada 300.000 kunjungan, dan dia akan memutuskan untuk melakukannya.
**T: Di era model besar, bagaimana Baidu Cloud menentukan posisinya dalam ekosistem? Bagaimana cara mendistribusikan mekanisme manfaat? **
Shen Ji: Sangat mustahil melakukannya dengan kekuatan Baidu. Bukannya aku takut tidak mampu melakukannya, tapi aku pasti tidak mampu melakukannya.
Pertama-tama, plug-in pasti akan memiliki ekosistem yang sangat makmur, dan mereka akan saling melengkapi dengan model-model besar. Plug-in perlu mendapatkan traffic dari model besar, dan model besar memerlukan dukungan kemampuan plug-in.Seperti saat ini, jika tidak ada WeChat atau Douyin di ponsel, pengguna tidak boleh menggunakannya.
Kedua, dalam hal aplikasi yang berorientasi pada pelanggan akhir, tidak peduli apakah itu penerapan cloud pribadi atau solusi tingkat platform seperti Qianfan, pada akhirnya akan memerlukan mitra ekologis untuk menyelesaikan pengiriman jarak jauh, seperti Kingdee, UFIDA, dan iSoftStone. Mereka memiliki pelanggan dan proses bisnis yang familiar, dan persyaratan akhir akan diintegrasikan olehnya.
Singkatnya, yang pertama adalah agregasi kemampuan untuk mengembangkan ekologi, yang kedua adalah mitra yang membantu mewujudkan model-model besar, dan yang ketiga adalah pelanggan yang menggunakan model-model besar untuk memperkuat layanan mereka sendiri.
**T: Perubahan apa yang dibawa oleh paradigma teknologi model besar ke komputasi awan? **
**Shen Ji:**Konteks perkembangan teknologi semakin maju. Dengan kata lain, semakin jauh dari lapisan bawah, semakin sedikit perhatian terhadap detail, semakin baik enkapsulasinya, dan ada banyak orang di belakang layar yang melakukan pekerjaan ini. Ini sendiri juga merupakan nilai dari kontribusi cloud.
Nilai yang disumbangkan oleh CPU cloud awal adalah pelanggan tidak perlu membeli mesin mereka sendiri dan menggabungkannya dengan kartu satu per satu, karena dikemas lebih baik dan lebih baik serta dapat digunakan langsung di dalamnya. Dengan munculnya era model besar, GPU "chip akselerasi AI" secara bertahap menjadi pusat daya komputasi, dan tingkat pertumbuhan daya komputasi jauh melebihi CPU. Ini akan mempercepat peralihan kita dari cloud CPU ke cloud GPU.
Di era GPU cloud, pada akhirnya kami akan merangkum lebih lanjut kemampuan cloud sehingga lapisan di bawahnya tidak terekspos, membentuk bentuk interaksi yang lebih maju dan langsung terhubung ke API model besar. Cloud saat ini masih dikembangkan untuk para insinyur, dan bentuk interaksinya belum cukup menyeluruh, namun di masa depan akan ada lebih sedikit insinyur di tingkat bawah, dan lebih banyak orang akan naik ke tingkat atas. Ini adalah perubahan drastis.
Baidu Smart Cloud | Sumber gambar: Visual China
**T: Apakah model besar akan membentuk kembali struktur pasar komputasi awan? Jika ya, kapan kita akan melihat sinyalnya? **
Shen Ji: Saya suka pertanyaan ini. Tanpa model berukuran besar, cloud Baidu akan sangat sulit dioperasikan. Di masa lalu, kami telah meneriakkan "Industri yang mendalam, fokus pada skenario, integrasi cloud dan kecerdasan, serta AI yang inklusif." Yang ingin dilakukan Baidu Smart Cloud adalah memasukkan AI ke dalam seluruh layanan To B dan menjadikannya sebuah titik pertumbuhan.
**Namun di masa lalu, AI tradisional sangat terfragmentasi. Hal ini perlu menghasilkan kemampuan untuk suatu masalah, dan kemudian menyelesaikan masalah ini, yang memiliki fleksibilitas yang buruk. Akibatnya, ini adalah sistem proyek yang sulit untuk diukur dan memiliki laba kotor yang rendah. **
Setelah AI generatif keluar, kami melihat bahwa AI ini sangat serbaguna dan dapat menyelesaikan banyak masalah sekaligus. Pada dasarnya, AI ini disatukan dari lapisan aplikasi ke bawah. Meskipun memerlukan penyempurnaan atau plug-in, ini adalah tindakan yang terstandarisasi. Ini sangat berbeda dengan aplikasi AI sebelumnya yang sangat terfragmentasi. Hal ini sendiri merupakan perubahan besar dalam bisnis cloud, dan apa yang disebut IaaS telah menjadi MaaS.
**T: Di masa lalu, perusahaan AI di Tiongkok selalu harus mendapatkan proyek, dan hal ini sangat sulit. Tidak mungkin menyelesaikan masalah melalui produk yang terstandarisasi seperti sekarang. **
Shen Dou: Kami mendiskusikan strategi cloud dengan Robin (Catatan: pendiri, ketua, dan CEO Baidu Robin Li) pada saat itu. Dia juga meminta kami untuk melakukan standarisasi dan penskalaan, jika tidak, Baidu tidak akan dapat mencerminkan Baidu sebagai sebuah teknologi perusahaan.nilai.
**T: Jadi masa depan jangka panjang adalah tentang standardisasi dan skala? **
**Shen Ji: **Model besar memiliki banyak ketidakpastian di masa-masa awal. Saat ini, banyak pelanggan tidak memiliki pemahaman terpadu tentang batas kapasitas, batasan, biaya, pengiriman, dan metode permintaan model besar. Dalam waktu singkat, kami tidak dapat menjamin bahwa semua pelanggan akan datang ke cloud publik, dan kami harus melakukannya terlebih dahulu melalui sistem proyek.
Namun sistem proyek ini pun berbeda dengan sistem proyek sebelumnya. Misalnya, saya punya model penerapan yang diprivatisasi untuk Anda, lebih mirip Windows atau Office, pertama versi 95, lalu versi 97, dan kemudian versi 2000. Anda harus terus memutakhirkan. Sepertinya saya sudah memberikan Anda CD untuk ditaruh di rumah Anda, namun nyatanya Anda harus berlangganan terus menerus. Ini juga berbeda dengan aslinya.
**Q: Tapi keuangan Anda sudah membaik. Pada kuartal pertama tahun ini, Baidu Smart Cloud meraih laba kuartalan untuk pertama kalinya. Alasan yang Anda sebutkan adalah standarisasi layanan cloud, yang mewujudkan penggunaan kembali skala dan mengurangi biaya. **
**Shen Dou:**Ya. Dalam kasus sistem proyek murni atau proporsi sistem proyek yang relatif tinggi, laba kotor setelah penyerahan terlalu rendah.
04 Setelah mengambil alih Baidu Cloud selama lebih dari setahun, kami memiliki peluang terbaik
**T: Sebagai anggota tingkat pengambilan keputusan tertinggi di Baidu, apa yang paling Anda khawatirkan dan cemaskan? Masalah apa yang sering Anda diskusikan dengan tim Anda? **
**Shen Dou: Dalam hal bentuk produk, Robin memiliki persyaratan bahwa semua produk harus direkonstruksi menggunakan pemikiran asli AI. Ini refactoring, bukan akses. **
Secara teknis, kami memikirkan seberapa tinggi kemampuan AI generatif saat ini. Hasil evaluasi Wen Xinyiyan saat ini tidak buruk, tetapi jauh dari batas atas bahasa manusia atau pemahaman bahasa manusia yang sangat baik. Bagaimana kita dapat terus meningkatkan kemampuan ini dengan cepat jelas merupakan pertanyaan pertama yang kita pikirkan.
Lalu ada aplikasi industrinya, bagaimana model tersebut benar-benar dapat digunakan, dalam skenario apa model tersebut dapat digunakan, seberapa tinggi ambang batasnya, seberapa lebar batasannya, bagaimana meningkatkan efisiensinya, bagaimana menginspirasi semua orang untuk memikirkan penggunaan yang lebih baik. ... Ini adalah hal-hal yang perlu terus kita pikirkan.
**Q: Lapisan ini relatif lunak, bagaimana dengan lapisan yang lebih keras? **
Shen Ji: Sekarang cluster daya komputasi berkisar dari 10.000 kartu hingga 10.000 kartu. Baidu adalah satu-satunya perusahaan di Tiongkok yang dapat menjalankan satu tugas pada tingkat 10.000 kartu.
Di bawah cluster Wanka, pengorganisasian, efisiensi, dan jaminan adalah tugas-tugas tingkat bawah yang nyata yang tidak terlihat oleh semua orang, tetapi mereka sangat penting. Misalnya, kami ingin meningkatkan efisiensi pelatihan dan penalaran perangkat keras yang mendasarinya serta integrasi perangkat lunak dan perangkat keras. Ini semua adalah hal yang sangat penting.
**T: Anda telah bertanggung jawab atas bisnis pencarian dan periklanan di Baidu selama bertahun-tahun, dan baru pada tahun lalu Anda mengambil alih smart cloud, dan Anda segera menemukan peluang historis untuk model besar. Apakah menurut Anda itu sebuah berkah? Bagaimana perasaanmu? **
Shen Ji: Ini tidak berlebihan, tapi saya sangat bersemangat dan beruntung bisa melakukan hal seperti itu.
Ketika saya mengambil alih tahun lalu, saya memiliki ide untuk menskalakan dan menstandardisasi layanan cloud. Namun karena kemampuan AI sangat terfragmentasi, hal ini sangat sulit dilakukan. **Saat itu saya berpikir keras, apakah ada sesuatu yang membutuhkan kemampuan AI dan daya komputasi AI, serta dapat digunakan oleh banyak orang dalam waktu bersamaan? Saya tidak dapat menemukannya setelah lama mencari. **
Kemudian, model besar itu muncul. Rasanya tepat sekali.
Shen Dou, wakil presiden eksekutif Baidu Group dan presiden Baidu Intelligent Cloud Business Group (ACG) | Sumber gambar: Baidu
**T: Anda sedang mempelajari kecerdasan buatan. Apakah model besar lebih cocok dengan Anda? **
Shen Ji: Ini sangat mirip dengan apa yang dilakukan mahasiswa pascasarjana saya. Meskipun saya telah mempelajari komputer, saya telah mempelajari lebih banyak perangkat lunak, dan saya telah mempelajari kecerdasan buatan.
Setelah menerima cloud (perangkat keras tingkat rendah) pada waktu itu, saya benar-benar membaca kembali buku tentang sistem operasi dan prinsip komposisi komputer. Kalau memang benar kumpulan IaaS, komponen jaringan, penyimpanan dan komputasi di era CPU, menurut saya masih agak sulit.
Tapi setelah model besar keluar, saya menemukan bahwa hal-hal itu dirangkum di bawah ini. Sekarang saya terutama mempelajari model besar, seperti membaca makalah, menggunakan Python untuk memanggil API di Qianfan, dll. Saya merasa jauh lebih nyaman.
**T: Selanjutnya, apa ekspektasi Anda terhadap tingkat pertumbuhan Baidu Smart Cloud? **
**Shen Ji:**Baidu Smart Cloud kini memiliki hampir 20 miliar pelat, jumlah yang relatif kecil. Dengan berkah dari model yang besar, permintaan pelanggan kami menjadi sangat kuat, dan sekarang kami terlalu sibuk. Namun agar benar-benar bisa digunakan oleh pengguna dan tersampaikan dengan baik, masih perlu proses.
**Q: Apakah akan ada wabah kecil di kuartal keempat? **
**Shen Dou:**Beberapa orang memperkirakan kuartal keempat akan meledak. Permintaannya memang mulai meningkat, tapi menurut saya mungkin tidak akan meledak sampai tahun depan.
**Q: Bagaimana Anda menilai keberuntungan Anda? **
Shen Ji: Saya pikir ini adalah keberuntungan Baidu. Baidu telah melakukan AI selama bertahun-tahun dan telah melakukan banyak upaya.Jika model besar tidak muncul, jalur komersialisasi cloud akan semakin sulit dan sulit. Hal ini menunjukkan bahwa perusahaan dengan Vision pada akhirnya tidak akan terlalu beruntung.
Lihat Asli
Konten ini hanya untuk referensi, bukan ajakan atau tawaran. Tidak ada nasihat investasi, pajak, atau hukum yang diberikan. Lihat Penafian untuk pengungkapan risiko lebih lanjut.
Dialog dengan Shen Dou, Presiden Baidu Smart Cloud: Ada banyak model besar di pasaran saat ini, tetapi kebanyakan dari model tersebut akan hilang dengan cepat
Pada jam ke-24 setelah "Wen Xin Yi Yan" dirilis, Shen Dou masuk ke backend untuk melihat data dan menemukan bahwa Wen Xin Yi Yan telah menjawab "33,42 juta" pertanyaan dari pengguna.Jumlah ini melebihi ekspektasinya.
Dua hari kemudian, ketika Shen Dou duduk bersama beberapa awak media, termasuk saya, untuk membicarakan kejadian tersebut, dia berkata, "Awalnya kami mengira akan ada lebih sedikit orang yang menonton, tapi kami tidak menyangka antusiasme pengguna akan meningkat. tidak berkurang."
Pada bulan September, ketika kegilaan besar akan model di Tiongkok berlangsung selama setengah tahun, masyarakat awam akhirnya memiliki kesempatan untuk memulainya.
Mulai tanggal 31 Agustus, sejumlah model besar, termasuk "Wen Xin Yi Yan", telah didaftarkan dan resmi dibuka untuk umum. Kabar ini tak hanya membuat pengguna heboh untuk mencobanya, namun juga memicu respon antusias dari perusahaan. ** Shen Dou mengatakan bahwa pada hari pembukaan Wenxinyiyan, jumlah perusahaan aktif harian di platform model besar Baidu Smart Cloud Qianfan meningkat lebih dari 40%. ——Yang terakhir adalah platform pengembangan dan manajemen model besar yang diluncurkan oleh Baidu untuk perusahaan. **
Di era model besar, Baidu berharap dapat mempromosikan penggunaan model besar oleh individu dan perusahaan dalam jangka waktu yang sama. Dari perspektif makro, hal ini kondusif bagi mempopulerkan teknologi mutakhir pada model besar. Dari sudut pandang perusahaan, hal ini membantu Baidu menjalankan bisnisnya sendiri. Meskipun nilai komersial dari pengguna sisi-C tidak langsung terlihat, nilai komersial dari pelanggan sisi-B secara langsung tercermin dalam biaya penjadwalan model API dan pendapatan komputasi awan.
Pada Mei tahun lalu, Shen Dou, yang telah bertanggung jawab atas Baidu Mobile Ecosystem (MEG) selama bertahun-tahun, dipercaya memegang posisi penting sebagai presiden Baidu Smart Cloud Business Group (ACG). Harapan kelompok tersebut terhadapnya adalah memanfaatkan peluang di era AIGC dan menjadikan cloud cerdas ke dalam kurva pertumbuhan kedua Baidu.
Namun situasi yang dihadapi Shen Dou sangat sulit. Baidu bukanlah vendor komputasi awan terbesar di Tiongkok, namun menempati peringkat pertama dalam cloud publik untuk layanan terkait AI. Saat itu, Shen Dou juga berharap dapat menggunakan AI untuk mendorong pertumbuhan seluruh layanan cloud. Sayangnya, kemampuan AI pada saat itu terlalu "terfragmentasi" dan tidak dapat menghilangkan situasi biaya layanan yang tinggi saat ini. kesulitan dalam meningkatkan skala, dan keuntungan yang sedikit.
Namun beberapa bulan kemudian, era model besar tiba. Dari perspektif persaingan, layanan cloud dasar yang dulunya didominasi oleh IaaS (Infrastructure as a Service) dan PaaS (Platform as a Service) digantikan oleh layanan cloud seperti MaaS (Model as a Service) yang didominasi oleh AI. . Shen Dou percaya bahwa ini adalah kesempatan bagi Baidu Smart Cloud untuk "menyalip di tikungan".
Dari perspektif pendapatan, kemampuan universal model besar memungkinkan layanan cloud menjadi lebih terstandarisasi, memungkinkan penggunaan kembali dalam skala besar dalam berbagai skenario, mengurangi biaya layanan dan meningkatkan keuntungan. Karena alasan inilah manajemen Baidu mengatakan kepada investor pada laporan pendapatan kuartal kedua tahun 2023 bahwa AI dan model besar akan memungkinkan Baidu Intelligent Cloud mencapai margin keuntungan yang lebih tinggi.
**Berikut ini adalah teks lengkap percakapan kami dengan Shen Dou yang diselenggarakan oleh Geek Park. **
01 Wenxinyiyan di sisi C, platform Qianfan di sisi B, dua sisi kesuksesan
**Q: Setelah menyaksikan keseruannya, saatnya melakukan sesuatu yang praktis. Dua hari lalu, Baidu membuka Wen Xinyiyan di sisi C. Apa pendapat Anda tentang data penggunaan pengguna ini? Diharapkan atau tidak terduga? Apa kemampuan operasi dan pemeliharaan latar belakangnya? **
Shen Dou: Saya mengirimkan data ke grup pada pukul 12:30 malam itu, dan rekan saya merilis datanya keesokan harinya. Data tersebut saya cegat dari sistem dan disajikan ke dunia luar secara utuh, dan ini sepenuhnya benar.
Awalnya kami mengira lebih sedikit orang yang "menonton keseruannya", jadi ekspektasi kami tidak terlalu tinggi. Di luar dugaan, terdapat 33,42 juta respon pada hari itu, yang menunjukkan bahwa pengguna memiliki ekspektasi yang tinggi terhadap Wen Xinyiyan. Setiap orang tidak datang untuk mengajukan satu atau dua pertanyaan lalu pergi, tetapi melakukan banyak dialog. Dari sudut pandang ini, antusiasme pengguna masih ada.
Wen Xinyiyan telah menjalani pengujian internal selama lima atau enam bulan sejak 16 Maret, yang memberi kami banyak waktu persiapan, baik dalam hal peningkatan efek maupun pengurangan biaya. Misalnya, kecepatan inferensi model besar Wenxin telah meningkat lebih dari 30 kali lipat dibandingkan dengan model aslinya, sehingga sangat mengurangi biaya inferensi dan memungkinkan kami menangani pengguna dalam jumlah besar.
**T: Jadi kemajuan teknologi model besar Baidu selama periode ini juga mencakup kemajuan biaya? **
Shen Ji: Ya, model besar itu sendiri adalah paradigma teknis yang intensif sumber daya.
Kami tidak mengharapkan lalu lintas yang begitu besar pada awalnya, dan sumber daya mesin (daya komputasi) itu sendiri sangat berharga. Kami merasa akan sia-sia jika menempatkan terlalu banyak mesin di sana, jadi kami tidak menempatkan terlalu banyak mesin tambahan. . Setelah peningkatan jumlah pengguna pada hari itu, untungnya, karena kinerja alasan kami meningkat, kami masih memberikan layanan yang stabil kepada pengguna.
Kami juga memiliki cadangan daya komputasi yang baik, dan kami akan terus mengurangi biaya pelatihan dan penalaran di masa mendatang, sehingga tidak ada masalah dalam memenuhi kebutuhan pengguna. Saat itu, kami berdiskusi di grup internal kami apakah lalu lintas bisa dilawan. Saya mengatakan bahwa membuat lalu lintas menjadi lebih padat adalah masalah kebahagiaan.
**T: Apa manfaat rilis Wenxin Yiyan di sisi C untuk Baidu? **
Shen Dou: Yang mungkin Anda khawatirkan adalah apakah keterbukaan terhadap sisi C akan berkelanjutan jika tidak dapat memberikan nilai komersial.
Faktanya, selama benar-benar menciptakan nilai bagi pengguna, komersialisasi hanya tinggal menunggu waktu saja. Dalam sejarah perkembangan teknologi, sangat sedikit contoh yang berharga namun sulit diwujudkan. Wen Xinyiyan memang memberikan nilai nyata bagi pengguna C-end. Kemarin saya melihat beberapa komentar yang mengatakan bahwa tanpa Wenxinyiyan, efisiensi kantornya akan menurun. Oleh karena itu, selama bernilai, komersialisasi Wenxinyiyan di masa depan akan terjadi secara alami.
**T: Apakah bentuk produk C-end pada model besar Tiongkok akan konsisten dengan ChatGPT? Apakah itu biaya berlangganan? **
Shen Ji: Masih terlalu dini untuk membicarakan bentuk produk model besar, dan definisinya belum begitu jelas.
Ketika Internet seluler mulai muncul, kita dapat menggunakan beberapa kata kunci untuk mendefinisikannya dengan jelas, seperti SoLoMo (Sosial, Lokal, Seluler, menggunakan media sosial, layanan geolokasi, dan perangkat terminal seluler untuk memberikan pengalaman pengguna yang lebih baik). Namun saat ini model besar tersebut tidak dapat didefinisikan dengan beberapa kata yang jelas. Kemampuannya lebih kuat, tetapi batasannya juga lebih luas, dan masih jauh dari waktu untuk menyatu pada bentuk produk.
OpenAI adalah perusahaan yang digerakkan oleh teknologi, dan pengalaman pengguna bukanlah keunggulannya. Bentuk produk yang dirancangnya saat ini masih sangat awal, dan kecepatan iterasi pada produk berikutnya akan sangat cepat, dan bentuk akan berubah secara drastis.
**T: Apakah model bisnis ChatGPT yang mengenakan biaya berlangganan dari pengguna C-end dapat dilakukan di Tiongkok? **
Shen Dou: Kami mungkin mengembangkan metode monetisasi baru, seperti tiga metode monetisasi umum yaitu periklanan, e-commerce, dan game.
Jika Anda bersedia mengeluarkan 2.000 yuan sebulan untuk menyewa seorang asisten, maka AI dapat melakukan 1/10 tugas asisten tersebut, seperti membantu Anda membuat rencana perjalanan, memesan tiket pesawat dan hotel, dan bahkan memobilisasi perangkat lunak taksi dan pengiriman makanan , maukah Anda bersedia mengeluarkan dua ratus dolar? Hanya saja cara realisasinya belum tentu iuran keanggotaan, bisa berupa komisi transaksi atau cara lainnya.
Contoh lainnya, sekumpulan karakter NPC dalam game digerakkan oleh AI generatif, dan siaran langsung "orang digital" di bidang e-commerce juga didukung oleh AI generatif, yang dapat menghasilkan metode monetisasi yang berbeda. Pada akhirnya, bentuk produk sisi-C menentukan metode monetisasinya.
**T: Jika produk C-end pada akhirnya merupakan alat produktivitas, mungkinkah perusahaanlah yang membayarnya, bukan individu yang membayarnya? **
Shen Dou: Itu mungkin. Misalnya, Baidu Netdisk juga dapat dianggap sebagai alat efisiensi, dan banyak perusahaan akan membeli akun Netdisk untuk digunakan oleh karyawannya. Kami juga telah menghubungi perusahaan dan menugaskan setiap karyawan akun Copilot untuk menulis program. Ini semua merupakan kasus di mana perusahaan menanggung tagihan untuk individu.
**T: Sebagai perusahaan konten, kami juga secara khusus ingin menggunakan model besar untuk memproduksi artikel. Anda baru saja meluncurkan platform layanan model skala besar "Qianfan" milik To B. Apa latar belakang peluncuran "Qianfan"? Bagaimana kami dapat membantu perusahaan yang tidak memiliki pemrogram untuk menerapkan model besar? **
**Shen Dou:**Ini pertanyaan yang sangat bagus. Faktanya, inilah alasan kami membuat Platform Qianfan.
Karakteristik model besar yang diterapkan di sisi B adalah perusahaan besar yang memimpin, dan banyak pelanggannya adalah lembaga keuangan, lembaga energi, lembaga pendidikan, dll. Mereka memiliki fitur yang jelas bahwa mereka perlu diterapkan secara pribadi, tetapi ambang batasnya sangat tinggi, dan mereka harus melatih sekelompok teknisi untuk melakukan iterasi model, yang mungkin memperlambat waktu agar model besar dapat diterapkan.
Sebaliknya, seperti banyak perusahaan kecil dan menengah, ada kemungkinan besar Anda tidak akan menolak produk SaaS (berbasis platform), dan Anda juga tidak akan menolak cloud publik. Platform Qianfan adalah produk semacam itu. Perusahaan dapat langsung memanggil API di dalamnya, atau melatih sampel untuk penyesuaian, dan membuat model mereka sendiri dengan hampir tanpa kode. **Tujuan Qianfan kami adalah untuk menurunkan ambang penerapan model besar dan mempromosikan penerapan model besar secara luas. **
**T: Tampaknya Anda dan OpenAI memiliki jalur yang berbeda. OpenAI pertama-tama meluncurkan produk sisi-C ChatGPT, dan kemudian secara perlahan meluncurkan produk-produk sisi-B, sementara Baidu mengembangkan produk-produk sisi-C dan sisi-B secara bersamaan. Mengapa ada perbedaan ini? **
**Shen Dou: **Semua teknologi memiliki masalah penerimaan, dan lebih banyak pengguna harus benar-benar menggunakannya dan menemukan manfaatnya. Semua orang membicarakan model besar, tapi berapa banyak orang yang benar-benar menggunakan model besar? Pelanggan perusahaan sisi-B lebih sadar akan potensi dampak model besar terhadap keseluruhan paradigma produksi mereka, dan mereka perlu lebih sering menggunakannya.
Namun jika mereka tidak menggunakan API cloud publik atau menyiapkan lingkungan mereka sendiri untuk merasakan dan mencobanya, maka mereka hanya sekedar membayangkan hal-hal di sana. Jadi kita perlu membuat Qianfan dan membiarkan mereka menggunakan model besar terlebih dahulu. Padahal, soal full opening model besar, sisi C sudah lama menunggu, dan sisi B juga sudah menunggu lama. Hanya saja sisi B lebih mendekati komersialisasi.
**T: Setelah Wenxin melepaskannya, seberapa besar permintaan sisi B platform Qianfan didorong? **
Shen Ji: Pada hari pembukaan Wenxin Yiyan, jumlah perusahaan aktif harian di platform model skala besar Baidu Smart Cloud Qianfan meningkat lebih dari 40%.
Relaksasi tidak hanya akan menaikkan data di sisi C, tetapi juga akan menaikkan data di sisi B. Karena ini akan membantu perusahaan sisi B mengurangi biaya dan mempercepat iterasi (catatan: menggunakan model dalam negeri lebih murah dan nyaman).
Namun dalam hal pertumbuhan data, sisi B saat ini tidak sebaik sisi C. Saat ini, misalkan seseorang ingin menggunakan "Wen Xin Yi Yan" di sisi B. Daripada memanggil API, dia sebaiknya pergi ke sisi C untuk mencobanya terlebih dahulu. Jika menurutnya pengalamannya bagus, dia akan menggunakannya pada Qianfan. Mendapatkan sisi-B untuk digunakan memerlukan proses budidaya.
**Q: Jika sisi C dan sisi B berjalan beriringan, bagaimana cara mengatur prioritasnya? Apakah fokusnya terutama pada sisi C atau sisi B? **
Shen Shake: Prioritas perlu ditetapkan hanya ketika ada konflik sumber daya. Ciri khas dari model besar ini adalah ia memiliki lapisan yang sangat tebal di bagian bawah yang bersifat universal, sehingga menemukan penerapan di dalamnya, baik itu To B atau To C, adalah hal yang ingin dilakukan Baidu secara bersamaan. Tidak sampai pada konflik sumber daya.
Di sisi C, Baidu secara aktif meneliti bentuk produk dan model bisnis yang dapat diimplementasikan dalam model besar. Baidu perlu merekonstruksi produk C-endnya berdasarkan model yang besar, misalnya dilihat dari data produk Baidu sendiri, Baidu Netdisk, Perpustakaan Baidu, dan produk lainnya, setelah rekonstruksi berdasarkan model besar, tingkat keterikatan pengguna dan pembayaran keanggotaan sangat tinggi. Peningkatan; APP Wenxin Yiyan yang baru dibangun dan pencarian Baidu yang direkonstruksi juga menjadi pintu masuk baru untuk aplikasi model skala besar. Di sisi B, Baidu Smart Cloud melayani pasar To B dengan baik dengan menciptakan platform model skala besar terbaik.
**T: Faktanya, basis paling universal adalah komputasi awan Anda. Baik Anda melayani pelanggan internal atau eksternal, itu adalah kesuksesan Anda. **
Shen Dou: Ya, jika Anda melayani pelanggan internal dengan baik, Anda akan melayani pelanggan eksternal dengan baik. Jika Anda melayani pelanggan eksternal dengan baik, Anda akan melayani pelanggan internal dengan baik. Inilah keindahan MaaS. Jika tidak, dengan asumsi bahwa tumpukan teknologi eksternal dan internal seluruhnya merupakan dua set, biayanya akan terlalu tinggi.
Kami berjalan dengan dua kaki. Tentu saja, Baidu berharap dapat membuat produk To C yang laris, namun kami juga sangat bersedia mendukung lebih banyak perusahaan dan pengembang untuk membuat aplikasi To C yang baik melalui model besar dan daya komputasi yang mendasarinya. Faktanya, siapa pun yang berhasil di atas, itu adalah keberhasilan model yang mendasarinya.
02 Model besar memulai kompetisi eliminasi brutal, dan masa depan model open source mengkhawatirkan
**Q: Selain Wen Xinyiyan, platform Qianfan juga meluncurkan model lain. Apa perbedaan antara Qianfan dan platform agregasi model seperti Hugging Face? **
Shen Dou: Saat ini atau di masa yang akan datang, perusahaan berharap untuk mencoba model yang berbeda, baik karena kemampuan adaptasi model atau kebutuhan psikologis pelanggan. Dari perspektif ini, kami juga perlu menyediakan model pihak ketiga.
Namun tidak semua model layak untuk dicoba, dan hal tersebut akan membuang-buang sumber daya. Oleh karena itu, Qianfan memiliki prinsip penyaringannya sendiri, dan semua model yang kami buat adalah model yang relatif bagus dan mudah digunakan.
**Q: Jadi Hugging Face diposisikan sebagai komunitas, dan Qianfan diposisikan sebagai platform? **
Shen Dou: Benar. Qianfan tidak hanya memecahkan masalah Anda dalam memilih model, tetapi juga memecahkan masalah Anda dalam menggunakan model tersebut. Penggunaannya mencakup serangkaian masalah seperti data, pelatihan, penyetelan, teknik, dan konstruksi aplikasi.Biaya dan efisiensi juga harus dipertimbangkan sepenuhnya. Qianfan menyediakan layanan satu atap, itulah perbedaan antara Qianfan dan Hugging Face.
Model wajah Hugging memiliki cakupan yang cukup, dan mengandalkan keunggulan alami dari vendor cloud, Qianfan memiliki cukup ruang untuk pengoperasian, dan juga dapat mencapai pelatihan end-to-end dan optimalisasi kinerja inferensi. Misalnya, percepatan dalam proses pelatihan, persepsi cepat, lokasi, dan pemulihan kesalahan; dalam proses penalaran, berdasarkan skalabilitas cluster komputasi heterogen besar Baidu, ia memiliki elastisitas sumber daya yang sangat baik dan juga dapat menyediakan layanan tanpa server, memungkinkan pelanggan untuk mendapatkan biaya Infrastruktur berbiaya rendah, tidak memerlukan operasi dan pemeliharaan, dan manfaat skalabilitas yang tinggi. Di sinilah Qianfan melangkah lebih dalam dari Memeluk Wajah.
**T: Tampaknya Anda tidak terlalu optimis dengan model open source, namun open source mengurangi biaya penerapan model besar untuk perusahaan, sehingga tidak dapat dikatakan bahwa hal tersebut tidak ada artinya. Apa pendapat Anda sebenarnya tentang model sumber terbuka? **
**Shen Ji:**Anda mengatakan siapa yang akan menanggung biaya LLaMA (Catatan: model sumber terbuka Facebook)? Itu Facebook. Siapa yang akan berbagi biaya Facebook? **Jika Anda tidak dapat menemukan akhir dari masalah ini, maka (open source) adalah air tanpa sumber, pohon tanpa akar, dan suatu saat akan ada masalah. **
Karena ini berbeda dengan software open source tradisional, dulu investasi seseorang pada open source adalah mengorbankan waktunya sendiri. Namun saat ini, jika seseorang ingin mengembangkan model open source yang besar, biaya mesin dan datanya terlalu tinggi.
**T: Anda dapat menggunakan cinta untuk menghasilkan listrik, tetapi Anda tidak dapat menggunakan cinta untuk menghitung. **
Shen Ji: Ya, Anda harus mengeluarkan puluhan juta untuk satu putaran pelatihan.
Saat ini, terdapat kemiripan dengan metode open source tradisional, semuanya menggunakan open source untuk menarik perhatian pengguna, dan pada akhirnya berharap untuk memilih model besar (closed source) lainnya.
**T: Apakah mungkin untuk memiliki hubungan serupa dengan Red Hat dan IBM (Catatan: Pada tahun 2018, IBM mengumumkan akuisisi Red Hat, perusahaan open source terbesar di dunia)? Bagaimana jika pemilik bisnis kaya seperti IBM bersedia mendukung open source? Dengan cara ini, open source akan mendapat dukungan finansial dan data. **
Shen Dou: Open source pasti akan ada sejak lama. Ketika model-model besar mendapat lebih banyak perhatian, pemerintah dan perusahaan dapat menyumbang untuk mendukung penelitian di bidang ini dan mempromosikan pendidikan di seluruh pasar. Namun seberapa berhargakah hal itu pada akhirnya? Saya pikir kemungkinan besar hal ini tidak akan menjadi arus utama, juga tidak akan membentuk model bisnis loop tertutup yang lengkap.
Pengembangan perangkat lunak tradisional dapat membentuk lingkaran tertutup. Misalnya, jika Anda menulis sepotong kode atau meningkatkan suatu fungsi, Anda dapat dengan cepat check in (check in), dan kemampuan seluruh perangkat lunak sumber terbuka akan ditingkatkan satu lapisan. Namun setelah LLaMA dirilis hari ini, tidak peduli berapa banyak orang yang menggunakannya, tidak dapat dicek, data tidak dapat dikembalikan, daya komputasi tidak dapat dikembalikan, dan kemampuan tidak dapat dikembalikan, sehingga loop tertutup tidak dapat terbentuk. .
**T: Banyak sekolah open source yang percaya bahwa model open source telah membaca triliunan parameter. Meskipun tidak sebaik model sumber tertutup, namun masih sangat berguna. Sama seperti modelnya sendiri yang tidak memiliki tingkat kelulusan 985 dan 211, namun setidaknya merupakan tingkat profesional yang dapat digunakan untuk fine-tuning yang lebih vertikal. **
Shen Dou: Haruskah Model Fondasi ditingkatkan? Kalau Model Fondasi yang ada saat ini sudah sangat bagus dan tidak perlu diubah, maka tidak ada masalah. Namun situasi saat ini Model Fondasi hanya mendapat skor 60, dan kita harus berusaha keras untuk mencapai skor 90 atau 95.
**T: Mengapa ada kemajuan? Perasaan sebenarnya dari banyak perusahaan adalah bahwa GPT3.0 sudah dapat memecahkan masalah tersebut, lalu apa pentingnya kemajuan? **
Shen Ji: Ini adalah pertanyaan yang sangat bagus, dan kami telah mendiskusikannya secara internal. Saat ini, Model Fondasi dapat menyelesaikan sebagian besar masalah dengan skor 60, namun masih jauh dari solusi sempurna. Dan tuntutan sifat manusia adalah, selama Anda mengizinkan saya menyelesaikannya sekali, saya pasti tidak akan melakukannya dua kali.
Hari ini, hanya berdasarkan 60 poin dalam Model Fondasi, Anda telah melatih 85 poin. Setelah itu Foundation Model mencapai 85 poin, apakah bisa mendapat 95 poin? Tidak ada batasan dalam upaya manusia dalam hal ini.
Batasan ini pasti akan terus didorong ke atas. Ambil contoh penelusuran, penelusuran lebih dari 20 tahun yang lalu dapat digunakan, lalu apa yang telah dilakukan Google selama lebih dari 20 tahun? Sepertinya Anda sudah selesai, tetapi ternyata belum.
**Q: Bagaimana Anda melihat pola persaingan model besar di masa depan? **
Shen Dou: Ada banyak model di pasaran saat ini, tapi menurut saya banyak di antaranya yang akan hilang dengan cepat.
Alasan mengapa banyak model masih ada hingga saat ini adalah karena banyak orang yang tidak mengetahui apakah model tersebut baik atau buruk. Lagi pula, tidak ada yang bisa mencobanya, tidak ada yang bisa menggunakannya, dan peringkat pada tes pertama cukup tinggi. Namun dengan dirilisnya model tersebut, lebih mudah untuk menilai pro dan kontra. Saat ini, mereka yang membuat model besar, jika Anda memberi mereka 30 juta pertanyaan untuk dimasukkan dan dicoba, diperkirakan lebih dari setengahnya harus turun.
Hal ini akan menyebabkan konsentrasi lalu lintas secara bertahap, sehingga memudahkan model kepala untuk membentuk skala ekonomi, sehingga semakin mengamortisasi biaya pengembangan model. Kesenjangan ini akan semakin melebar.
**Q: Kapan babak sistem gugur akan dimulai? **
Shen Dou: Sulit untuk mengatakannya, lagipula, mungkin perlu waktu bagi semua orang untuk mengumpulkan uang. Bagi perusahaan besar, biaya pembakarannya masih terjangkau, namun juga bergantung pada nilai pembakarannya. Beberapa perusahaan memiliki banyak skenario aplikasi, jadi mereka pasti tidak akan membiarkan mereka menyesuaikan API model besar milik orang lain saat ini, jadi mereka pasti akan membuat model sendiri. Baik atau buruk (tidak masalah), setidaknya tidak harus bergantung pada pihak luar. Perusahaan besar akan terus membuat model untuk beberapa waktu.
03 Model besar memungkinkan layanan komputasi awan bergerak menuju "standarisasi", dan Baidu Cloud akhirnya menghasilkan uang
**T: Apakah model besar akan menjadi basis untuk semua aplikasi di masa depan? Akankah hal ini menciptakan ekosistem pengembangan dan aplikasi yang benar-benar berbeda? **
Shen Dou: Tidak ada keraguan bahwa model besar akan menjadi era baru sistem operasi dan menjadi basis bagi banyak aplikasi.
Sejak lama, manusia telah menggunakan bahasa sebagai instruksi ketika berhadapan dengan manusia dan mesin. Namun di masa lalu, mesin tidak memahami bahasa alami, jadi kami menulis seperangkat bahasa pemrograman agar dapat dipahami. Kini setelah model besar memahami bahasa alami, seluruh paradigma pengembangan aplikasi telah berubah secara mendasar. Perkembangan menjadi didorong oleh kreativitas daripada kemampuan kode.
Selain itu, model berukuran besar juga memiliki kemampuan untuk menghubungkan sistem secara seri. Seperti munculnya plug-in, yaitu komponen yang secara mandiri menyelesaikan kemampuan tertentu dan menunggu dipanggil, model besar dapat menggabungkan plug-in untuk menyelesaikan tugas tertentu. Hal ini akan semakin mengubah paradigma pembangunan.
**T: Jika model besar dapat menyelesaikan masalah melalui semua plug-in, apakah interkoneksi ini terselubung? **
Shen Ji: Sebenarnya masih belum ada. Faktanya, APP-APP tersebut kini juga ada di ponsel yang sama dan program aplikasi yang sama, dan masih belum mewujudkan interkoneksi. Nantinya, berdasarkan model besar, Meituan dan Didi akan terhubung, namun mereka tetap tidak berkomunikasi satu sama lain.
**T: Masalah mendasar belum terselesaikan. **
Shen Ji: Ya, interkoneksi harus mengacu pada konektivitas data. Saya dapat mengakses data Anda dan Anda dapat mengakses data saya. Namun dalam basis model yang besar, kami hanya ingin berkomunikasi dengan hub ini, tetapi plugin kami tidak berkomunikasi satu sama lain.
**T: Apakah situasi non-interkoneksi ini menyebabkan pengembang tidak dapat menerapkan penjadwalan lintas sumber daya dengan lancar? Mungkinkah ini merupakan cacat dalam ekologi pengembangan model skala besar di Tiongkok? **
Shen Dou: Saya rasa alasan utamanya adalah belum adanya liberalisasi dan skala lalu lintas yang belum meningkat. Misalnya, Wen Xinyiyan tiba-tiba memiliki lebih dari 30 juta lalu lintas, pengembang menghitung mungkin 1% adalah miliknya, yang berarti ada 300.000 kunjungan, dan dia akan memutuskan untuk melakukannya.
**T: Di era model besar, bagaimana Baidu Cloud menentukan posisinya dalam ekosistem? Bagaimana cara mendistribusikan mekanisme manfaat? **
Shen Ji: Sangat mustahil melakukannya dengan kekuatan Baidu. Bukannya aku takut tidak mampu melakukannya, tapi aku pasti tidak mampu melakukannya.
Pertama-tama, plug-in pasti akan memiliki ekosistem yang sangat makmur, dan mereka akan saling melengkapi dengan model-model besar. Plug-in perlu mendapatkan traffic dari model besar, dan model besar memerlukan dukungan kemampuan plug-in.Seperti saat ini, jika tidak ada WeChat atau Douyin di ponsel, pengguna tidak boleh menggunakannya.
Kedua, dalam hal aplikasi yang berorientasi pada pelanggan akhir, tidak peduli apakah itu penerapan cloud pribadi atau solusi tingkat platform seperti Qianfan, pada akhirnya akan memerlukan mitra ekologis untuk menyelesaikan pengiriman jarak jauh, seperti Kingdee, UFIDA, dan iSoftStone. Mereka memiliki pelanggan dan proses bisnis yang familiar, dan persyaratan akhir akan diintegrasikan olehnya.
Singkatnya, yang pertama adalah agregasi kemampuan untuk mengembangkan ekologi, yang kedua adalah mitra yang membantu mewujudkan model-model besar, dan yang ketiga adalah pelanggan yang menggunakan model-model besar untuk memperkuat layanan mereka sendiri.
**T: Perubahan apa yang dibawa oleh paradigma teknologi model besar ke komputasi awan? **
**Shen Ji:**Konteks perkembangan teknologi semakin maju. Dengan kata lain, semakin jauh dari lapisan bawah, semakin sedikit perhatian terhadap detail, semakin baik enkapsulasinya, dan ada banyak orang di belakang layar yang melakukan pekerjaan ini. Ini sendiri juga merupakan nilai dari kontribusi cloud.
Nilai yang disumbangkan oleh CPU cloud awal adalah pelanggan tidak perlu membeli mesin mereka sendiri dan menggabungkannya dengan kartu satu per satu, karena dikemas lebih baik dan lebih baik serta dapat digunakan langsung di dalamnya. Dengan munculnya era model besar, GPU "chip akselerasi AI" secara bertahap menjadi pusat daya komputasi, dan tingkat pertumbuhan daya komputasi jauh melebihi CPU. Ini akan mempercepat peralihan kita dari cloud CPU ke cloud GPU.
Di era GPU cloud, pada akhirnya kami akan merangkum lebih lanjut kemampuan cloud sehingga lapisan di bawahnya tidak terekspos, membentuk bentuk interaksi yang lebih maju dan langsung terhubung ke API model besar. Cloud saat ini masih dikembangkan untuk para insinyur, dan bentuk interaksinya belum cukup menyeluruh, namun di masa depan akan ada lebih sedikit insinyur di tingkat bawah, dan lebih banyak orang akan naik ke tingkat atas. Ini adalah perubahan drastis.
Baidu Smart Cloud | Sumber gambar: Visual China
**T: Apakah model besar akan membentuk kembali struktur pasar komputasi awan? Jika ya, kapan kita akan melihat sinyalnya? **
Shen Ji: Saya suka pertanyaan ini. Tanpa model berukuran besar, cloud Baidu akan sangat sulit dioperasikan. Di masa lalu, kami telah meneriakkan "Industri yang mendalam, fokus pada skenario, integrasi cloud dan kecerdasan, serta AI yang inklusif." Yang ingin dilakukan Baidu Smart Cloud adalah memasukkan AI ke dalam seluruh layanan To B dan menjadikannya sebuah titik pertumbuhan.
**Namun di masa lalu, AI tradisional sangat terfragmentasi. Hal ini perlu menghasilkan kemampuan untuk suatu masalah, dan kemudian menyelesaikan masalah ini, yang memiliki fleksibilitas yang buruk. Akibatnya, ini adalah sistem proyek yang sulit untuk diukur dan memiliki laba kotor yang rendah. **
Setelah AI generatif keluar, kami melihat bahwa AI ini sangat serbaguna dan dapat menyelesaikan banyak masalah sekaligus. Pada dasarnya, AI ini disatukan dari lapisan aplikasi ke bawah. Meskipun memerlukan penyempurnaan atau plug-in, ini adalah tindakan yang terstandarisasi. Ini sangat berbeda dengan aplikasi AI sebelumnya yang sangat terfragmentasi. Hal ini sendiri merupakan perubahan besar dalam bisnis cloud, dan apa yang disebut IaaS telah menjadi MaaS.
**T: Di masa lalu, perusahaan AI di Tiongkok selalu harus mendapatkan proyek, dan hal ini sangat sulit. Tidak mungkin menyelesaikan masalah melalui produk yang terstandarisasi seperti sekarang. **
Shen Dou: Kami mendiskusikan strategi cloud dengan Robin (Catatan: pendiri, ketua, dan CEO Baidu Robin Li) pada saat itu. Dia juga meminta kami untuk melakukan standarisasi dan penskalaan, jika tidak, Baidu tidak akan dapat mencerminkan Baidu sebagai sebuah teknologi perusahaan.nilai.
**T: Jadi masa depan jangka panjang adalah tentang standardisasi dan skala? **
**Shen Ji: **Model besar memiliki banyak ketidakpastian di masa-masa awal. Saat ini, banyak pelanggan tidak memiliki pemahaman terpadu tentang batas kapasitas, batasan, biaya, pengiriman, dan metode permintaan model besar. Dalam waktu singkat, kami tidak dapat menjamin bahwa semua pelanggan akan datang ke cloud publik, dan kami harus melakukannya terlebih dahulu melalui sistem proyek.
Namun sistem proyek ini pun berbeda dengan sistem proyek sebelumnya. Misalnya, saya punya model penerapan yang diprivatisasi untuk Anda, lebih mirip Windows atau Office, pertama versi 95, lalu versi 97, dan kemudian versi 2000. Anda harus terus memutakhirkan. Sepertinya saya sudah memberikan Anda CD untuk ditaruh di rumah Anda, namun nyatanya Anda harus berlangganan terus menerus. Ini juga berbeda dengan aslinya.
**Q: Tapi keuangan Anda sudah membaik. Pada kuartal pertama tahun ini, Baidu Smart Cloud meraih laba kuartalan untuk pertama kalinya. Alasan yang Anda sebutkan adalah standarisasi layanan cloud, yang mewujudkan penggunaan kembali skala dan mengurangi biaya. **
**Shen Dou:**Ya. Dalam kasus sistem proyek murni atau proporsi sistem proyek yang relatif tinggi, laba kotor setelah penyerahan terlalu rendah.
04 Setelah mengambil alih Baidu Cloud selama lebih dari setahun, kami memiliki peluang terbaik
**T: Sebagai anggota tingkat pengambilan keputusan tertinggi di Baidu, apa yang paling Anda khawatirkan dan cemaskan? Masalah apa yang sering Anda diskusikan dengan tim Anda? **
**Shen Dou: Dalam hal bentuk produk, Robin memiliki persyaratan bahwa semua produk harus direkonstruksi menggunakan pemikiran asli AI. Ini refactoring, bukan akses. **
Secara teknis, kami memikirkan seberapa tinggi kemampuan AI generatif saat ini. Hasil evaluasi Wen Xinyiyan saat ini tidak buruk, tetapi jauh dari batas atas bahasa manusia atau pemahaman bahasa manusia yang sangat baik. Bagaimana kita dapat terus meningkatkan kemampuan ini dengan cepat jelas merupakan pertanyaan pertama yang kita pikirkan.
Lalu ada aplikasi industrinya, bagaimana model tersebut benar-benar dapat digunakan, dalam skenario apa model tersebut dapat digunakan, seberapa tinggi ambang batasnya, seberapa lebar batasannya, bagaimana meningkatkan efisiensinya, bagaimana menginspirasi semua orang untuk memikirkan penggunaan yang lebih baik. ... Ini adalah hal-hal yang perlu terus kita pikirkan.
**Q: Lapisan ini relatif lunak, bagaimana dengan lapisan yang lebih keras? **
Shen Ji: Sekarang cluster daya komputasi berkisar dari 10.000 kartu hingga 10.000 kartu. Baidu adalah satu-satunya perusahaan di Tiongkok yang dapat menjalankan satu tugas pada tingkat 10.000 kartu.
Di bawah cluster Wanka, pengorganisasian, efisiensi, dan jaminan adalah tugas-tugas tingkat bawah yang nyata yang tidak terlihat oleh semua orang, tetapi mereka sangat penting. Misalnya, kami ingin meningkatkan efisiensi pelatihan dan penalaran perangkat keras yang mendasarinya serta integrasi perangkat lunak dan perangkat keras. Ini semua adalah hal yang sangat penting.
**T: Anda telah bertanggung jawab atas bisnis pencarian dan periklanan di Baidu selama bertahun-tahun, dan baru pada tahun lalu Anda mengambil alih smart cloud, dan Anda segera menemukan peluang historis untuk model besar. Apakah menurut Anda itu sebuah berkah? Bagaimana perasaanmu? **
Shen Ji: Ini tidak berlebihan, tapi saya sangat bersemangat dan beruntung bisa melakukan hal seperti itu.
Ketika saya mengambil alih tahun lalu, saya memiliki ide untuk menskalakan dan menstandardisasi layanan cloud. Namun karena kemampuan AI sangat terfragmentasi, hal ini sangat sulit dilakukan. **Saat itu saya berpikir keras, apakah ada sesuatu yang membutuhkan kemampuan AI dan daya komputasi AI, serta dapat digunakan oleh banyak orang dalam waktu bersamaan? Saya tidak dapat menemukannya setelah lama mencari. **
Kemudian, model besar itu muncul. Rasanya tepat sekali.
Shen Dou, wakil presiden eksekutif Baidu Group dan presiden Baidu Intelligent Cloud Business Group (ACG) | Sumber gambar: Baidu
**T: Anda sedang mempelajari kecerdasan buatan. Apakah model besar lebih cocok dengan Anda? **
Shen Ji: Ini sangat mirip dengan apa yang dilakukan mahasiswa pascasarjana saya. Meskipun saya telah mempelajari komputer, saya telah mempelajari lebih banyak perangkat lunak, dan saya telah mempelajari kecerdasan buatan.
Setelah menerima cloud (perangkat keras tingkat rendah) pada waktu itu, saya benar-benar membaca kembali buku tentang sistem operasi dan prinsip komposisi komputer. Kalau memang benar kumpulan IaaS, komponen jaringan, penyimpanan dan komputasi di era CPU, menurut saya masih agak sulit.
Tapi setelah model besar keluar, saya menemukan bahwa hal-hal itu dirangkum di bawah ini. Sekarang saya terutama mempelajari model besar, seperti membaca makalah, menggunakan Python untuk memanggil API di Qianfan, dll. Saya merasa jauh lebih nyaman.
**T: Selanjutnya, apa ekspektasi Anda terhadap tingkat pertumbuhan Baidu Smart Cloud? **
**Shen Ji:**Baidu Smart Cloud kini memiliki hampir 20 miliar pelat, jumlah yang relatif kecil. Dengan berkah dari model yang besar, permintaan pelanggan kami menjadi sangat kuat, dan sekarang kami terlalu sibuk. Namun agar benar-benar bisa digunakan oleh pengguna dan tersampaikan dengan baik, masih perlu proses.
**Q: Apakah akan ada wabah kecil di kuartal keempat? **
**Shen Dou:**Beberapa orang memperkirakan kuartal keempat akan meledak. Permintaannya memang mulai meningkat, tapi menurut saya mungkin tidak akan meledak sampai tahun depan.
**Q: Bagaimana Anda menilai keberuntungan Anda? **
Shen Ji: Saya pikir ini adalah keberuntungan Baidu. Baidu telah melakukan AI selama bertahun-tahun dan telah melakukan banyak upaya.Jika model besar tidak muncul, jalur komersialisasi cloud akan semakin sulit dan sulit. Hal ini menunjukkan bahwa perusahaan dengan Vision pada akhirnya tidak akan terlalu beruntung.