AI+Web3 menggabungkan situasi baru: insentif distribusi ekor panjang dan pasar model Sumber Terbuka

AI+Web3: Menara dan Lapangan

Ringkasan Poin Utama

  1. Proyek Web3 dengan konsep AI menjadi target pengumpulan dana di pasar primer dan sekunder.

  2. Kesempatan Web3 di industri AI terletak pada: menggunakan insentif terdistribusi untuk mengoordinasikan potensi pasokan dalam ekor panjang ( lintas data, penyimpanan, dan komputasi ); sambil membangun model sumber terbuka serta pasar terdesentralisasi untuk AI Agent.

  3. AI di industri Web3 terutama digunakan untuk keuangan on-chain ( pembayaran kripto, perdagangan, analisis data ) serta membantu pengembangan.

  4. Kegunaan AI+Web3 terletak pada saling melengkapi keduanya: Web3 diharapkan dapat melawan sentralisasi AI, dan AI diharapkan dapat membantu Web3 menembus batas.

Pendahuluan

Dalam dua tahun terakhir, perkembangan AI seolah-olah telah ditekan tombol percepatannya, efek kupu-kupu yang dipicu oleh Chatgpt tidak hanya membuka dunia baru kecerdasan buatan generatif, tetapi juga telah mengguncang arus besar di bidang Web3.

Dengan dukungan konsep AI, ada peningkatan yang jelas dalam pendanaan pasar kripto yang melambat. Media mencatat, hanya dalam paruh pertama tahun 2024, terdapat 64 proyek Web3+AI yang telah menyelesaikan pendanaan, dengan sistem operasi berbasis kecerdasan buatan Zyber365 mencapai jumlah pendanaan tertinggi sebesar 100 juta dolar AS pada putaran A.

Pasar sekunder semakin berkembang pesat, data dari situs agregator kripto menunjukkan bahwa dalam waktu lebih dari satu tahun, total kapitalisasi pasar di sektor AI telah mencapai 48,5 miliar dolar AS, dengan volume perdagangan 24 jam mendekati 8,6 miliar dolar AS; kemajuan teknologi AI yang utama membawa keuntungan yang jelas, setelah peluncuran model teks ke video Sora dari OpenAI, harga rata-rata di sektor AI meningkat sebesar 151%; efek AI juga menjangkau salah satu sektor penghasil uang kripto, Meme: MemeCoin pertama dengan konsep AI Agent - GOAT dengan cepat menjadi terkenal dan meraih valuasi 1,4 miliar dolar AS, berhasil memicu tren Meme AI.

Penelitian dan topik seputar AI+Web3 juga sangat panas, mulai dari AI+DePIN hingga AI Memecoin dan sekarang AI Agent serta AI DAO, emosi FOMO sudah tidak bisa mengikuti kecepatan pergantian narasi baru.

AI+Web3, kombinasi istilah yang penuh dengan uang panas, peluang, dan fantasi masa depan, tidak bisa tidak dipandang sebagai pernikahan yang diatur oleh modal, kita sepertinya sulit membedakan di balik jubah yang megah ini, apakah ini benar-benar arena para spekulan, atau malam sebelum terjadinya kebangkitan?

Untuk menjawab pertanyaan ini, sebuah pemikiran yang krusial bagi kedua belah pihak adalah, apakah keberadaan satu sama lain akan membuat keadaan menjadi lebih baik? Apakah ada manfaat yang dapat diambil dari pola satu sama lain? Dalam artikel ini, kami juga berusaha untuk berdiri di atas bahu para pendahulu dan memeriksa pola ini: bagaimana Web3 dapat berperan di berbagai lapisan tumpukan teknologi AI, dan apa yang dapat dibawa AI untuk menghidupkan Web3?

AI+Web3: Menara dan Lapangan

Bagian.1 Apa peluang Web3 di bawah tumpukan AI?

Sebelum membahas topik ini, kita perlu memahami tumpukan teknologi model AI besar:

Menggunakan bahasa yang lebih sederhana untuk menjelaskan keseluruhan proses: "Model besar" seperti otak manusia, pada tahap awal, otak ini milik bayi yang baru lahir, yang perlu mengamati dan menyerap informasi besar dari lingkungan sekitarnya untuk memahami dunia ini, inilah tahap "pengumpulan" data; karena komputer tidak memiliki indera manusia seperti penglihatan dan pendengaran, sebelum pelatihan, informasi besar yang tidak terlabel dari luar perlu diubah melalui "pra-pemrosesan" menjadi format informasi yang dapat dipahami dan digunakan oleh komputer.

Setelah memasukkan data, AI membangun model yang memiliki kemampuan memahami dan memprediksi melalui "pelatihan", yang dapat dianggap sebagai proses di mana bayi secara bertahap memahami dan belajar tentang dunia luar. Parameter model mirip dengan kemampuan bahasa bayi yang terus disesuaikan selama proses pembelajaran. Ketika konten yang dipelajari mulai dibagi menjadi disiplin ilmu, atau ketika berkomunikasi dengan orang lain mendapatkan umpan balik dan diperbaiki, maka memasuki tahap "penyesuaian halus" dari model besar.

Anak-anak yang tumbuh dan belajar berbicara dapat memahami makna dalam percakapan baru dan mengekspresikan perasaan serta pemikiran mereka. Tahap ini mirip dengan "penalaran" pada model AI besar, di mana model dapat memprediksi dan menganalisis input bahasa dan teks yang baru. Bayi mengekspresikan perasaan, menggambarkan objek, dan memecahkan berbagai masalah melalui kemampuan bahasa, yang juga mirip dengan bagaimana model AI besar diterapkan pada berbagai tugas spesifik setelah selesai dilatih dan digunakan dalam fase penalaran, seperti klasifikasi gambar, pengenalan suara, dan lain-lain.

AI Agent semakin mendekati bentuk berikutnya dari model besar - mampu menjalankan tugas secara mandiri dan mengejar tujuan yang kompleks, tidak hanya memiliki kemampuan berpikir, tetapi juga mampu mengingat, merencanakan, dan dapat menggunakan alat untuk berinteraksi dengan dunia.

Saat ini, terkait dengan tantangan AI di berbagai tumpukan, Web3 telah secara awal membentuk ekosistem yang berlapis-lapis dan saling terhubung, yang mencakup berbagai tahap proses model AI.

AI+Web3: Menara dan Lapangan

Satu, Lapisan Dasar: Airbnb untuk Kekuatan Komputasi dan Data

Kekuatan Komputasi

Saat ini, salah satu biaya tertinggi AI adalah daya komputasi dan energi yang diperlukan untuk melatih model dan melakukan inferensi model.

Salah satu contohnya adalah model bahasa besar dari raksasa teknologi yang memerlukan 16.000 GPU kelas atas yang diproduksi oleh produsen GPU tertentu selama 30 hari untuk menyelesaikan pelatihan. Harga satuan untuk versi 80GB berkisar antara 30.000 hingga 40.000 dolar, yang memerlukan investasi perangkat keras komputasi antara 400 juta hingga 700 juta dolar (GPU+chip jaringan ), sementara pelatihan bulanan memerlukan konsumsi 1,6 miliar kilowatt jam, dengan pengeluaran energi hampir 20 juta dolar per bulan.

Untuk dekompresi daya komputasi AI, ini adalah salah satu bidang pertama di mana Web3 berinteraksi dengan AI - DePIN( jaringan infrastruktur fisik terdesentralisasi) saat ini, situs data terkait telah menampilkan lebih dari 1400 proyek, di mana proyek berbagi daya GPU yang terkenal termasuk beberapa platform terkenal.

Logika utamanya adalah: platform memungkinkan individu atau entitas yang memiliki sumber daya GPU yang tidak terpakai untuk berkontribusi dengan kemampuan komputasi mereka secara terdesentralisasi tanpa izin, melalui pasar online antara pembeli dan penjual yang mirip dengan Uber atau Airbnb, meningkatkan penggunaan sumber daya GPU yang kurang dimanfaatkan, dan pengguna akhir juga mendapatkan sumber daya komputasi yang efisien dengan biaya lebih rendah; pada saat yang sama, mekanisme staking juga memastikan bahwa jika terjadi pelanggaran mekanisme kontrol kualitas atau gangguan jaringan, penyedia sumber daya akan mendapatkan hukuman yang sesuai.

Ciri khasnya adalah:

  • Mengumpulkan sumber daya GPU yang tidak terpakai: Pemasok utamanya adalah pusat data kecil dan menengah independen pihak ketiga, serta operator sumber daya komputasi yang berlebihan dari tambang kripto, perangkat keras penambangan dengan mekanisme konsensus PoS, seperti FileCoin dan mesin tambang ETH. Saat ini juga ada proyek yang berusaha untuk memulai perangkat dengan batas masuk yang lebih rendah, seperti menggunakan perangkat lokal seperti MacBook, iPhone, iPad, dan sebagainya untuk membangun jaringan komputasi untuk menjalankan inferensi model besar.

  • Menghadapi pasar ekor panjang dari kekuatan komputasi AI:

a. "Dari segi teknologi, pasar daya komputasi terdesentralisasi lebih cocok untuk langkah inferensi. Pelatihan lebih bergantung pada kemampuan pemrosesan data yang diberikan oleh GPU dengan skala kluster besar, sementara inferensi memiliki kinerja komputasi GPU yang relatif lebih rendah, seperti beberapa platform yang fokus pada pekerjaan rendering dengan latensi rendah dan aplikasi inferensi AI."

b. "Dari sisi permintaan" pihak dengan kekuatan komputasi kecil tidak akan melatih model besar mereka sendiri secara terpisah, tetapi hanya akan memilih untuk mengoptimalkan dan menyempurnakan di sekitar sejumlah model besar terkemuka, dan semua skenario ini secara alami cocok untuk sumber daya komputasi yang tidak terpakai secara terdistribusi.

  • Kepemilikan terdesentralisasi: Makna teknis dari blockchain adalah bahwa pemilik sumber daya selalu mempertahankan kendali atas sumber daya tersebut, menyesuaikan dengan permintaan secara fleksibel, sambil mendapatkan keuntungan.

Data

Data adalah fondasi AI. Tanpa data, perhitungan seperti dedaunan terapung yang tidak ada gunanya, dan hubungan antara data dan model mirip dengan pepatah "Garbage in, Garbage out", di mana jumlah data dan kualitas input menentukan kualitas output model akhir. Dalam pelatihan model AI saat ini, data menentukan kemampuan bahasa model, kemampuan pemahaman, bahkan nilai-nilai serta penampilan kemanusiaan. Saat ini, tantangan kebutuhan data AI terutama terfokus pada empat aspek berikut:

  • Kecanduan Data: Pelatihan model AI bergantung pada input data dalam jumlah besar. Data publik menunjukkan bahwa parameter model bahasa besar yang dilatih oleh sebuah perusahaan AI terkenal telah mencapai tingkat triliunan.

  • Kualitas data: Seiring dengan penggabungan AI dan berbagai industri, ketepatan waktu data, keragaman data, spesialisasi data vertikal, serta pengambilan sumber data baru seperti emosi media sosial juga menuntut kualitas yang baru.

  • Masalah privasi dan kepatuhan: Saat ini, berbagai negara dan perusahaan secara bertahap menyadari pentingnya kumpulan data berkualitas, dan sedang membatasi pengambilan kumpulan data.

  • Biaya pemrosesan data yang tinggi: Jumlah data yang besar, proses pemrosesan yang kompleks. Data publik menunjukkan bahwa lebih dari 30% biaya R&D perusahaan AI digunakan untuk pengumpulan dan pemrosesan data dasar.

Saat ini, solusi web3 tercermin dalam empat aspek berikut:

  1. Pengumpulan data: Kemampuan untuk secara gratis menyediakan data dunia nyata yang diambil dengan cepat menipis, pengeluaran perusahaan AI untuk data meningkat setiap tahun. Namun, pada saat yang sama, pengeluaran ini tidak memberikan manfaat kepada para kontributor data yang sebenarnya, platform sepenuhnya menikmati penciptaan nilai yang dihasilkan oleh data, seperti sebuah platform sosial yang menghasilkan total pendapatan sebesar 203 juta dolar AS melalui perjanjian lisensi data yang ditandatangani dengan perusahaan AI.

Memberikan kesempatan kepada pengguna yang benar-benar berkontribusi untuk ikut serta dalam penciptaan nilai yang dihasilkan oleh data, serta mendapatkan data yang lebih pribadi dan bernilai dengan cara yang berbiaya rendah melalui jaringan terdistribusi dan mekanisme insentif, adalah visi Web3.

  • Beberapa platform adalah lapisan data dan jaringan terdesentralisasi, di mana pengguna dapat menjalankan node, menyumbangkan bandwidth yang tidak terpakai dan menyalurkan lalu lintas untuk menangkap data waktu nyata dari seluruh internet, dan mendapatkan imbalan token;

  • Beberapa platform telah memperkenalkan konsep kolam likuiditas data (DLP) yang unik, di mana pengguna dapat mengunggah data pribadi mereka ( seperti riwayat belanja, kebiasaan browsing, aktivitas media sosial, dll ) ke DLP tertentu, dan dengan fleksibel memilih apakah akan memberikan izin penggunaan data tersebut kepada pihak ketiga tertentu;

  • Di beberapa platform, pengguna dapat menggunakan tag tertentu di platform sosial dan @platform untuk mengumpulkan data.

  1. Pra-pemrosesan Data: Dalam proses pemrosesan data AI, karena data yang dikumpulkan biasanya berisik dan mengandung kesalahan, data tersebut harus dibersihkan dan diubah menjadi format yang dapat digunakan sebelum melatih model, melibatkan tugas berulang seperti normalisasi, penyaringan, dan penanganan nilai yang hilang. Tahap ini adalah salah satu dari sedikit langkah manual di industri AI, yang telah melahirkan industri pelabelan data. Seiring meningkatnya tuntutan kualitas data oleh model, ambang batas bagi pelabelan data juga meningkat, dan tugas ini secara alami cocok dengan mekanisme insentif terdesentralisasi Web3.
  • Saat ini, beberapa platform sedang mempertimbangkan untuk bergabung dalam tahap kunci penandaan data.

  • Beberapa proyek mengusulkan konsep "Train2earn", menekankan kualitas data, pengguna dapat mendapatkan imbalan dengan menyediakan data yang dilabeli, komentar, atau bentuk input lainnya.

  • Proyek penandaan data akan memgamifikasi tugas penandaan dan memungkinkan pengguna untuk mempertaruhkan poin untuk mendapatkan lebih banyak poin.

  1. Privasi dan Keamanan Data: Perlu dijelaskan bahwa privasi data dan keamanan adalah dua konsep yang berbeda. Privasi data berkaitan dengan pengolahan data sensitif, sementara keamanan data melindungi informasi dari akses, penghancuran, dan pencurian yang tidak sah. Dengan demikian, keunggulan teknologi privasi Web3 dan potensi aplikasi dapat dilihat dari dua aspek: (1) pelatihan data sensitif; (2) kolaborasi data: beberapa pemilik data dapat berpartisipasi bersama dalam pelatihan AI tanpa perlu membagikan data asli mereka.

Teknologi privasi yang umum saat ini di Web3 meliputi:

  • Lingkungan Eksekusi Tepercaya(TEE)

  • Enkripsi Homomorfik Penuh (FHE)

  • Teknologi zero-knowledge ( zk ), seperti beberapa protokol yang menggunakan teknologi zkTLS, menghasilkan bukti zero-knowledge untuk lalu lintas HTTPS, memungkinkan pengguna untuk mengimpor data aktivitas, reputasi, dan identitas dari situs web eksternal dengan aman, tanpa mengungkapkan informasi sensitif.

Namun, saat ini bidang ini masih berada di tahap awal, sebagian besar proyek masih dalam eksplorasi, salah satu masalah saat ini adalah biaya komputasi yang terlalu tinggi, beberapa contohnya adalah:

  • Sebuah kerangka zkML memerlukan waktu sekitar 80 menit untuk menghasilkan bukti dari model 1M-nanoGPT.

  • Menurut data dari laboratorium tertentu, biaya zkML lebih dari 1000 kali lipat dibandingkan dengan perhitungan murni.

  1. Penyimpanan Data: Setelah memiliki data, diperlukan tempat untuk menyimpan data di rantai, serta LLM yang dihasilkan dari data tersebut. Dengan ketersediaan data (DA) sebagai masalah inti, sebelum peningkatan Danksharding Ethereum, throughput-nya adalah 0,08MB. Sementara itu, pelatihan model AI dan inferensi waktu nyata biasanya memerlukan throughput data antara 50 hingga 100GB per detik. Selisih skala seperti ini membuat solusi rantai yang ada tidak mampu menghadapi "aplikasi AI yang intensif sumber daya."
  • Beberapa platform adalah proyek perwakilan dalam kategori ini. Ini adalah solusi penyimpanan terpusat yang dirancang untuk kebutuhan kinerja tinggi AI, dengan fitur kunci termasuk: tinggi
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • 8
  • Bagikan
Komentar
0/400
MoonBoi42vip
· 07-31 08:17
Inovasi terus maju ke depan
Lihat AsliBalas0
GateUser-bd883c58vip
· 07-30 11:02
Masa depan menjanjikan dan cerah
Lihat AsliBalas0
BearMarketBardvip
· 07-30 11:02
Tunggu sampai bull run untuk membicarakannya.
Lihat AsliBalas0
GasFeeBarbecuevip
· 07-30 11:01
play people for suckers lagi
Lihat AsliBalas0
PumpingCroissantvip
· 07-30 11:01
Melihat tren ini secara rasional
Lihat AsliBalas0
AirdropHunterXMvip
· 07-30 10:52
bullish bidang ini
Lihat AsliBalas0
PebbleHandervip
· 07-30 10:43
Jalan terang maju ke depan
Lihat AsliBalas0
BearMarketBuyervip
· 07-30 10:39
Bear Market yang berani maju
Lihat AsliBalas0
Perdagangkan Kripto Di Mana Saja Kapan Saja
qrCode
Pindai untuk mengunduh aplikasi Gate
Komunitas
Bahasa Indonesia
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)