# AI+Web3: タワーとプラザ### TL; 博士1. AIコンセプトのWeb3プロジェクトは、一次および二次市場で資金を引き寄せるターゲットとなっています。2. Web3 における AI 業界の機会は、分散型インセンティブを使用してロングテールの潜在的な供給を調整することに現れています------データ、ストレージ、計算を横断して;同時に、オープンソースモデルと AI エージェントの分散型市場を構築します。3. AIのWeb3業界における主な活用分野は、チェーン上の金融(暗号支払い、取引、データ分析)および開発支援です。4. AI+Web3 の効用は、両者の補完性に表れています:Web3 は AI の集中化に対抗することが期待されており、AI は Web3 の境界を突破するのに役立つことが期待されています。! [AI+Web3: タワー&プラザ](https://img-cdn.gateio.im/social/moments-25bce79fdc74e866d6663cf31b15ee55)### はじめにここ2年、AIの発展は加速されたかのようで、Chatgptが引き起こした蝶の羽は、生成的人工知能の新しい世界を開くだけでなく、対岸のWeb3でも波を巻き起こしています。AIの概念の後押しにより、加速が鈍化している暗号市場での資金調達が明らかに促進されています。メディアの統計によれば、2024年上半期だけで、64のWeb3+AIプロジェクトが資金調達を完了しました。人工知能を基盤としたオペレーティングシステムZyber365は、Aラウンドで1億ドルの最高資金調達額を達成しました。二次市場はさらに繁栄しており、暗号集約サイトのデータによると、わずか一年余りの間にAI分野の総市場価値は485億ドルに達し、24時間の取引量は86億ドルに近づいています。主流のAI技術の進展による恩恵は明らかで、ある会社のSoraテキストからビデオへのモデルが発表された後、AIセクターの平均価格は151%上昇しました。AIの効果は、暗号通貨の資金吸引セクターの一つであるMemeにも波及しています:初のAIエージェントコンセプトのMemeCoin------GOATは急速に人気を博し、14億ドルの評価を獲得し、AI Memeブームを成功裏に引き起こしました。AI+Web3に関する研究や話題も同様に盛り上がっています。AI+DepinからAI Memecoin、さらには現在のAIエージェントやAI DAOに至るまで、FOMOの感情は新しいストーリーの回転速度についていけていません。AI+Web3という、熱い資金、ブーム、未来の幻想に満ちた用語の組み合わせは、避けられないことに資本によって取り持たれた結婚として見なされることがある。この華やかな衣の下で、実際には投機者の舞台なのか、それとも黎明の爆発の前夜なのかを見分けるのは非常に難しい。この質問に答えるための、双方にとって重要な考察は、相手がいることでより良くなるのか?相手のモデルから利益を得ることができるのか?この記事では、私たちも先人の肩に立ってこの構図を考察しようとしています:Web3はAI技術スタックの各段階でどのように機能し、AIはWeb3にどのような新たな活力をもたらすことができるのか?### パート1 AI スタック下の Web3 にはどのような機会がありますか?この話題を展開する前に、AI大規模モデルのテクノロジースタックを理解する必要があります:もっと分かりやすい言葉で全体のプロセスを表現すると、「大モデル」は人間の脳のようなもので、初期段階ではこの脳はこの世に生まれたばかりの赤ちゃんに属します。赤ちゃんは周囲の膨大な情報を観察して取り入れ、この世界を理解する必要があります。これがデータの「収集」段階です。コンピュータは人間の視覚や聴覚などの感覚を持っていないため、トレーニング前に外部の大規模な無標識情報は「前処理」を通じて、コンピュータが理解できる利用可能な情報形式に変換する必要があります。データを入力すると、AIは「トレーニング」を通じて理解と予測能力を持つモデルを構築します。これは、赤ちゃんが外界を理解し学んでいく過程と見ることができます。モデルのパラメータは、赤ちゃんが学習する過程で絶えず調整される言語能力のようなものです。学習する内容が専門化し始めたり、人とのコミュニケーションを通じてフィードバックを得て修正されると、大きなモデルの「ファインチューニング」段階に入ります。子供は成長し、話すことを学ぶと、新しい会話の中で意味を理解し、自分の感情や考えを表現できるようになります。この段階はAIの大規模モデルの「推論」に似ており、モデルは新しい言語やテキスト入力に対して予測や分析を行います。赤ちゃんは言語能力を通じて感情を表現し、物体を描写し、さまざまな問題を解決します。これは、AIの大規模モデルが訓練を完了し、使用に投入された後、推論段階で特定のタスクに応じて応用されることに似ています。例えば、画像分類や音声認識などです。AIエージェントは、タスクを独立して実行し、複雑な目標を追求できる次の形態の大規模モデルにさらに近づいています。思考能力を持つだけでなく、記憶、計画を行い、ツールを使用して世界とインタラクションすることができます。現在、AIの各スタックにおける課題に対処するために、Web3は現在、AIモデルのプロセスの各段階をカバーする多層的で相互接続されたエコシステムを初めて形成しています。! [AI+Web3:タワー&スクエア](https://img-cdn.gateio.im/social/moments-cc3bf45e321f9b1d1280bf3bb827d9f4)####1.基本レイヤー:計算能力とデータ用のAirbnb**ハッシュレート**現在、AIの最高のコストの一つは、モデルのトレーニングと推論に必要な計算力とエネルギーです。一例として、ある会社のLLAMA3は、ある会社が生産したH100GPUを16000個必要とし(これはAIと高性能計算のワークロードのために設計された最高のグラフィックス処理ユニットです)、トレーニングには30日かかります。後者の80GBバージョンの単価は30,000ドルから40,000ドルの間であり、これには4億から7億ドルの計算ハードウェア投資(GPU+ネットワークチップ)が必要で、さらに毎月のトレーニングには16億キロワット時のエネルギーが消費され、エネルギー支出は毎月約2000万ドルになります。AIの計算能力の解放は、Web3が最初にAIと交差した分野であり、------DePin(分散型物理インフラストラクチャネットワーク)現在、あるデータサイトには1400以上のプロジェクトが展示されており、その中にはGPU計算能力共有を代表するいくつかのプロジェクトが含まれています。その主要な論理は、プラットフォームが使用されていないGPUリソースを持つ個人または実体が、許可なしに分散型の方法で計算能力を提供できることを許可することです。これは、ある会社または別の会社のバイヤーと売り手のオンラインマーケットプレイスを通じて、未使用のGPUリソースの使用率を向上させることを目的としています。その結果、エンドユーザーは、より低コストで効率的な計算リソースを得ることができます。同時に、ステーキングメカニズムにより、品質管理メカニズムに違反したり、ネットワークが中断された場合、リソース提供者には相応の罰則があります。その特徴は次のとおりです:* 余剰のGPUリソースを集める:供給者は主に第三者の独立した中小型データセンター、暗号マイニングファームなどのオペレーターの余剰計算力リソースで、コンセンサスメカニズムはPoSのマイニングハードウェアです。現在、より低い参入障壁のデバイスを立ち上げることを目指すプロジェクトもあり、特定のプロジェクトが特定のデバイスを利用して大規模モデル推論の計算ネットワークを構築しています。* AI算力のロングテール市場に直面して:a.「技術的な観点から見ると」分散型コンピューティング市場は推論ステップにより適しています。トレーニングは超大規模クラスタのGPUによるデータ処理能力に依存しがちですが、推論はGPUの計算性能に対する依存度は比較的低く、いくつかのプロジェクトは低遅延のレンダリング作業やAI推論アプリケーションに焦点を当てています。b.「需要側の観点から見ると」中小規模の演算力を持つ需要者は、自分自身の大規模モデルを単独で訓練することはなく、少数の主要な大規模モデルの周りで最適化や微調整を行うことを選択します。これらのシナリオは、分散された未使用の演算力リソースに自然に適しています。* 非中央集権的な所有権:ブロックチェーンの技術的意義は、リソースの所有者が常にそのリソースに対するコントロールを保持し、需要に応じて柔軟に調整し、同時に収益を得ることができる点にあります。**データ**データはAIの基盤です。データがなければ、計算は浮遊物のように無意味であり、データとモデルの関係は「ガベージイン、ガベージアウト」という諺のようなものです。データの量と入力の質が最終的なモデルの出力の質を決定します。現在のAIモデルのトレーニングにおいて、データはモデルの言語能力、理解能力、さらには価値観や人間的な表現を決定します。現在、AIのデータ需要の困難は主に以下の4つの側面に焦点を当てています:* データの飢餓:AIモデルのトレーニングは大量のデータ入力に依存しています。公開された資料によると、ある会社があるモデルのトレーニングに使用したパラメータの量は兆レベルに達しました。* データ品質:AIと各業界の結合が進む中で、データのタイムリーさ、データの多様性、垂直データの専門性、新興データソースとしてのソーシャルメディアの感情の取り込みが、その品質に新しい要求を突きつけています。* プライバシーとコンプライアンスの問題:現在、各国や企業は高品質なデータセットの重要性に気づき始めており、データセットのスクレイピングに制限をかけています。* データ処理コストが高い:データ量が多く、処理プロセスが複雑です。公開資料によると、AI企業の30%以上の研究開発コストは基礎データの収集と処理に使われています。現在、web3 のソリューションは以下の四つの側面で表れています:1、データ収集:無料で提供される実世界のデータの収集が急速に枯渇しており、AI企業のデータに対する支出は年々増加しています。しかし同時に、この支出はデータの真の貢献者には還元されておらず、プラットフォームはデータによる価値創造をまったく享受しています。たとえば、あるプラットフォームはAI企業とのデータライセンス契約を通じて、合計2億300万ドルの収益を実現しました。真に貢献するユーザーがデータによって生まれる価値の創造に同様に参加し、分散型ネットワークとインセンティブメカニズムを通じて、低コストでユーザーのよりプライベートで、より価値のあるデータを取得することがWeb3のビジョンです。* あるプロジェクトは、分散型のデータ層とネットワークであり、ユーザーはノードを運営することで、未使用の帯域幅と中継トラフィックを提供し、インターネット全体のリアルタイムデータをキャッチし、トークン報酬を得ることができます;* あるプロジェクトは独自のデータ流動性プール(DLP)コンセプトを導入し、ユーザーは自分のプライベートデータ(購入履歴、ブラウジング習慣、ソーシャルメディア活動など)を特定のDLPにアップロードし、これらのデータを特定の第三者に使用を許可するかどうかを柔軟に選択できます;* あるプロジェクトでは、ユーザーは特定のプラットフォーム上で特定のタグを使用し、@特定のアカウントを指定することでデータ収集を実現できます。2、データ前処理:AIのデータ処理プロセスにおいて、収集されたデータは通常雑音が多く、エラーが含まれているため、モデルを訓練する前にクリーンアップし、使用可能なフォーマットに変換する必要があります。これには、標準化、フィルタリング、および欠損値の処理という繰り返しのタスクが含まれます。この段階はAI業界において数少ない人間の作業がある部分であり、データアノテーターという職業が生まれました。モデルのデータ品質への要求が高まるにつれて、データアノテーターのハードルも上がっていますが、このタスクはWeb3の非中央集権的なインセンティブメカニズムに自然に適しています。* 現在、一部のプロジェクトがこの重要なステップであるデータラベリングの追加を検討しています。* あるプロジェクトは「Train2earn」の概念を提唱し、データの質を強調し、ユーザーは注釈データやコメント、その他の形式の入力を提供することで報酬を得ることができます。* データラベリングプロジェクトのあるプロジェクトは、ラベリングタスクをゲーム化し、ユーザーがポイントをステークしてより多くのポイントを獲得できるようにします。3、データプライバシーとセキュリティ:明確にする必要があるのは、データプライバシーとセキュリティは異なる概念であるということです。データプライバシーはセンシティブデータの取り扱いに関わり、データセキュリティはデータ情報を不正アクセス、破壊、盗難から保護します。したがって、Web3プライバシー技術の利点と潜在的な応用シーンは、2つの側面に現れます:(1)センシティブデータのトレーニング;(2)データコラボレーション:複数のデータ所有者が原データを共有せずにAIトレーニングに共同で参加できます。現在のWeb3で一般的なプライバシー技術には、以下が含まれます:* 信頼実行環境(TEE)、例えばあるプロジェクト;* 完全同態暗号(FHE)、例えばいくつかのプロジェクト;* ゼロ知識技術(zk)、あるプロジェクトが zkTLS 技術を使用して HTTPS トラフィックのゼロ知識証明を生成し、ユーザーが外部サイトから安全に活動、評判、アイデンティティデータをインポートできるようにし、敏感な情報を公開する必要がありません。しかし、現時点ではこの分野はまだ初期段階にあり、大部分のプロジェクトはまだ探索中です。現在の一つの困難は計算コストが高すぎることで、いくつかの例は次のとおりです:* あるフレームワークは、1M-nanoGPTモデルの証明を生成するのに約80分かかります。* ある会社のデータによると、zkML のオーバーヘッドは純粋な計算よりも 1000 倍以上高い。4、データストレージ:データが得られた後、さらに必要なのは一つの場所です。
AIとWeb3の融合:新しい時代のデータ、コンピューティングパワーとイノベーションの枠組みを開く
AI+Web3: タワーとプラザ
TL; 博士
AIコンセプトのWeb3プロジェクトは、一次および二次市場で資金を引き寄せるターゲットとなっています。
Web3 における AI 業界の機会は、分散型インセンティブを使用してロングテールの潜在的な供給を調整することに現れています------データ、ストレージ、計算を横断して;同時に、オープンソースモデルと AI エージェントの分散型市場を構築します。
AIのWeb3業界における主な活用分野は、チェーン上の金融(暗号支払い、取引、データ分析)および開発支援です。
AI+Web3 の効用は、両者の補完性に表れています:Web3 は AI の集中化に対抗することが期待されており、AI は Web3 の境界を突破するのに役立つことが期待されています。
! AI+Web3: タワー&プラザ
はじめに
ここ2年、AIの発展は加速されたかのようで、Chatgptが引き起こした蝶の羽は、生成的人工知能の新しい世界を開くだけでなく、対岸のWeb3でも波を巻き起こしています。
AIの概念の後押しにより、加速が鈍化している暗号市場での資金調達が明らかに促進されています。メディアの統計によれば、2024年上半期だけで、64のWeb3+AIプロジェクトが資金調達を完了しました。人工知能を基盤としたオペレーティングシステムZyber365は、Aラウンドで1億ドルの最高資金調達額を達成しました。
二次市場はさらに繁栄しており、暗号集約サイトのデータによると、わずか一年余りの間にAI分野の総市場価値は485億ドルに達し、24時間の取引量は86億ドルに近づいています。主流のAI技術の進展による恩恵は明らかで、ある会社のSoraテキストからビデオへのモデルが発表された後、AIセクターの平均価格は151%上昇しました。AIの効果は、暗号通貨の資金吸引セクターの一つであるMemeにも波及しています:初のAIエージェントコンセプトのMemeCoin------GOATは急速に人気を博し、14億ドルの評価を獲得し、AI Memeブームを成功裏に引き起こしました。
AI+Web3に関する研究や話題も同様に盛り上がっています。AI+DepinからAI Memecoin、さらには現在のAIエージェントやAI DAOに至るまで、FOMOの感情は新しいストーリーの回転速度についていけていません。
AI+Web3という、熱い資金、ブーム、未来の幻想に満ちた用語の組み合わせは、避けられないことに資本によって取り持たれた結婚として見なされることがある。この華やかな衣の下で、実際には投機者の舞台なのか、それとも黎明の爆発の前夜なのかを見分けるのは非常に難しい。
この質問に答えるための、双方にとって重要な考察は、相手がいることでより良くなるのか?相手のモデルから利益を得ることができるのか?この記事では、私たちも先人の肩に立ってこの構図を考察しようとしています:Web3はAI技術スタックの各段階でどのように機能し、AIはWeb3にどのような新たな活力をもたらすことができるのか?
パート1 AI スタック下の Web3 にはどのような機会がありますか?
この話題を展開する前に、AI大規模モデルのテクノロジースタックを理解する必要があります:
もっと分かりやすい言葉で全体のプロセスを表現すると、「大モデル」は人間の脳のようなもので、初期段階ではこの脳はこの世に生まれたばかりの赤ちゃんに属します。赤ちゃんは周囲の膨大な情報を観察して取り入れ、この世界を理解する必要があります。これがデータの「収集」段階です。コンピュータは人間の視覚や聴覚などの感覚を持っていないため、トレーニング前に外部の大規模な無標識情報は「前処理」を通じて、コンピュータが理解できる利用可能な情報形式に変換する必要があります。
データを入力すると、AIは「トレーニング」を通じて理解と予測能力を持つモデルを構築します。これは、赤ちゃんが外界を理解し学んでいく過程と見ることができます。モデルのパラメータは、赤ちゃんが学習する過程で絶えず調整される言語能力のようなものです。学習する内容が専門化し始めたり、人とのコミュニケーションを通じてフィードバックを得て修正されると、大きなモデルの「ファインチューニング」段階に入ります。
子供は成長し、話すことを学ぶと、新しい会話の中で意味を理解し、自分の感情や考えを表現できるようになります。この段階はAIの大規模モデルの「推論」に似ており、モデルは新しい言語やテキスト入力に対して予測や分析を行います。赤ちゃんは言語能力を通じて感情を表現し、物体を描写し、さまざまな問題を解決します。これは、AIの大規模モデルが訓練を完了し、使用に投入された後、推論段階で特定のタスクに応じて応用されることに似ています。例えば、画像分類や音声認識などです。
AIエージェントは、タスクを独立して実行し、複雑な目標を追求できる次の形態の大規模モデルにさらに近づいています。思考能力を持つだけでなく、記憶、計画を行い、ツールを使用して世界とインタラクションすることができます。
現在、AIの各スタックにおける課題に対処するために、Web3は現在、AIモデルのプロセスの各段階をカバーする多層的で相互接続されたエコシステムを初めて形成しています。
! AI+Web3:タワー&スクエア
####1.基本レイヤー:計算能力とデータ用のAirbnb
ハッシュレート
現在、AIの最高のコストの一つは、モデルのトレーニングと推論に必要な計算力とエネルギーです。
一例として、ある会社のLLAMA3は、ある会社が生産したH100GPUを16000個必要とし(これはAIと高性能計算のワークロードのために設計された最高のグラフィックス処理ユニットです)、トレーニングには30日かかります。後者の80GBバージョンの単価は30,000ドルから40,000ドルの間であり、これには4億から7億ドルの計算ハードウェア投資(GPU+ネットワークチップ)が必要で、さらに毎月のトレーニングには16億キロワット時のエネルギーが消費され、エネルギー支出は毎月約2000万ドルになります。
AIの計算能力の解放は、Web3が最初にAIと交差した分野であり、------DePin(分散型物理インフラストラクチャネットワーク)現在、あるデータサイトには1400以上のプロジェクトが展示されており、その中にはGPU計算能力共有を代表するいくつかのプロジェクトが含まれています。
その主要な論理は、プラットフォームが使用されていないGPUリソースを持つ個人または実体が、許可なしに分散型の方法で計算能力を提供できることを許可することです。これは、ある会社または別の会社のバイヤーと売り手のオンラインマーケットプレイスを通じて、未使用のGPUリソースの使用率を向上させることを目的としています。その結果、エンドユーザーは、より低コストで効率的な計算リソースを得ることができます。同時に、ステーキングメカニズムにより、品質管理メカニズムに違反したり、ネットワークが中断された場合、リソース提供者には相応の罰則があります。
その特徴は次のとおりです:
余剰のGPUリソースを集める:供給者は主に第三者の独立した中小型データセンター、暗号マイニングファームなどのオペレーターの余剰計算力リソースで、コンセンサスメカニズムはPoSのマイニングハードウェアです。現在、より低い参入障壁のデバイスを立ち上げることを目指すプロジェクトもあり、特定のプロジェクトが特定のデバイスを利用して大規模モデル推論の計算ネットワークを構築しています。
AI算力のロングテール市場に直面して:
a.「技術的な観点から見ると」分散型コンピューティング市場は推論ステップにより適しています。トレーニングは超大規模クラスタのGPUによるデータ処理能力に依存しがちですが、推論はGPUの計算性能に対する依存度は比較的低く、いくつかのプロジェクトは低遅延のレンダリング作業やAI推論アプリケーションに焦点を当てています。
b.「需要側の観点から見ると」中小規模の演算力を持つ需要者は、自分自身の大規模モデルを単独で訓練することはなく、少数の主要な大規模モデルの周りで最適化や微調整を行うことを選択します。これらのシナリオは、分散された未使用の演算力リソースに自然に適しています。
データ
データはAIの基盤です。データがなければ、計算は浮遊物のように無意味であり、データとモデルの関係は「ガベージイン、ガベージアウト」という諺のようなものです。データの量と入力の質が最終的なモデルの出力の質を決定します。現在のAIモデルのトレーニングにおいて、データはモデルの言語能力、理解能力、さらには価値観や人間的な表現を決定します。現在、AIのデータ需要の困難は主に以下の4つの側面に焦点を当てています:
データの飢餓:AIモデルのトレーニングは大量のデータ入力に依存しています。公開された資料によると、ある会社があるモデルのトレーニングに使用したパラメータの量は兆レベルに達しました。
データ品質:AIと各業界の結合が進む中で、データのタイムリーさ、データの多様性、垂直データの専門性、新興データソースとしてのソーシャルメディアの感情の取り込みが、その品質に新しい要求を突きつけています。
プライバシーとコンプライアンスの問題:現在、各国や企業は高品質なデータセットの重要性に気づき始めており、データセットのスクレイピングに制限をかけています。
データ処理コストが高い:データ量が多く、処理プロセスが複雑です。公開資料によると、AI企業の30%以上の研究開発コストは基礎データの収集と処理に使われています。
現在、web3 のソリューションは以下の四つの側面で表れています:
1、データ収集:無料で提供される実世界のデータの収集が急速に枯渇しており、AI企業のデータに対する支出は年々増加しています。しかし同時に、この支出はデータの真の貢献者には還元されておらず、プラットフォームはデータによる価値創造をまったく享受しています。たとえば、あるプラットフォームはAI企業とのデータライセンス契約を通じて、合計2億300万ドルの収益を実現しました。
真に貢献するユーザーがデータによって生まれる価値の創造に同様に参加し、分散型ネットワークとインセンティブメカニズムを通じて、低コストでユーザーのよりプライベートで、より価値のあるデータを取得することがWeb3のビジョンです。
あるプロジェクトは、分散型のデータ層とネットワークであり、ユーザーはノードを運営することで、未使用の帯域幅と中継トラフィックを提供し、インターネット全体のリアルタイムデータをキャッチし、トークン報酬を得ることができます;
あるプロジェクトは独自のデータ流動性プール(DLP)コンセプトを導入し、ユーザーは自分のプライベートデータ(購入履歴、ブラウジング習慣、ソーシャルメディア活動など)を特定のDLPにアップロードし、これらのデータを特定の第三者に使用を許可するかどうかを柔軟に選択できます;
あるプロジェクトでは、ユーザーは特定のプラットフォーム上で特定のタグを使用し、@特定のアカウントを指定することでデータ収集を実現できます。
2、データ前処理:AIのデータ処理プロセスにおいて、収集されたデータは通常雑音が多く、エラーが含まれているため、モデルを訓練する前にクリーンアップし、使用可能なフォーマットに変換する必要があります。これには、標準化、フィルタリング、および欠損値の処理という繰り返しのタスクが含まれます。この段階はAI業界において数少ない人間の作業がある部分であり、データアノテーターという職業が生まれました。モデルのデータ品質への要求が高まるにつれて、データアノテーターのハードルも上がっていますが、このタスクはWeb3の非中央集権的なインセンティブメカニズムに自然に適しています。
現在、一部のプロジェクトがこの重要なステップであるデータラベリングの追加を検討しています。
あるプロジェクトは「Train2earn」の概念を提唱し、データの質を強調し、ユーザーは注釈データやコメント、その他の形式の入力を提供することで報酬を得ることができます。
データラベリングプロジェクトのあるプロジェクトは、ラベリングタスクをゲーム化し、ユーザーがポイントをステークしてより多くのポイントを獲得できるようにします。
3、データプライバシーとセキュリティ:明確にする必要があるのは、データプライバシーとセキュリティは異なる概念であるということです。データプライバシーはセンシティブデータの取り扱いに関わり、データセキュリティはデータ情報を不正アクセス、破壊、盗難から保護します。したがって、Web3プライバシー技術の利点と潜在的な応用シーンは、2つの側面に現れます:(1)センシティブデータのトレーニング;(2)データコラボレーション:複数のデータ所有者が原データを共有せずにAIトレーニングに共同で参加できます。
現在のWeb3で一般的なプライバシー技術には、以下が含まれます:
信頼実行環境(TEE)、例えばあるプロジェクト;
完全同態暗号(FHE)、例えばいくつかのプロジェクト;
ゼロ知識技術(zk)、あるプロジェクトが zkTLS 技術を使用して HTTPS トラフィックのゼロ知識証明を生成し、ユーザーが外部サイトから安全に活動、評判、アイデンティティデータをインポートできるようにし、敏感な情報を公開する必要がありません。
しかし、現時点ではこの分野はまだ初期段階にあり、大部分のプロジェクトはまだ探索中です。現在の一つの困難は計算コストが高すぎることで、いくつかの例は次のとおりです:
あるフレームワークは、1M-nanoGPTモデルの証明を生成するのに約80分かかります。
ある会社のデータによると、zkML のオーバーヘッドは純粋な計算よりも 1000 倍以上高い。
4、データストレージ:データが得られた後、さらに必要なのは一つの場所です。