# AIとDePINの交差点:分散型GPUネットワークの開発を探る2023年以降、AIとDePINはWeb3分野で注目を集めており、それぞれの時価総額は300億ドルと230億ドルに達しています。本稿では両者の交差領域に焦点を当て、関連プロトコルの発展状況を探ります。AI技術スタックにおいて、DePINネットワークは計算リソースを提供することでAIに力を与えています。大手テクノロジー企業の発展によりGPUが不足しているため、他の開発者は自分のAIモデルを構築するために十分なGPUリソースを得ることが難しいです。従来、開発者は中央集権的なクラウドサービスプロバイダーを選択していましたが、これはしばしば柔軟性のない長期契約を結ぶ必要があり、効率が低下します。DePINは、より柔軟でコスト効率の高い代替手段を提供します。これは、トークン報酬を通じてリソース貢献を奨励し、GPUリソースを個人所有者からデータセンターにクラウドソーシングし、ハードウェアを必要とするユーザーに統一された供給を形成します。これは、開発者にカスタマイズ可能でオンデマンドの計算能力を提供するだけでなく、GPU所有者に追加の収入源を提供します。市場にはすでに複数のAI DePINネットワークが存在し、それぞれに特徴があります。次に、いくつかの主要なプロジェクトの特徴と目標、そしてそれらの具体的な成果について探っていきます。! [AIとDePINの交差点](https://img-cdn.gateio.im/social/moments-112d1efea526039e305cc846f2ca3c50)## AI DePINネットワークの概要**Render**はGPU計算能力を提供するP2Pネットワークの先駆者であり、最初はコンテンツ制作のレンダリングに注力していましたが、後に範囲をAI計算タスクに拡大しました。特異:- オスカー受賞技術を持つクラウドグラフィックス会社OTOYによって設立された- GPUネットワークは、パラマウント・ピクチャーズやPUBGなどのエンターテインメント業界の大手企業によって使用されています。- Stability AIとEndeavorと協力し、AIモデルを3Dコンテンツレンダリングワークフローに統合- 複数の計算クライアントを承認し、より多くのDePINネットワークのGPUを統合する**Akash**は、ストレージ、GPU及びCPU計算をサポートする"スーパー・クラウド"の代替品として位置付けられています。コンテナプラットフォームとKubernetesによって管理される計算ノードを利用し、環境を超えてシームレスにソフトウェアを展開し、あらゆるクラウドネイティブアプリケーションを実行できます。特異:- 一般的な計算からネットワークホスティングまでの幅広い計算タスク- AkashMLは、そのGPUネットワークでHugging Face上の15,000以上のモデルを実行することを許可します- Mistral AIのLLMモデルチャットボットやStability AIのSDXLモデルなど、いくつかの有名なアプリケーションを管理しました。- メタバース、AIデプロイメント、連邦学習の構築をサポートするプラットフォーム**io.net**は、AIおよびMLユースケース専用の分散GPUクラウドクラスターへのアクセスを提供します。これは、データセンター、暗号マイナー、およびその他の分散ネットワークからのGPUリソースを集約します。特異:- IO-SDKはPyTorchやTensorflowなどのフレームワークと互換性があり、マルチレイヤーアーキテクチャは要求に応じて動的に拡張可能です。- 3種類の異なるタイプのクラスターを作成することをサポートし、2分以内に起動できます- Render、Filecoin、Aethirなどの複数のDePINネットワークと連携して、GPUリソースを統合**Gensyn**は、機械学習および深層学習計算に特化したGPU計算能力を提供します。革新的な検証メカニズムを通じて、効率を向上させます。特異:- V100等価GPUの1時間あたりのコストは約0.40ドルで、コストを大幅に節約します。- プルーフスタックを介して、事前訓練されたベースモデルを微調整できます- これらの基礎モデルは分散化され、世界中に所有されることになります。**Aethir**は企業向けGPUを搭載し、AI、ML、クラウドゲームなどの計算集約型分野に特化しています。そのネットワーク内のコンテナは、クラウドベースのアプリケーションを実行する仮想エンドポイントとして機能します。特異:- AIやクラウドゲームに加えて、クラウドフォンサービスにも拡大し、APhoneと協力して分散化されたクラウドスマートフォンを発売しました。- NVIDIA、Super Micro、HPEなどの主要なWeb2企業との広範な協力関係を確立する- CARVやMagic Edenなどの複数のWeb3プロジェクトと提携**Phala Network**はWeb3 AIソリューションの実行層です。そのブロックチェーンは、信頼の不要なクラウドコンピューティングソリューションであり、信頼できる実行環境(TEE)を通じてプライバシー問題を処理するように設計されています。特異:- 検証可能な計算のコプロセッサプロトコルとして機能し、AIエージェントがチェーン上のリソースを利用できるようにする- AI代理契約はRedpillを通じてOpenAI、Llamaなどのトップ大規模言語モデルにアクセスできます。- 未来にはzk-proofs、マルチパーティ計算、完全同型暗号などの複数の証明システムが含まれます- 将来的にはH100など他のTEE GPUをサポートし、計算能力を向上させます。! [AIとDePINの交差点](https://img-cdn.gateio.im/social/moments-68a395d50be4ab07fbc575dd54441164)## プロジェクト比較| | レンダリング | アカシュ | io.net | ゲンシン | アエシール | ファラ ||--------|-------------|------------------|---------------------|---------|---------------|----------|| ハードウェア | GPU \& CPU | GPU \& CPU | GPU \& CPU | GPUの| GPUの| CPU || 事業の重点 | グラフィックレンダリングとAI | クラウドコンピューティング、レンダリングとAI | AI | AI | AI、クラウドゲームとテレコム | オンチェーンAI実行 || AI タスクの種類 | 推論 | 両方 | 両方 | トレーニング | トレーニング | 実行 || 仕事の価格設定 | パフォーマンスに基づく価格設定 | 逆オークション | 市場価格設定 | 市場価格設定 | 入札システム | 権益計算 || ブロックチェーン | ソラナ | コスモス | ソラナ | ジェンシン | アービトラム | ポルカドット || データプライバシー | 暗号化\&分散化 | mTLS認証 | データ暗号化 | セキュアマッピング | 暗号化 | TEE || 作業コスト | 0.5-5% |仕事あたり 20% USDC、4% AKT | 2% USDC、0.25%の準備金手数料 | 低コスト | セッションごとに20% | 誓約金額に比例 || 安全 | レンダリング証明 | ステーク証明 | 計算証明 | ステーク証明 | レンダリング能力証明 | リレーチェーンから継承 || 完了証明 | - | - | タイムロック証明 | 学習証明 | レンダリング作業証明 | TEE証明 || 品質保証 | 争議 | - | - | 検証者と通報者 | チェッカーノード | リモート証明 || GPU クラスター | いいえ | はい | はい | はい | はい | いいえ |###の重要性**クラスタと並列計算の可用性**分散化計算フレームワークはGPUクラスターを実現し、モデルの精度に影響を与えずにより効率的なトレーニングを提供し、同時にスケーラビリティを強化しました。複雑なAIモデルのトレーニングには強力な計算能力が必要であり、通常は分散化計算に依存します。例えば、OpenAIのGPT-4モデルは18兆以上のパラメーターを持ち、3〜4ヶ月の間に128のクラスターで約25,000のNvidia A100 GPUを使用してトレーニングされました。ほとんどの重点プロジェクトは現在、並列計算を実現するためにクラスターを統合しています。io.netはRender、Filecoin、Aethirなどのプロジェクトと協力し、より多くのGPUをネットワークに取り入れ、24年の第1四半期に3,800を超えるクラスターを展開しました。Renderはクラスターをサポートしていませんが、単一のフレームを複数のノードに分解して同時に処理する点で似ています。Phalaは現在、CPUのみをサポートしていますが、CPUワーカーのクラスター化を許可しています。**データプライバシー**AIモデルの開発には大量のデータセットが必要であり、これらのデータには機密情報が含まれている可能性があります。データプライバシーを確保することは、データの管理権をデータ提供者に返す上で極めて重要です。ほとんどのプロジェクトは、データプライバシーを保護するために何らかの形式のデータ暗号化を使用しています。Renderはレンダリング結果を公開する際に暗号化とハッシュ処理を使用し、io.netとGensynはデータ暗号化を採用し、AkashはmTLS認証を使用しています。io.netは最近、Mind Networkと協力して完全同態暗号(FHE)を導入しました。これにより、データを先に解読することなく暗号化されたデータを処理することが可能になります。Phala Networkは、外部プロセスがデータにアクセスしたり変更したりするのを防ぐために、信頼できる実行環境(TEE)を導入しました。**計算完了証明と品質チェック**これらのプロジェクトが提供するGPUは、グラフィックスのレンダリングからAI計算まで幅広いサービスに使用できるため、証明および品質チェックのメカニズムを完了する必要があります。GensynとAethirは計算が完了した後に証明を生成し、io.netの証明はレンタルされたGPUの性能が十分に活用されていることを示します。GensynとAethirは完了した計算に対して品質チェックを行います。Renderは紛争解決プロセスの使用を推奨します。Phalaは完了後にTEE証明を生成し、AIエージェントがチェーン上で必要な操作を実行することを保証します。! [AIとDePINの交差点](https://img-cdn.gateio.im/social/moments-8f83f1affbdfd92f33bc47afe8928c5c)### ハードウェア統計データ| | レンダリング | アカシュ | io.net | ゲンシン | アエシール | ファラ ||-------------|--------|-------|--------|------------|------------|--------|| GPUの数 | 5600 | 384 | 38177 | - | 40000+ | - || CPUの数 | 114 | 14672 | 5433 | - | - | 30000+ || H100/A100個 | - | 157 | 2330 | - | 2000+ | - || H100料金/時間 | - | 1.46ドル | 1.19ドル| - | - | - || A100料金/時間 | - | 1.37ドル | 1.50ドル| $0.55 ( 推定) | $0.33 (推定) | - |**高性能GPUの要件**AIモデルのトレーニングには、NvidiaのA100やH100のような最高性能のGPUが必要です。H100の推論性能はA100の4倍速く、特に自社のLLMをトレーニングしている大企業にとっては、最適なGPUとなっています。分散化GPU市場の提供者は、Web2の競合と競争するために、より低価格を提供するだけでなく、市場の実際の需要を満たす必要があります。2023年、Nvidiaは中央集権的な大手テクノロジー企業に50万台以上のH100を納入し、同等のハードウェアの入手が困難になりました。io.netとAethirはそれぞれ2000以上のH100とA100ユニットを所有しており、大規模モデル計算に適しています。開発者が必要とするクラスターのサイズに基づいて、現在これらの分散化GPUサービスのコストは中央集権型GPUサービスよりもはるかに低くなっています。ネットワーク接続されたGPUクラスターはメモリ面で制限がありますが、柔軟性と複数のノードにまたがるワークロードの配分能力を必要とするユーザーにとって、分散化GPUネットワークは依然として分散コンピューティングタスクに強力な計算能力とスケーラビリティを提供できます。**コンシューマー向けGPU/CPUを提供**CPUはAIモデルのトレーニングにおいても重要な役割を果たし、データ前処理からメモリリソース管理などの複数の段階で使用されます。コンシューマ向けGPUは、あまり負荷のかからないタスク、例えば事前トレーニングされたモデルの微調整や小規模なデータセットでの小規模モデルのトレーニングに使用できます。85%以上の消費者のGPUリソースがアイドル状態であることを考慮すると、Render、Akash、io.netなどのプロジェクトはこの市場にもサービスを提供できます。これらのオプションを提供することで、彼らは独自の市場ポジショニングを開発し、大規模な集約計算、小規模なレンダリング、またはその両方の混合に焦点を当てることができます。! [AIとDePINの交差点](https://img-cdn.gateio.im/social/moments-df4f88879b53c4aa604b248fc9ff393a)## まとめAI DePIN分野は依然として相対的に新興であり、自身の課題に直面しています。しかし、これらの分散化GPUネットワーク上で実行されるタスクとハードウェアの数は著しく増加しており、Web2クラウドプロバイダーのハードウェアリソースの代替品に対する需要の増加を浮き彫りにしています。同時に、ハードウェアプロバイダーの増加も以前に十分に活用されていなかった供給を示しています。これはさらに、AI DePINネットワークの製品市場適合性を証明し、需要と供給の両面における課題を効果的に解決しています。未来を見据えると、AIは数兆ドル規模の成長市場になることが期待されています。これらの分散化されたGPUネットワークは、開発者にコスト効率の良い計算代替手段を提供する上で重要な役割を果たします。需要と供給のギャップを絶えず埋めることで、これらのネットワークはAIと計算インフラの未来の構造に大きく貢献するでしょう。! [AIとDePINの交差点](https://img-cdn.gateio.im/social/moments-24fd635c71ed2aad842d38bf56e70b43)! [AIとDePINの交差点](https://img-cdn.gateio.im/social/moments-7a05f8ca3e44b9c91a7917953175da09)! [AIとDePINの交差点](https://img-cdn.gateio.im/social/moments-85bfeec032db538007843e9b55783e18)! [AIとDePINの交差点](https://img-cdn.gateio.im/social/moments-10f0acfcfea618361b9c445c49edfc88)
AIとDePINの衝突:分散型GPUネットワークの開発を探る
AIとDePINの交差点:分散型GPUネットワークの開発を探る
2023年以降、AIとDePINはWeb3分野で注目を集めており、それぞれの時価総額は300億ドルと230億ドルに達しています。本稿では両者の交差領域に焦点を当て、関連プロトコルの発展状況を探ります。
AI技術スタックにおいて、DePINネットワークは計算リソースを提供することでAIに力を与えています。大手テクノロジー企業の発展によりGPUが不足しているため、他の開発者は自分のAIモデルを構築するために十分なGPUリソースを得ることが難しいです。従来、開発者は中央集権的なクラウドサービスプロバイダーを選択していましたが、これはしばしば柔軟性のない長期契約を結ぶ必要があり、効率が低下します。
DePINは、より柔軟でコスト効率の高い代替手段を提供します。これは、トークン報酬を通じてリソース貢献を奨励し、GPUリソースを個人所有者からデータセンターにクラウドソーシングし、ハードウェアを必要とするユーザーに統一された供給を形成します。これは、開発者にカスタマイズ可能でオンデマンドの計算能力を提供するだけでなく、GPU所有者に追加の収入源を提供します。
市場にはすでに複数のAI DePINネットワークが存在し、それぞれに特徴があります。次に、いくつかの主要なプロジェクトの特徴と目標、そしてそれらの具体的な成果について探っていきます。
! AIとDePINの交差点
AI DePINネットワークの概要
RenderはGPU計算能力を提供するP2Pネットワークの先駆者であり、最初はコンテンツ制作のレンダリングに注力していましたが、後に範囲をAI計算タスクに拡大しました。
特異:
Akashは、ストレージ、GPU及びCPU計算をサポートする"スーパー・クラウド"の代替品として位置付けられています。コンテナプラットフォームとKubernetesによって管理される計算ノードを利用し、環境を超えてシームレスにソフトウェアを展開し、あらゆるクラウドネイティブアプリケーションを実行できます。
特異:
io.netは、AIおよびMLユースケース専用の分散GPUクラウドクラスターへのアクセスを提供します。これは、データセンター、暗号マイナー、およびその他の分散ネットワークからのGPUリソースを集約します。
特異:
Gensynは、機械学習および深層学習計算に特化したGPU計算能力を提供します。革新的な検証メカニズムを通じて、効率を向上させます。
特異:
Aethirは企業向けGPUを搭載し、AI、ML、クラウドゲームなどの計算集約型分野に特化しています。そのネットワーク内のコンテナは、クラウドベースのアプリケーションを実行する仮想エンドポイントとして機能します。
特異:
Phala NetworkはWeb3 AIソリューションの実行層です。そのブロックチェーンは、信頼の不要なクラウドコンピューティングソリューションであり、信頼できる実行環境(TEE)を通じてプライバシー問題を処理するように設計されています。
特異:
! AIとDePINの交差点
プロジェクト比較
| | レンダリング | アカシュ | io.net | ゲンシン | アエシール | ファラ | |--------|-------------|------------------|---------------------|---------|---------------|----------| | ハードウェア | GPU & CPU | GPU & CPU | GPU & CPU | GPUの| GPUの| CPU | | 事業の重点 | グラフィックレンダリングとAI | クラウドコンピューティング、レンダリングとAI | AI | AI | AI、クラウドゲームとテレコム | オンチェーンAI実行 | | AI タスクの種類 | 推論 | 両方 | 両方 | トレーニング | トレーニング | 実行 | | 仕事の価格設定 | パフォーマンスに基づく価格設定 | 逆オークション | 市場価格設定 | 市場価格設定 | 入札システム | 権益計算 | | ブロックチェーン | ソラナ | コスモス | ソラナ | ジェンシン | アービトラム | ポルカドット | | データプライバシー | 暗号化&分散化 | mTLS認証 | データ暗号化 | セキュアマッピング | 暗号化 | TEE | | 作業コスト | 0.5-5% |仕事あたり 20% USDC、4% AKT | 2% USDC、0.25%の準備金手数料 | 低コスト | セッションごとに20% | 誓約金額に比例 | | 安全 | レンダリング証明 | ステーク証明 | 計算証明 | ステーク証明 | レンダリング能力証明 | リレーチェーンから継承 | | 完了証明 | - | - | タイムロック証明 | 学習証明 | レンダリング作業証明 | TEE証明 | | 品質保証 | 争議 | - | - | 検証者と通報者 | チェッカーノード | リモート証明 | | GPU クラスター | いいえ | はい | はい | はい | はい | いいえ |
###の重要性
クラスタと並列計算の可用性
分散化計算フレームワークはGPUクラスターを実現し、モデルの精度に影響を与えずにより効率的なトレーニングを提供し、同時にスケーラビリティを強化しました。複雑なAIモデルのトレーニングには強力な計算能力が必要であり、通常は分散化計算に依存します。例えば、OpenAIのGPT-4モデルは18兆以上のパラメーターを持ち、3〜4ヶ月の間に128のクラスターで約25,000のNvidia A100 GPUを使用してトレーニングされました。
ほとんどの重点プロジェクトは現在、並列計算を実現するためにクラスターを統合しています。io.netはRender、Filecoin、Aethirなどのプロジェクトと協力し、より多くのGPUをネットワークに取り入れ、24年の第1四半期に3,800を超えるクラスターを展開しました。Renderはクラスターをサポートしていませんが、単一のフレームを複数のノードに分解して同時に処理する点で似ています。Phalaは現在、CPUのみをサポートしていますが、CPUワーカーのクラスター化を許可しています。
データプライバシー
AIモデルの開発には大量のデータセットが必要であり、これらのデータには機密情報が含まれている可能性があります。データプライバシーを確保することは、データの管理権をデータ提供者に返す上で極めて重要です。
ほとんどのプロジェクトは、データプライバシーを保護するために何らかの形式のデータ暗号化を使用しています。Renderはレンダリング結果を公開する際に暗号化とハッシュ処理を使用し、io.netとGensynはデータ暗号化を採用し、AkashはmTLS認証を使用しています。
io.netは最近、Mind Networkと協力して完全同態暗号(FHE)を導入しました。これにより、データを先に解読することなく暗号化されたデータを処理することが可能になります。Phala Networkは、外部プロセスがデータにアクセスしたり変更したりするのを防ぐために、信頼できる実行環境(TEE)を導入しました。
計算完了証明と品質チェック
これらのプロジェクトが提供するGPUは、グラフィックスのレンダリングからAI計算まで幅広いサービスに使用できるため、証明および品質チェックのメカニズムを完了する必要があります。
GensynとAethirは計算が完了した後に証明を生成し、io.netの証明はレンタルされたGPUの性能が十分に活用されていることを示します。GensynとAethirは完了した計算に対して品質チェックを行います。Renderは紛争解決プロセスの使用を推奨します。Phalaは完了後にTEE証明を生成し、AIエージェントがチェーン上で必要な操作を実行することを保証します。
! AIとDePINの交差点
ハードウェア統計データ
| | レンダリング | アカシュ | io.net | ゲンシン | アエシール | ファラ | |-------------|--------|-------|--------|------------|------------|--------| | GPUの数 | 5600 | 384 | 38177 | - | 40000+ | - | | CPUの数 | 114 | 14672 | 5433 | - | - | 30000+ | | H100/A100個 | - | 157 | 2330 | - | 2000+ | - | | H100料金/時間 | - | 1.46ドル | 1.19ドル| - | - | - | | A100料金/時間 | - | 1.37ドル | 1.50ドル| $0.55 ( 推定) | $0.33 (推定) | - |
高性能GPUの要件
AIモデルのトレーニングには、NvidiaのA100やH100のような最高性能のGPUが必要です。H100の推論性能はA100の4倍速く、特に自社のLLMをトレーニングしている大企業にとっては、最適なGPUとなっています。
分散化GPU市場の提供者は、Web2の競合と競争するために、より低価格を提供するだけでなく、市場の実際の需要を満たす必要があります。2023年、Nvidiaは中央集権的な大手テクノロジー企業に50万台以上のH100を納入し、同等のハードウェアの入手が困難になりました。
io.netとAethirはそれぞれ2000以上のH100とA100ユニットを所有しており、大規模モデル計算に適しています。開発者が必要とするクラスターのサイズに基づいて、現在これらの分散化GPUサービスのコストは中央集権型GPUサービスよりもはるかに低くなっています。
ネットワーク接続されたGPUクラスターはメモリ面で制限がありますが、柔軟性と複数のノードにまたがるワークロードの配分能力を必要とするユーザーにとって、分散化GPUネットワークは依然として分散コンピューティングタスクに強力な計算能力とスケーラビリティを提供できます。
コンシューマー向けGPU/CPUを提供
CPUはAIモデルのトレーニングにおいても重要な役割を果たし、データ前処理からメモリリソース管理などの複数の段階で使用されます。コンシューマ向けGPUは、あまり負荷のかからないタスク、例えば事前トレーニングされたモデルの微調整や小規模なデータセットでの小規模モデルのトレーニングに使用できます。
85%以上の消費者のGPUリソースがアイドル状態であることを考慮すると、Render、Akash、io.netなどのプロジェクトはこの市場にもサービスを提供できます。これらのオプションを提供することで、彼らは独自の市場ポジショニングを開発し、大規模な集約計算、小規模なレンダリング、またはその両方の混合に焦点を当てることができます。
! AIとDePINの交差点
まとめ
AI DePIN分野は依然として相対的に新興であり、自身の課題に直面しています。しかし、これらの分散化GPUネットワーク上で実行されるタスクとハードウェアの数は著しく増加しており、Web2クラウドプロバイダーのハードウェアリソースの代替品に対する需要の増加を浮き彫りにしています。同時に、ハードウェアプロバイダーの増加も以前に十分に活用されていなかった供給を示しています。これはさらに、AI DePINネットワークの製品市場適合性を証明し、需要と供給の両面における課題を効果的に解決しています。
未来を見据えると、AIは数兆ドル規模の成長市場になることが期待されています。これらの分散化されたGPUネットワークは、開発者にコスト効率の良い計算代替手段を提供する上で重要な役割を果たします。需要と供給のギャップを絶えず埋めることで、これらのネットワークはAIと計算インフラの未来の構造に大きく貢献するでしょう。
! AIとDePINの交差点
! AIとDePINの交差点
! AIとDePINの交差点
! AIとDePINの交差点