Blog

AIインフラストラクチャのサプライチェーンをオープンに

Written by Tzvika Naveh | May 19, 2025 6:19:17 AM
今日の競争の激しい人工知能(AI)の環境では、ハイパースケーラーや大企業が、オープンでスケーラブル、柔軟な技術インフラの重要性を急速に認識しています。特に、Nvidia の AI ハードウェアやオプティクスに依存する従来のベンダーロックイン型のシステムは、高いコスト、供給の制約、柔軟性の不足、専門的なスキル要件といった大きな課題を引き起こしています。このため、ハードウェアコンポーネントを自由に組み合わせて使用できるオープンアーキテクチャの重要性が増しています。これにより、イノベーションが加速し、長期的な適応性が確保されます。

ドライブネッツで実現するオープンな AI インフラストラクチャ 

ドライブネッツの Network Cloud-AI は、オープンな標準アーキテクチャを提供することで、組織を従来の制約から解放し、サプライチェーンの多様性を活用してリスクを軽減するための代替手段となります。以下では、ドライブネッツがどのようにしてオープンな AI インフラストラクチャの実現を支援しているかを紹介します。

ハードウェアの柔軟性

ドライブネッツは、ハイパースケーラーや企業に対し、インフラをカスタマイズできる比類のない柔軟性を提供します。ドライブネッツは以下を実現します:

  • GPU、ASIC、ODM の非依存性:複数のイーサネット NIC/DPU、多様なGPU/アクセラレータ、複数のホワイトボックスODMベンダーが提供する多様なネットワーキングASICをサポートし、コスト効率とスケーラビリティを保証します。
  • 多様なオプティクスの選択肢:複数のベンダー(例:Fujitsu、Acacia、Ciena、Infineraなど)のオプティクスと互換性があり、サプライチェーンのボトルネックを軽減し、安定した納期を保証します。

サプライチェーンの多様化

ドライブネッツのオープンなエコシステムは、サプライチェーンの多様化を促進し、特定ベンダーへの依存を低減します。複数のハードウェアソースを活用できるため、アーキテクチャに柔軟性がもたらされます。同社のプラットフォームは、「Open Compute Project(OCP)」が策定する「Distributed Disaggregated Chassis(DDC:分離分散型シャーシ)」仕様に準拠しており、真のオープン性と相互運用性を備えています。 



イーサネット:AIネットワーキングの新たな標準

AI および高性能コンピューティング(HPC)ワークロードが進化し続ける中で、イーサネットはAIネットワーキングの主流のソリューションとして浮上しています。ドライブネッツは、この変革の最前線に立っており、Ultra Ethernet Consortium(UEC)のメンバーとして、オープンかつマルチベンダー対応のイーサネットソリューションに取り組んでいます。 

この変革の利点は以下の通りです:

  • 相互運用性:標準化されたアーキテクチャはベンダーロックインを排除します。
  • 導入の簡素化:イーサネットベースのソリューションは複雑さを軽減し、市場投入までの時間(TTM)および展開までの時間(TTD)を短縮します。また、業界で広く普及したスキルセットを活用できるため、InfiniBandの専門知識は不要です。
  • ジョブ完了時間(JCT)の改善:ドライブネッツ のNetwork Cloud-AIは、イーサネット上で最大30%のJCT性能向上を実現していることが主要な研究機関のネットワークで実証されています。

AIクラスター管理の簡素化  

数千の GPU を持つ大規模な AI クラスターの設定は非常に大変です。ドライブネッツのNetwork Cloud-AIは、この課題に対処し、AI クラスターの再構成の必要性を最小限に抑えます。ドライブネッツのソリューションは、柔軟なワークロード管理を実現し、多様なGPUやNIC ベンダーをサポートしながら、ワークロード間のシームレスな移行を可能にします。他のイーサネットベースのソリューションでは、しばしば膨大な調整や設定の変更(バッファサイズ、PFC、ECNなど)が必要ですが、ドライブネッツの Network Cloud-AI では再構成の必要性を最小限に抑え、ワークロード間の移行をスムーズにします。 

さらに、ドライブネッツのソリューションは、バックエンドとストレージ接続の両方に単一ネットワークを提供することにより、ネットワーク管理の統一を実現します。ストレージは AI ワークロードのパフォーマンスに直接影響を与えるため、クラスター・インフラの構築時には、ストレージ・ネットワークとの完璧な調整が必要です。 

ドライブネッツの Network Cloud-AI は、ストレージとコンピュートのトラフィックを同じファブリックでやり取りしますが、相互に影響を与えることはありません(「ノイジー・ネイバー」問題を回避)。これにより、特別なオーバーレイ技術(例:VXLAN カプセル化)は不要となり、レイテンシが低減され、AI クラスターの管理が簡素化されます。

オープンな AI インフラは不可欠

AI 機能の展開競争において、オープンなインフラはもはやオプションではなく、必須です。ドライブネッツのオープンな標準プラットフォームは、ハイパースケーラーや大企業が Nvidia のInfiniBand のロックインから解放され、ハードウェアおよびオプティクスの調達を効率化し、強力なサプライチェーンを確保し、AIの取り組みを加速することを可能にします。イーサネットを AI ネットワーキングの基盤として採用し、分離型のオープンなエコシステムを活用することで、ドライブネッツは展開の迅速化、パフォーマンスの向上、そして比類のない柔軟性を実現します。