ドライブネッツの Network Cloud-AI は、オープンな標準アーキテクチャを提供することで、組織を従来の制約から解放し、サプライチェーンの多様性を活用してリスクを軽減するための代替手段となります。以下では、ドライブネッツがどのようにしてオープンな AI インフラストラクチャの実現を支援しているかを紹介します。
ドライブネッツは、ハイパースケーラーや企業に対し、インフラをカスタマイズできる比類のない柔軟性を提供します。ドライブネッツは以下を実現します:
ドライブネッツのオープンなエコシステムは、サプライチェーンの多様化を促進し、特定ベンダーへの依存を低減します。複数のハードウェアソースを活用できるため、アーキテクチャに柔軟性がもたらされます。同社のプラットフォームは、「Open Compute Project(OCP)」が策定する「Distributed Disaggregated Chassis(DDC:分離分散型シャーシ)」仕様に準拠しており、真のオープン性と相互運用性を備えています。
AI および高性能コンピューティング(HPC)ワークロードが進化し続ける中で、イーサネットはAIネットワーキングの主流のソリューションとして浮上しています。ドライブネッツは、この変革の最前線に立っており、Ultra Ethernet Consortium(UEC)のメンバーとして、オープンかつマルチベンダー対応のイーサネットソリューションに取り組んでいます。
この変革の利点は以下の通りです:
数千の GPU を持つ大規模な AI クラスターの設定は非常に大変です。ドライブネッツのNetwork Cloud-AIは、この課題に対処し、AI クラスターの再構成の必要性を最小限に抑えます。ドライブネッツのソリューションは、柔軟なワークロード管理を実現し、多様なGPUやNIC ベンダーをサポートしながら、ワークロード間のシームレスな移行を可能にします。他のイーサネットベースのソリューションでは、しばしば膨大な調整や設定の変更(バッファサイズ、PFC、ECNなど)が必要ですが、ドライブネッツの Network Cloud-AI では再構成の必要性を最小限に抑え、ワークロード間の移行をスムーズにします。
さらに、ドライブネッツのソリューションは、バックエンドとストレージ接続の両方に単一ネットワークを提供することにより、ネットワーク管理の統一を実現します。ストレージは AI ワークロードのパフォーマンスに直接影響を与えるため、クラスター・インフラの構築時には、ストレージ・ネットワークとの完璧な調整が必要です。
ドライブネッツの Network Cloud-AI は、ストレージとコンピュートのトラフィックを同じファブリックでやり取りしますが、相互に影響を与えることはありません(「ノイジー・ネイバー」問題を回避)。これにより、特別なオーバーレイ技術(例:VXLAN カプセル化)は不要となり、レイテンシが低減され、AI クラスターの管理が簡素化されます。
AI 機能の展開競争において、オープンなインフラはもはやオプションではなく、必須です。ドライブネッツのオープンな標準プラットフォームは、ハイパースケーラーや大企業が Nvidia のInfiniBand のロックインから解放され、ハードウェアおよびオプティクスの調達を効率化し、強力なサプライチェーンを確保し、AIの取り組みを加速することを可能にします。イーサネットを AI ネットワーキングの基盤として採用し、分離型のオープンなエコシステムを活用することで、ドライブネッツは展開の迅速化、パフォーマンスの向上、そして比類のない柔軟性を実現します。