Dell TechnologiesとNVIDIAは、最先端のAIワークフローに対応するため、PowerEdgeサーバー、PowerScaleストレージ、NVIDIA AI Enterpriseソフトウェアを組み合わせたインフラソリューションを提供している。今回の取り組みでは、AIモデルのトレーニングと推論に最適化されたスケーラブルなストレージと強力なGPUサポートが一体化され、特に大規模言語モデル(LLM)の処理において大きな性能向上を見せている。

DellのPowerScaleは最大252ノードまで拡張可能なスケールアウトNASプラットフォームで、オンプレミスからクラウド環境まで幅広く対応し、LLMトレーニング時の高い同時IO性能を発揮。NVIDIAのH100 GPUと接続されるPowerEdge XE9680サーバーは、特に自然言語処理など高度なAIアプリケーションに対応する。

これにより、企業がAIインフラを柔軟に拡張し、効率的なデータサイエンスパイプラインの構築が可能となっている。

PowerEdgeとPowerScaleが実現するAIトレーニングの効率化と拡張性

Samsung Galaxy S25 Ultraのデザインがリーク:iPhone風の丸みを帯びたエッジとSペン継続を確認

DellのPowerEdge XE9680サーバーとPowerScaleストレージは、AIトレーニングにおける効率と拡張性を追求した設計である。PowerEdgeには8基のNVIDIA H100 GPUが搭載され、高度な並列処理が可能で、特に大規模言語モデル(LLM)や自然言語処理(NLP)といった膨大な計算リソースを要するタスクに適している。また、NVIDIAの専用AIソフトウェアを活用し、パフォーマンスを最大限に引き出すための最適化が行われている。

このインフラは、企業がAIモデルのトレーニング規模を段階的に拡張できるようにしており、PowerScaleは最大252ノードのクラスターを構成できるスケールアウトNASを採用している。これにより、単一のシステム内でストレージリソースを一元的に管理しながら、急速に増大するデータ量に対応可能である。さらに、オンプレミス、クラウド、エッジに対応する柔軟な構成により、さまざまな環境での適用が可能で、エンタープライズ向けの強力なソリューションとして評価される。

特に、LLAMA 2モデルを用いたベンチマークテストでは、7Bおよび70Bパラメータのモデルにおいても、スループットの維持とスケーラビリティの実証に成功しており、Dellのインフラが大規模データセットに対応した優れた拡張性を持つことを示している。

ストレージとGPUの連携強化でAI処理を加速

DellのPowerScaleストレージは、NVMeディスクやOneFSファイルシステムといった先端技術を組み合わせ、AI処理において重要な高速データ転送を実現している。このシステムは、単一の名前空間内で高い同時実行性を可能とし、特にGPUによる並列処理との連携が強化されている。

RDMA over Converged Ethernet(RoCEv2)やGPU Direct Storage(GDS)などの技術を活用することで、GPUとストレージ間のデータ移動が効率化され、CPU負荷の軽減にも寄与している。また、MagnumIOソフトウェアを使用することで、データ転送のボトルネックが排除され、AIトレーニングの速度がさらに向上する。

これにより、AIワークフロー全体の処理効率が高まり、時間やリソースの節約が可能になる。DellのPowerScaleとNVIDIAのH100 GPUによる連携は、特にリアルタイムでの推論や大規模なデータセット処理において強力なメリットを発揮する。

これらの技術革新は、企業がAIプロジェクトに迅速かつ効率的に取り組むための基盤として、重要な役割を果たすと考えられる。

AI開発を加速するNVIDIA AI Enterpriseの意義

DellとNVIDIAの提携により提供されるNVIDIA AI Enterpriseは、AI開発のさまざまな段階において包括的なサポートを提供する。データの前処理、モデルのトレーニング、最適化、デプロイメントに至るまで、100以上のAIフレームワークと事前訓練モデルが備わっており、エンドツーエンドの効率を高める。

特に、LLMや生成AI(GenAI)のトレーニング環境において、NVIDIA AI Enterpriseはデータサイエンスパイプラインを加速し、開発期間の短縮と費用対効果の向上に貢献する。また、クラウドネイティブな設計により、セキュリティと柔軟性が確保されており、多様な環境での導入が容易である。

Dell PowerEdgeとPowerScaleの組み合わせにより、企業は独自のAIワークロードに適した環境を構築し、複雑なAIプロジェクトをスムーズに進行させることが可能である。