Intelは、最新の「oneAPI Deep Neural Network Library(oneDNN)」バージョン3.6を発表した。この新バージョンでは、Granite RapidsプロセッサやXe2グラフィックス向けの最適化を含む性能向上が実現されている。

oneDNNは、深層学習ソフトウェアの基盤として機能し、PyTorchやTensorFlow、ONNX Runtimeなどの主要フレームワークでIntelの拡張機能を活用する。最新リリースでは、Intel CPUおよびGPUのみならず、他のアーキテクチャも幅広くサポートする動きが進展している。

oneDNN 3.6の概要と主要な新機能

IntelがリリースしたoneAPI Deep Neural Network Library(oneDNN)バージョン3.6は、深層学習向けの性能を強化した重要なアップデートである。このライブラリは、ONNX RuntimeやOpenVINO、Apache MXNetなどの主要なディープラーニングフレームワークで利用されており、Intel拡張機能を活用することで最適なパフォーマンスを提供している。今回の3.6バージョンでは、Intelの最新プロセッサであるGranite RapidsやXe2グラフィックス向けに最適化された性能向上が見込まれている。

また、oneDNNは近年、Intel製品のみならず、ArmやPOWER、AMD、NVIDIAといった他社製CPUおよびGPUへの対応も進めており、広範なハードウェアサポートが特徴となっている。特に、汎用的なSYCLカーネルを使用したポータブルなCPUサポートの向上や、スパースAPIやマイクロカーネルAPIの実験的な追加が注目される機能である。

oneDNN 3.6は、パフォーマンスの大幅な改善と、次世代ハードウェアへの対応強化が進められており、今後のディープラーニング技術の発展において重要な役割を果たすと考えられている。

CPUとGPUの幅広いサポート強化

oneDNN 3.6の最大の特長の一つは、Intel製品だけでなく、他社製CPUやGPUへのサポートが強化されている点である。具体的には、ArmおよびPOWERプロセッサ、AMDおよびNVIDIA製GPUのサポートが拡充されている。これは、ディープラーニングの開発者や研究者にとって、幅広いハードウェア環境でoneDNNを利用できるメリットを提供するものである。

さらに、AArch64プロセッサに対する最適化や、SYCLカーネルを使用した汎用CPUサポートが改善されており、複数のハードウェアプラットフォームでの互換性が向上している。IntelのプロジェクトとしてスタートしたoneDNNだが、現在ではUnified Acceleration Foundation(UXL)の一部となり、より広範なエコシステムの中で発展を続けている。

こうしたマルチプラットフォーム対応の強化は、深層学習分野におけるoneDNNの重要性を高める要因となっており、異なるハードウェア間での一貫した性能を期待する開発者にとって大きな利点となる。

Granite RapidsとXe2グラフィックスへの最適化

Intelの最新プロセッサであるGranite Rapidsおよび新世代のXe2グラフィックスに向けた最適化が、oneDNN 3.6の大きな焦点である。Granite Rapidsは、データセンター向けの高性能プロセッサとして期待されており、その性能を最大限に引き出すための最適化がoneDNNで行われている。また、旧世代のSapphire Rapidsプロセッサ向けのパフォーマンス向上も含まれており、既存のIntel Xeonプロセッサユーザーにとっても大きなメリットがある。

さらに、IntelのXe2グラフィックスに対する初期的な最適化も導入されている。これは、Core Ultra Lunar Lake SoCや次世代のBattlemageグラフィックスプロセッサに向けた準備であり、これらのハードウェアがディープラーニングワークロードにおいて高いパフォーマンスを発揮することが期待される。

oneDNN 3.6のこうした最適化により、最新ハードウェアを活用したディープラーニングシステムの開発が加速し、次世代のAI技術の基盤となるだろう。

AMD、NVIDIA、Armなど他アーキテクチャへの対応進展

Intelは、oneDNN 3.6において他社アーキテクチャへの対応も進展させている。特に、AMDおよびNVIDIA製GPUに対するサポート強化が注目される。これにより、Intelハードウェアのみならず、さまざまなGPUを利用するディープラーニング開発者にとって、oneDNNの選択肢が広がることとなった。

また、Armアーキテクチャに対する最適化も進んでおり、AArch64プロセッサに対する特定の最適化が施されている。これにより、モバイルデバイスや組み込みシステム向けのディープラーニングアプリケーションにおいても、oneDNNが高いパフォーマンスを発揮できるようになっている。

さらに、ポータブルSYCLカーネルを用いた汎用CPUサポートの強化は、Intel以外のプロセッサでもoneDNNを活用する際の性能向上に寄与している。今後も、IntelはoneDNNのマルチプラットフォーム対応を強化していく方針であり、ディープラーニング分野におけるリーディングプロジェクトとしての位置をさらに確立していくだろう。