中国のGPUメーカー、Moore Threadsが開発したMTT S80およびMTT S4000グラフィックカードが、オープンソースAIモデル「DeepSeek-R1-Distill-Qwen-7B」の実行に成功したと報じられた。同社は、軽量フレームワーク「Ollama」と独自の最適化推論エンジンを活用し、高い性能を達成したと主張している。
しかし、具体的な性能数値や他社製ハードウェアとの比較は明らかにされておらず、これらの主張を評価することは現時点では困難である。さらに、MTT S80は中国国外での流通が限られているため、独立した検証も難しい状況だ。
Moore ThreadsのGPUがCUDAコードを実行できるとされるが、Ollamaは公式には同社のGPUをサポートしていない。この報道が事実であれば、中国製GPUのAI分野での可能性が広がると考えられる。
Moore ThreadsのGPUはAI推論に本当に適しているのか
![](https://tech-gadget.reinforz.co.jp/wp-content/uploads/2024/06/26371915_m-1024x574.jpg)
Moore Threadsは、AI推論性能において「高い」結果を示したと主張しているが、その具体的な数値は公表されていない。これは、一般的なGPUの性能評価において欠かせない処理速度や消費電力、スループットなどの詳細データが不明であることを意味する。NvidiaやAMDのGPUと比較して、どの程度の性能を発揮するのかを正確に判断するのは難しい状況だ。
また、今回のテストは「DeepSeek-R1-Distill-Qwen-7B」という蒸留モデルを使用している。蒸留モデルは通常の大規模言語モデル(LLM)に比べてパラメータ数が抑えられ、動作が軽量化されている。そのため、Moore ThreadsのGPUがこの特定のモデルで優れた結果を出したとしても、より大規模なLLMでは同様の性能が得られるとは限らない。
それでも、Moore ThreadsのGPUがCUDA互換のコードを実行できるという報告は興味深い。Ollamaのサポート対象外であるにもかかわらず、CUDAコードを動かせるという点は、今後のソフトウェア最適化次第でさらにAI推論に適した環境を整えられる可能性を示唆している。
特に、中国市場においてNvidiaのGPUに依存しない代替手段が求められる中で、Moore ThreadsのGPUが果たす役割は注目に値する。
OllamaとMoore Threadsの組み合わせはどこまで実用的か
Ollamaは、ローカル環境で大規模言語モデル(LLM)を実行できる軽量なフレームワークであり、特にmacOS向けに最適化されている。NvidiaのCUDAやAMDのROCmに対応し、Metalを活用したApple GPUのアクセラレーションも可能となっているが、Moore ThreadsのGPUに対する正式なサポートは発表されていない。
それにもかかわらず、今回の報道ではMoore ThreadsのMTT S80およびMTT S4000でOllamaを用いたAI推論が可能であることが示唆されている。これは、Moore Threadsが独自に推論エンジンを最適化し、CUDAコードの互換性を確保したことが影響していると考えられる。ただし、Ollamaの公式な互換性リストに含まれていない以上、将来的なアップデートで問題が生じる可能性も否定できない。
また、Ollamaは軽量モデルを動かすことに特化しており、ハードウェアの性能に依存せずにローカル推論を可能にする点が特徴だ。そのため、Moore ThreadsのGPUと組み合わせた場合、AIワークロードの負荷をどこまで最適化できるのかが重要となる。もし、NvidiaやAMDのGPUと同等の処理能力を持つのであれば、AI開発者や研究者にとって魅力的な選択肢となるかもしれない。
中国市場におけるMoore Threadsの意義と今後の展望
Moore Threadsは中国国内でGPUを開発する数少ない企業のひとつであり、特にNvidia製品への依存を減らす役割が期待されている。中国では、米国の輸出規制により先端半導体の調達が難しくなっているため、国内メーカーによる高性能GPUの開発が進められている。今回の報道が事実であれば、Moore ThreadsがAI分野において一定の技術力を持つことを示す材料となるだろう。
ただし、Moore ThreadsのGPUは現在、中国国外ではほとんど流通していないため、国際市場での競争力については未知数だ。また、現時点ではNvidiaのH100やAMDのMI300などの最先端GPUと直接比較できるデータも不足しているため、AI処理における優位性を判断するには追加の情報が必要となる。
それでも、Moore Threadsが独自の推論エンジンを開発し、Ollamaを通じてローカルAIの実行に成功したことは、中国国内のAI技術発展にとって重要な一歩と言える。
特に、クラウドに依存しないオフラインAI処理のニーズが高まる中で、国産GPUの活用は今後さらに拡大していく可能性がある。今後の展開次第では、NvidiaやAMDの市場に対抗する新たなプレイヤーとして注目を集めるかもしれない。
Source:Tom’s Hardware