AMDは最新の決算説明会で、次世代AIアクセラレーター「MI350」を2025年半ばにリリースする計画を発表した。従来のスケジュールよりも前倒しされる形となり、AI市場の急速な成長を反映した動きといえる。また、次世代「MI400」シリーズの登場時期も明らかになり、2026年に市場投入される予定だ。
AMDはAI分野での競争力を高めるため、大容量HBMメモリの採用や新アーキテクチャの開発を進めており、今後の展開が注目される。
MI350の登場が早まった理由とその影響
AMDは、次世代AIアクセラレーター「MI350」のリリースを2025年半ばに前倒しする決定を下した。当初は2025年後半の予定だったが、市場の変化や競争環境の影響を受けてスケジュールが加速したとみられる。特に、Intelが「Falcon Shores」のキャンセルを発表したことがAMDの戦略変更に関係している可能性が高い。
Intelは当初、AI向けの次世代アクセラレーターを2025年に投入するとしていたが、計画の見直しによりこの競争が一時停滞することになった。そのため、AMDはこの機を逃さず市場シェアを拡大する狙いを持っていると考えられる。
さらに、NVIDIAの「Blackwell」シリーズが2025年に登場する見込みであり、AI向けGPU市場の競争はこれまで以上に激化している。AMDがMI350の投入を早めることで、NVIDIAの次世代GPUと同時期に競争力のある製品を提供できるようになり、市場での存在感を高めることができる。
特に、MI350が採用する3nmプロセスやHBM3Eメモリといった技術要素が、次世代AIワークロードの処理能力向上にどれほど寄与するかが注目されるポイントだ。このスケジュールの変更は、AI向けGPUの供給を待ち望んでいる企業にとっても重要な意味を持つ。
MicrosoftやMetaといったテック企業は、大規模なAIモデルのトレーニングに適した高性能なアクセラレーターを必要としており、AMDのMI350がその選択肢の一つとなる可能性がある。今回の前倒しにより、AMDのAI市場でのプレゼンスが一気に拡大するかもしれない。
MI400シリーズに採用される新技術と期待される進化
AMDは2026年にMI400シリーズを投入する予定であり、これには「CDNA-next」アーキテクチャが採用されることが発表されている。CDNAシリーズは、AMDがデータセンター向けに最適化したアーキテクチャであり、過去のCDNA 2やCDNA 3ではAIとHPC向けの性能向上が図られてきた。
次世代のCDNA-nextでは、メモリ帯域幅のさらなる向上や、AI演算に特化した最適化が施される可能性が高い。また、HBM4メモリの採用も期待される。現在のHBM3Eと比較して、HBM4はさらに高いメモリ帯域幅を提供し、より高速なデータ処理が可能になるとみられている。
これにより、大規模なAIモデルのトレーニング時間が短縮され、リアルタイム推論性能も向上する可能性がある。特に、NVIDIAが次世代GPUで新メモリ技術を導入する可能性が指摘されており、AMDも競争力を維持するために最新技術を積極的に採用することが求められる。
さらに、MI400シリーズでは電力効率の向上も期待される。近年のAI向けGPUは、消費電力の増大が課題となっており、効率的な電力管理が不可欠となっている。AMDは過去のInstinctシリーズで電力効率を向上させる技術を導入しており、MI400シリーズでもその方向性が継続される可能性が高い。
これらの技術進化により、MI400シリーズはデータセンター向けのAI計算やHPC用途でのパフォーマンスを大きく向上させることが期待される。特に、AMDがNVIDIAに対抗するためにどのような技術革新を打ち出すのか、今後の発表に注目が集まる。
AMDのAI市場での立ち位置と今後の展望
AMDはこれまで、AI向けGPU市場ではNVIDIAに大きく後れを取ってきた。NVIDIAのCUDAエコシステムが広く浸透していることもあり、多くのAI開発者や企業がNVIDIA製品を選択する傾向にある。しかし、ここ数年でAI市場の需要が急拡大し、AMDにも新たなチャンスが生まれている。
特に、MI300シリーズが市場で好評を得ていることは、AMDにとって大きな追い風となっている。MicrosoftやIBM、Metaといった大手テック企業がMI300Xを導入しており、AMDのAIアクセラレーターに対する信頼が高まっていることがうかがえる。MI350やMI400シリーズがさらに性能向上を果たせば、AMDはNVIDIA独占状態の市場に割って入る可能性がある。
また、AMDの強みの一つとして、価格競争力が挙げられる。これまでの傾向を見る限り、AMDは競合製品と比較してコストパフォーマンスの高い製品を提供する戦略を取っており、AI向けGPU市場でもその路線を維持する可能性がある。
大規模なデータセンターを運営する企業にとっては、価格と性能のバランスが重要な要素となるため、AMD製品が選ばれる機会は増えるかもしれない。今後の焦点は、AMDがAI向けのソフトウェアエコシステムをどれだけ強化できるかにある。NVIDIAはCUDAをはじめとするソフトウェア基盤を持ち、多くのAI研究者や開発者に支持されている。
一方で、AMDもROCm(Radeon Open Compute)を提供しており、これをどこまで普及させられるかが成長の鍵を握る。もしAMDがソフトウェア面でも充実した環境を整えられれば、AI市場での競争力はさらに高まるだろう。
Source:Wccftech