誰かに何を聞いてください Nvidia がそれらを製造しており、おそらく彼らが最初に「GPU」と言うでしょう。数十年にわたり、このチップ メーカーは高度な並列コンピューティングによって定義されてきましたが、生成 AI の出現と GPU に対する需要の増加は同社にとって恩恵となってきました。
しかし、Nvidia の最近の動きは、AI 市場のコンピューティング集約度が低い側でより多くの顧客を囲い込みたいと考えていることを示しています。つまり、AI モデルをトレーニングするために最も強力な GPU を必要とせず、代わりにエージェント型 AI ソフトウェアを実行する最も効率的な方法を探している顧客です。 Nvidiaは最近、低遅延AIコンピューティングに重点を置いたチップ新興企業からテクノロジーのライセンス供与に数十億ドルを投じ、最新のスーパーチップシステムの一部としてスタンドアロンCPUの販売も開始した。
昨日、Nvidia と Meta は、ソーシャル メディアの巨人が、その大規模なインフラストラクチャ プロジェクトにコンピューティング パワーを提供するために、数十億ドル相当の Nvidia チップを購入することで合意したと発表しました。その契約には Nvidia の CPU も含まれています。
この複数年契約は、両社間の継続的な快適なパートナーシップの延長です。 Meta は以前、2024 年末までに Nvidia から 350,000 個の H100 チップを購入し、2025 年末までに合計 130 万個の GPU を利用できるようになると推定していました (ただし、それらがすべて Nvidia チップであるかどうかは不明です)。
最新の発表の一環として、NvidiaはMetaが「同社の長期的なAIインフラストラクチャロードマップをサポートするために、トレーニングと推論の両方に最適化されたハイパースケールデータセンターを構築する」と述べた。これには、Nvidia の CPU と「数百万の Nvidia Blackwell および Rubin GPU」の「大規模導入」が含まれます。
注目すべきことに、Metaは、NvidiaのGrace CPUをスタンドアロンチップとして大規模に購入することを発表した最初のハイテク巨人であり、Nvidiaは1月に新しいVera Rubinスーパーチップの全機能を明らかにした際、それが選択肢になると述べていた。あるアナリストが言うように、NVIDIA は計算能力への「スープからナッツまでのアプローチ」の一環として、さまざまなチップを組み合わせる技術を提供していることも強調している。
テクノロジー市場調査会社クリエイティブ・ストラテジーズの最高経営責任者(CEO)兼主席アナリストのベン・バジャリン氏は、この動きは、従来のクラウド・アプリケーションと同じように、ますます多くのAIソフトウェアがCPU上で実行される必要があることをNvidiaが認識していることを示していると述べた。 「現在、業界がデータセンター内の CPU にこれほど興奮している理由は、汎用 CPU アーキテクチャに新たな要求を課すエージェント AI のためです」と彼は言います。
チップのニュースレター「セミアナリシス」の最近のレポートでは、この点が強調されています。アナリストらは、AIのトレーニングと推論をサポートするためのCPUの使用が加速していると述べ、MicrosoftのOpenAI用データセンターの1つを例に挙げ、「GPUによって生成されたペタバイト規模のデータの処理と管理には現在、数千のCPUが必要となっているが、AIがなければこうしたユースケースは必要ない」と述べた。
しかしバジャリン氏は、CPU は依然として最先端の AI ハードウェア システムの 1 つのコンポーネントにすぎないと述べています。 Meta が Nvidia から購入している GPU の数は、依然として CPU の数を上回っています。
「もしあなたがハイパースケーラーの一人なら、実行するつもりはない 全て CPU での推定値の計算について、Bajarin 氏は次のように述べています。 「実行しているソフトウェアが、そのコンピューティングの真の原動力である GPU アーキテクチャと相互作用するのに十分な速度を CPU 上で提供する必要があるだけです。そうでないと、CPU がボトルネックになってしまいます。」
メタはエヌビディアとの契約延長についてコメントを控えた。最近の決算発表で、ソーシャルメディア大手は今年のAIインフラへの支出を昨年の722億ドルから1150億ドルから1350億ドルに大幅に増やす計画だと述べた。



