グアダラハラ – アメリカ

シーバス・デ・グアダラハラ vs クラブ・アメリカ

テクノロジー業界はDRAM不足にどう対処するのでしょうか?
グアダラハラ - アメリカ

テクノロジー業界はDRAM不足にどう対処するのでしょうか?


最近、テクノロジーのすべてが AI に関するものであるように見えるとしたら、それはそのとおりだからです。そして、これが最も当てはまるのはコンピューターのメモリ市場です。 AI データセンターで GPU やその他のアクセラレータに供給するために使用される種類の DRAM の需要と収益性は非常に高いため、他の用途のメモリの供給が締め出され、価格が高騰しています。 Counterpoint Research によると、DRAM の価格は今四半期までに 80 ~ 90% 上昇しています。

AIハードウェア最大手企業は2028年まで自社チップを確保したとしているが、それによって他の企業、つまりPCや消費者向けデバイス、その他10億ビットを一時的に保存する必要があるあらゆるメーカーは、供給不足と価格上昇に対処するのに苦労することになる。

エレクトロニクス業界はどのようにしてこの混乱に陥ったのでしょうか、そしてさらに重要なことに、どのようにしてそこから抜け出すのでしょうか? IEEEスペクトル 経済学者やメモリの専門家に解説を依頼した。彼らは、今日の状況は、DRAM 業界の歴史的な好不況サイクルと、前例のない規模の AI ハードウェア インフラストラクチャの構築とが衝突した結果であると述べています。そして、AI分野でいくつかの大きな進歩がなければ、新しい能力と新しいテクノロジーが需要に見合った供給を実現するには何年もかかるでしょう。価格は依然として高止まりする可能性があります。

物語の両端を理解するには、高帯域幅メモリ (HBM) の主な原因は需要と供給の変動であることを知る必要があります。

HBMとは何ですか?

HBM は、3D チップ パッケージング技術を使用して、ムーアの法則の遅さを回避しようとする DRAM 業界の試みです。各 HBM チップは、ダイと呼ばれる 12 個の薄肉 DRAM チップで構成されています。各ダイには、ビア シリコン ビア (TSV) と呼ばれるいくつかの垂直接続があります。ダイは互いに積み重ねられ、TSV に位置合わせされた一連の微細なはんだボールに接続されます。この DRAM タワー (厚さは約 750 マイクロメートルで、タワーというよりは野蛮なオフィスブロックです) は、メモリ ダイとプロセッサの間でビットをやり取りするベース ダイと呼ばれるものの上に配置されます。

この複雑なテクノロジーは、GPU またはその他の AI アクセラレータの 1 ミリメートル以内に設置され、2,048 マイクロメートル規模の接続に接続されます。 HBM はプロセッサの両側に接続されており、GPU とメモリは 1 つのユニットとしてパッケージ化されています。

この種の GPU による緊密で高度に接続された圧迫の背後にある考え方は、いわゆるメモリの壁を取り壊すことです。これは、大規模な言語モデルを実行するために必要な 1 秒あたりテラバイトのデータを GPU に取り込むのに必要なエネルギーと時間のボトルネックになります。メモリ帯域幅は、LLM の実行速度に大きな制約を与えます。

テクノロジーとしての HBM は 10 年以上前から存在しており、DRAM メーカーはその容量の拡大に熱心に取り組んできました。

テクノロジー業界はDRAM不足にどう対処するのでしょうか?

AI モデルのサイズが大きくなるにつれて、GPU における HBM の重要性も増しています。しかし、それにはコストがかかります。半分析的推定 HBM のコストは通常​​、他のタイプのメモリより 3 倍高く、パッケージ化された GPU のコストの 50% 以上を占めます。

メモリチップ不足の原因

メモリおよびストレージ業界のウォッチャーは、DRAM が大規模なブームと壊滅的な不況を伴う非常に周期的な業界であることに同意しています。ストレージとメモリの専門家でありコフリン・アソシエイツの社長であるトーマス・コフリン氏は、新しいファブには150億米ドル以上の費用がかかるため、企業は拡大に非常に消極的で、好況時に拡大するための資金が不足する可能性があると指摘する。しかし、そのような工場は建設と稼働に18か月以上かかる可能性があり、実際には、最初の需要の急増が市場に殺到して価格が下落するかなり前に、新しい生産能力が確実に到着することが保証されます。

コフリン氏は、今日のサイクルは新型コロナウイルス感染症(COVID-19)のパンデミックを巡るチップ供給の不安定から生じていると語る。サプライチェーンの混乱を回避し、リモートワークへの急速な移行を支援するため、アマゾン、グーグル、マイクロソフトなどのデータセンター大手のハイパースケーラーがメモリとストレージの大量在庫を購入し、価格を押し上げていると同氏は指摘した。

しかし、その後、供給がより定期的になり、2022 年にはデータセンターの拡張が鈍化し、メモリとストレージの価格が下落しました。コフリン氏は、この景気減速は2023年まで続くと予想されており、サムスンのような大手メモリ・ストレージ企業でさえ、価格が製造原価を下回るのを防ぐために生産を50%削減していると述べた。企業は通常、価値を回収するために工場をフル稼働で稼働させる必要があるため、これはまれで非常に残念な措置だった。

2023年後半に回復が始まるため、「すべてのメモリおよびストレージ企業は生産能力を再び増強することに非常に慎重になった」とコフリン氏は言う。 「したがって、2024年と2025年のほとんどにおいては、新世代発電への投資はほとんど、またはまったく行われないでしょう。」

チャートの視覚化

AIデータセンターブーム

新たな投資の不足が、新しいデータセンターからの需要の大幅な増加と衝突しています。データセンターマップによると、現在世界中で約 2,000 の新しいデータセンターが計画中または建設中です。これらがすべて建設されれば、現在約 9,000 施設ある世界の供給量が 20% 増加することになります。

現在の増強がこのペースで続けば、企業は 2030 年までに 7 兆ドルを支出し、そのうちの大部分の 5 兆 2000 億ドルが AI に焦点を当てたデータセンターに費やされるとマッキンゼーは推定しています。同社は、このうち33億ドルがサーバー、データストレージ、ネットワーク機器に費やされると見積もっている。

AI データセンター ブームの最大の受益者は間違いなく GPU メーカーである Nvidia です。同社のデータセンター事業の収益は、2019 年最終四半期のわずか 10 億ドルから、2025 年 10 月までの四半期には 510 億ドルにまで増加しました。この期間中、同社のサーバー GPU は、ますます多くのギガバイトの DRAM を要求するだけでなく、DRAM チップの数も増加しました。最近リリースされた B300 は 8 つの HBM チップを使用しており、それぞれが 12 個の DRAM ダイのスタックです。競合他社による HBM の使用は、Nvidia の使用とほぼ同じです。たとえば、AMD の MI350 GPU も 8 つの 12 ダイ チップを使用しています。

チャートの視覚化

このように需要が高いため、DRAM メーカーの収益の大部分は HBM から得られています。 SK ハイニックスとサムスンに次ぐ第 3 位のメーカーであるマイクロンは、HBM およびその他のクラウド関連メモリが DRAM 収益の 2023 年の 17% から 2025 年には 50% 近くまで増加すると報告しました。

マイクロンは、HBM市場全体が2025年の350億ドルから2028年までに1,000億ドルに成長すると予測しているが、これは2024年のDRAM市場全体よりも大きな数字であると、最高経営責任者(CEO)のサンジェイ・メロトラ氏は12月にアナリストに語った。マイクロンが以前予想していたよりも2年早くこの数字に到達している。同氏は、業界全体で「近い将来…大幅に」需要が供給を上回るだろうと述べた。

チャートの視覚化

将来の DRAM 供給とテクノロジー

マカウン・インサイツのエコノミスト、ミーナ・キム氏は「DRAMの供給問題を解決するには2つの方法がある。イノベーションを利用するか、より多くの工場を建設することだ」と説明する。 「DRAMのスケーリングがより困難になるにつれて、業界は高度なパッケージングに目を向けるようになりました…これにより、より多くのDRAMが使用されています。」

マイクロン、サムスン、SK ハイニックスを合わせてメモリとストレージ市場の大部分を占めており、3 社すべてが新しい工場と施設を持っています。しかし、これらは価格の引き下げに大きく貢献するとは考えられません。

ミクロン HBM ファブはシンガポールで建設中であり、2027 年に生産開始される予定です。また、台湾の PSMC から購入したファブを改修中で、2027 年後半に生産を開始する予定です。先月、マイクロンはニューヨーク州オノンダガ郡に DRAM ファブ複合施設を建設する計画を発表しました。フル生産は 2030 年になる予定です。

サムスン 2028年に韓国・平沢の新工場で生産を開始する予定。

SKハイニックス West はインディアナ州ラファイエットに HBM およびパッケージング施設を建設中で、2028 年末までに生産を開始する予定で、清州の HBM 工場の建設は 2027 年に完了する予定です。

Intel CEO の Lip-Boo Tan 氏は、DRAM 市場についての理解について語ります。 先週の Cisco AI サミットの参加者に、「2028 年まで救済はない」と語った。

こうした拡張は長年にわたって貢献できないため、供給を増やすには他の要因が必要になるだろう。グローバル・エレクトロニクス協会(旧IPC)の首席エコノミスト、ショーン・デュブラバック氏は「救済は、既存のDRAMリーダーによる段階的な容量拡大、高度なパッケージングの改善、サプライチェーンの広範な多様化の組み合わせによってもたらされるだろう」と語る。 「新しいファブは利益を得るのに役立ちますが、プロセスを学習して利益を得るのが早ければ早いほど、より良い結果が得られます」 [DRAM] スタッキング効率、およびメモリサプライヤーと AI チップ設計者間の厳密な調整。

それでは、これらの新しいプラントのいくつかが稼働すると、価格は下がるのでしょうか?賭けないでください。 「一般に、経済学者は、価格は上昇するよりもはるかにゆっくりと消極的に下落すると信じています。特に計算に対する飽くなき需要を考慮すると、今日のDRAMがこの一般的な見解の例外になる可能性は低いです」とキム氏は言う。

その一方で、HBM がシリコンのさらに大きな消費者となる可能性のある技術の開発が進められています。現在のチップでは 12 個のダイしか使用されていませんが、HBM4 標準は 16 個のスタックされた DRAM ダイに対応できます。 16 に到達するには、チップ スタッキング テクノロジが大きく関係します。シリコーン、はんだ、サポート材料からなる HBM の「レイヤー ケーキ」を介して熱を伝導することは、パッケージ内の HBM の高帯域幅を実現し、さらに広い帯域幅を得る上での大きな障壁となります。

SKハイニックスは、MR-MUF(マスリフローモールドアンダーフィル)と呼ばれる高度な製造プロセスによる熱伝導の利点を主張しています。さらに、ハイブリッド ボンディングと呼ばれる代替チップ積層技術は、ダイ間の垂直距離を実質的にゼロに減らすことで熱伝導を促進します。 2024 年、サムスンの研究者は、ハイブリッド ボンディングを使用して 16 層のスタックを製造できることを証明し、20 個のダイの製造も不可能ではないと示唆しました。

あなたのサイトの記事から

ウェブ上の関連記事

LEAVE A RESPONSE

Your email address will not be published. Required fields are marked *