Ekhbary
Sunday, 22 February 2026
Breaking

Wie und wann der Mangel an Speicherchips enden wird

Steigende KI-Nachfrage treibt Preise in die Höhe, Experten p

Wie und wann der Mangel an Speicherchips enden wird
7DAYES
5 hours ago
7

USA - Ekhbary Nachrichtenagentur

Wie und wann der Mangel an Speicherchips enden wird

Wenn es heutzutage den Anschein hat, dass sich in der Technologie alles um KI dreht, dann liegt das daran. Und nirgendwo trifft das mehr zu als auf dem Markt für Computerspeicher. Die Nachfrage und Rentabilität der Art von Dynamic Random-Access Memory (DRAM), die zur Stromversorgung von Grafikprozessoren (GPUs) und anderen Beschleunigern in KI-Rechenzentren verwendet wird, ist so immens, dass sie die Versorgung für andere Zwecke umlenkt und zu einem rasanten Preisanstieg führt. Laut Counterpoint Research sind die DRAM-Preise in diesem Quartal bereits um 80-90 % gestiegen.

Die größten KI-Hardwareunternehmen geben an, ihre Chipversorgung bis 2028 gesichert zu haben. Dies überlässt jedoch alle anderen – Hersteller von PCs, Konsumgütern und allen anderen Geräten, die eine temporäre Speicherung von Milliarden von Bits benötigen – dem verzweifelten Kampf mit knapper Versorgung und überhöhten Kosten. Wie ist die Elektronikindustrie in dieses Dilemma geraten, und, was noch wichtiger ist, wie wird sie da wieder herauskommen?

Ökonomen und Speicherexperten weisen auf eine Konvergenz von Faktoren hin: den historischen Boom-und-Bust-Zyklus der DRAM-Industrie und den Aufbau einer KI-Hardware-Infrastruktur von beispiellosem Ausmaß. Ohne einen erheblichen Zusammenbruch im KI-Sektor wird es voraussichtlich Jahre dauern, bis neue Kapazitäten und technologische Fortschritte Angebot und Nachfrage wieder in Einklang bringen. Es ist sogar möglich, dass die Preise selbst nach Erreichen des Gleichgewichts hoch bleiben.

Um die Dynamik dieser Situation zu verstehen, ist es entscheidend, den Haupttreiber der Angebots- und Nachfrageschwankungen zu verstehen: High-Bandwidth Memory (HBM). HBM stellt den Versuch der DRAM-Industrie dar, das langsamere Tempo des Mooreschen Gesetzes durch den Einsatz von 3D-Chip-Packaging-Technologie zu umgehen. Jeder HBM-Chip besteht aus bis zu 12 dünn geschnittenen DRAM-Chips, sogenannten "Dies". Jeder Die enthält eine Vielzahl von vertikalen Verbindungen, die als "Through-Silicon Vias" (TSVs) bezeichnet werden. Diese Dies werden übereinander gestapelt und durch Arrays mikroskopischer Lotkugeln verbunden, die auf die TSVs ausgerichtet sind. Dieser DRAM-Turm – etwa 750 Mikrometer dick, eher einem brutalistischen Bürogebäude als einem schlanken Turm ähnelnd – wird dann auf einen sogenannten "Basis-Die" montiert, der den Datentransfer zwischen den Speicher-Dies und dem Prozessor verwaltet.

Diese hochentwickelte technologische Baugruppe wird innerhalb eines Millimeters einer GPU oder eines anderen KI-Beschleunigers positioniert und durch bis zu 2.048 mikrometergroße Verbindungen mit dieser verbunden. HBMs werden typischerweise an beiden Seiten des Prozessors angebracht, wodurch die GPU und der Speicher zu einer einzigen verpackten Einheit integriert werden. Das Ziel dieser engen Nähe und Hochgeschwindigkeitsverbindung mit der GPU ist es, die "Speicherwand" zu überwinden – die Energie- und Zeitbarriere, die auftritt, wenn versucht wird, die Terabytes an Daten pro Sekunde, die für den Betrieb großer Sprachmodelle (LLMs) benötigt werden, in die GPU zu speisen. Die Speicherbandbreite ist ein kritischer Engpass, der die Betriebsgeschwindigkeit von LLMs begrenzt.

Während die HBM-Technologie seit über einem Jahrzehnt existiert und DRAM-Hersteller ihre Fähigkeiten kontinuierlich verbessert haben, ist ihre Bedeutung für GPUs parallel zur zunehmenden Größe von KI-Modellen sprunghaft angestiegen. Dieser Bedeutungszuwachs ging mit erheblichen Kosten einher. SemiAnalysis schätzt, dass HBM typischerweise dreimal mehr kostet als andere Speichertypen und 50 % oder mehr der Gesamtkosten einer verpackten GPU ausmacht.

Branchenbeobachter sind sich einig, dass die DRAM-Branche von Natur aus zyklisch ist, gekennzeichnet durch Perioden erheblicher Booms, gefolgt von schweren Einbrüchen. Da neue Fertigungsanlagen (Fabs) 15 Milliarden US-Dollar oder mehr kosten, zögern Unternehmen, ihre Kapazitäten zu erweitern, und verfügen oft nur während Markthochphasen über die finanziellen Mittel dazu, wie Thomas Coughlin, Experte für Speicher und Speicher, und Präsident von Coughlin Associates, erklärt. Der Bau und die Inbetriebnahme einer solchen Fabrik können jedoch 18 Monate oder länger dauern, was praktisch sicherstellt, dass neue Kapazitäten weit nach dem anfänglichen Nachfrageschub eintreffen und den Markt übersättigen und die Preise drücken.

Die Wurzeln des aktuellen Zyklus reichen laut Coughlin zurück bis zur Chipversorgungspanik während der COVID-19-Pandemie. Um Lieferkettenunterbrechungen zu mildern und den schnellen Übergang zur Fernarbeit zu unterstützen, kauften Hyperscale-Rechenzentrumsbetreiber wie Amazon, Google und Microsoft riesige Lagerbestände an Speicher und Speicher und trieben so die Preise künstlich in die Höhe. Später, als sich die Lieferketten normalisierten und die Expansion von Rechenzentren im Jahr 2022 verlangsamte, brachen die Preise für Speicher und Speicher ein. Dieser Abschwung setzte sich 2023 fort und zwang große Speicher- und Speicherunternehmen wie Samsung, die Produktion um bis zu 50 % zu kürzen, um zu verhindern, dass die Preise unter die Herstellungskosten fallen. Dies war eine ungewöhnliche und verzweifelte Maßnahme, da Unternehmen normalerweise darauf angewiesen sind, ihre Anlagen mit voller Kapazität zu betreiben, um ihre Investitionen zurückzugewinnen.

Nach einer Erholung, die Ende 2023 begann, "wurden alle Speicher- und Speicherunternehmen sehr vorsichtig, ihre Produktionskapazität wieder zu erhöhen", merkt Coughlin an. "Folglich gab es 2024 und während des größten Teils von 2025 wenig bis gar keine Investitionen in neue Produktionskapazitäten."

Dieser Mangel an neuen Investitionen prallt nun frontal auf einen massiven Nachfrageschub, der durch neue Rechenzentren angeheizt wird. Weltweit sind fast 2.000 neue Rechenzentren entweder geplant oder im Bau, so Data Center Map. Wenn all diese Einrichtungen fertiggestellt werden, würde dies einem Anstieg des weltweiten Angebots um 20 % entsprechen, das derzeit bei etwa 9.000 Einrichtungen liegt.

Sollte der aktuelle Aufbau im geplanten Tempo fortgesetzt werden, prognostiziert McKinsey, dass Unternehmen bis 2030 7 Billionen US-Dollar investieren werden. Der Großteil dieser Investitionen – 5,2 Billionen US-Dollar – ist für KI-fokussierte Rechenzentren vorgesehen. Innerhalb dieses Segments werden voraussichtlich 3,3 Billionen US-Dollar für Server, Datenspeicher und Netzwerkausrüstung bereitgestellt.

Nvidia, der GPU-Hersteller, war bisher der bedeutendste Nutznießer des KI-Rechenzentrums-Booms. Der Umsatz seines Rechenzentrumsgeschäfts stieg vom letzten Quartal 2019 mit knapp 1 Milliarde US-Dollar auf 51 Milliarden US-Dollar im Quartal, das im Oktober 2025 endete. In dieser Zeit benötigten seine Server-GPUs nicht nur immer mehr Gigabyte an DRAM, sondern auch eine steigende Anzahl von DRAM-Chips. Das kürzlich auf den Markt gebrachte B300-Modell verwendet acht HBM-Chips, die jeweils ein Stapel von 12 DRAM-Dies sind. Konkurrenten spiegeln weitgehend die Nutzung von HBM durch Nvidia wider; beispielsweise verwendet die MI350-GPU von AMD ebenfalls acht 12-Die-HBM-Chips.

Bei einer derart überwältigenden Nachfrage trägt HBM zunehmend zu den Einnahmequellen der DRAM-Hersteller bei. Micron – der drittgrößte Produzent hinter SK Hynix und Samsung – berichtete, dass HBM und andere Cloud-bezogene Speicher im Jahr 2023 17 % seiner DRAM-Umsätze ausmachten, eine Zahl, die 2025 auf fast 50 % anstieg. Micron prognostiziert, dass der HBM-Gesamtmarkt von 35 Milliarden US-Dollar im Jahr 2025 auf 100 Milliarden US-Dollar bis 2028 wachsen wird, eine Zahl, die größer ist als der gesamte DRAM-Markt im Jahr 2024.

Tags: # Speicherchips # Chipmangel # DRAM # HBM # KI # GPUs # Speicherpreise # Halbleiterindustrie # Rechenzentren # NAND # TSMC # Samsung # SK Hynix # Micron