ئەخباری
Sunday, 22 February 2026
Breaking

Come e Quando Finirà la Crisi di Carenza di Chip di Memoria

La Crescente Domanda dell'IA Fa Salire i Prezzi, con Esperti

Come e Quando Finirà la Crisi di Carenza di Chip di Memoria
7DAYES
8 hours ago
4

Stati Uniti - Agenzia stampa Ekhbary

Come e Quando Finirà la Crisi di Carenza di Chip di Memoria

Se di questi tempi sembra che tutto nella tecnologia riguardi l'IA, è perché è così. E nulla è più vero di quanto lo sia nel mercato della memoria per computer. La domanda e la redditività del tipo di memoria DRAM (Dynamic Random-Access Memory) utilizzata per alimentare le unità di elaborazione grafica (GPU) e altri acceleratori nei data center di IA sono così immense da deviare le forniture destinate ad altri usi, causando un'impennata dei prezzi. Secondo Counterpoint Research, i prezzi della DRAM sono già aumentati dell'80-90% in questo trimestre.

Le principali aziende di hardware per l'IA affermano di aver assicurato le loro forniture di chip fino al 2028. Tuttavia, ciò lascia tutti gli altri – produttori di PC, gadget di consumo e ogni altro dispositivo che necessita di archiviare temporaneamente miliardi di bit – a lottare per far fronte alla scarsità di approvvigionamento e ai costi gonfiati. Come è finita l'industria elettronica in questo pasticcio e, cosa più importante, come ne uscirà?

Economisti ed esperti di memoria indicano una convergenza di fattori: il ciclo storico di boom e bust dell'industria DRAM e la costruzione di un'infrastruttura hardware per l'IA di scala senza precedenti. Salvo un significativo crollo nel settore dell'IA, si prevede che passeranno anni prima che nuove capacità e progressi tecnologici riescano ad allineare l'offerta alla domanda. È persino possibile che i prezzi rimangano elevati anche dopo aver raggiunto l'equilibrio.

Per comprendere le dinamiche di questa situazione, è fondamentale comprendere il principale motore delle fluttuazioni della domanda e dell'offerta: la memoria ad alta larghezza di banda (HBM). L'HBM rappresenta il tentativo dell'industria DRAM di aggirare il rallentamento della legge di Moore utilizzando la tecnologia di impacchettamento di chip 3D. Ogni chip HBM è composto da un massimo di 12 chip DRAM sottili, noti come "die". Ogni die contiene numerosi collegamenti verticali chiamati "through-silicon vias" (TSV). Questi die sono impilati uno sull'altro, interconnessi da array di sfere di saldatura microscopiche allineate ai TSV. Questa pila di DRAM – spessa circa 750 micrometri, che ricorda più un blocco d'uffici brutalista che una torre snella – viene quindi montata su un "die" di base, che gestisce il trasferimento dei bit tra i die di memoria e il processore.

Questo sofisticato assemblaggio tecnologico è posizionato entro un millimetro da una GPU o da un altro acceleratore IA, al quale è collegato da ben 2.048 connessioni su scala micrometrica. Gli HBM sono tipicamente attaccati su due lati del processore, integrando la GPU e la memoria in un'unica unità confezionata. L'obiettivo di questa stretta vicinanza e connessione ad alta velocità con la GPU è superare il "memory wall" – la barriera energetica e temporale incontrata nel tentativo di alimentare i terabyte di dati al secondo richiesti dai modelli linguistici di grandi dimensioni (LLM) nella GPU. La larghezza di banda della memoria è un collo di bottiglia critico che limita la velocità operativa degli LLM.

Sebbene la tecnologia HBM esista da oltre un decennio e i produttori di DRAM abbiano continuamente migliorato le sue capacità, la sua importanza per le GPU è aumentata parallelamente alla crescente dimensione dei modelli IA. Questo aumento di importanza è avvenuto a un costo considerevole. SemiAnalysis stima che l'HBM costi tipicamente tre volte di più rispetto ad altri tipi di memoria e rappresenti il 50% o più del costo totale di una GPU confezionata.

Gli osservatori del settore concordano sul fatto che il settore DRAM sia intrinsecamente ciclico, caratterizzato da periodi di forte espansione seguiti da gravi recessioni. Con nuove fabbriche (fab) che costano 15 miliardi di dollari USA o più, le aziende sono molto riluttanti ad espandere la capacità e spesso dispongono delle risorse finanziarie per farlo solo durante i periodi di picco del mercato, come spiega Thomas Coughlin, esperto di memoria e storage e presidente di Coughlin Associates. Tuttavia, la costruzione e la messa in funzione di una tale fabbrica possono richiedere 18 mesi o più, garantendo di fatto che la nuova capacità arrivi ben dopo l'ondata iniziale di domanda, portando alla saturazione del mercato e alla depressione dei prezzi.

Le radici del ciclo attuale, secondo Coughlin, risalgono al panico dell'approvvigionamento di chip durante la pandemia di COVID-19. Per mitigare le interruzioni della catena di approvvigionamento e supportare il rapido passaggio al lavoro a distanza, operatori di data center hyperscale come Amazon, Google e Microsoft hanno acquistato enormi scorte di memoria e storage, gonfiando artificialmente i prezzi. Successivamente, con la normalizzazione delle catene di approvvigionamento e il rallentamento dell'espansione dei data center nel 2022, i prezzi della memoria e dello storage sono crollati. Questa recessione è continuata nel 2023, tanto da indurre grandi aziende di memoria e storage come Samsung a tagliare la produzione del 50% nel tentativo di impedire che i prezzi scendessero al di sotto dei costi di produzione. Si è trattato di una mossa rara e piuttosto disperata, poiché le aziende solitamente devono far funzionare gli impianti a pieno regime per recuperare il loro valore.

Dopo una ripresa iniziata alla fine del 2023, "tutte le aziende di memoria e storage sono diventate molto caute nell'aumentare nuovamente la loro capacità produttiva", afferma Coughlin. "Di conseguenza, ci sono stati pochi o nessun investimento in nuove capacità produttive durante il 2024 e per la maggior parte del 2025.".

Questa mancanza di nuovi investimenti si sta scontrando frontalmente con un'enorme impennata della domanda alimentata da nuovi data center. A livello globale, quasi 2.000 nuovi data center sono attualmente in fase di pianificazione o costruzione, secondo Data Center Map. Se tutte queste strutture venissero completate, rappresenterebbero un aumento del 20% dell'offerta globale, che attualmente si attesta a circa 9.000 strutture.

Se l'attuale costruzione continuerà al ritmo previsto, McKinsey prevede che le aziende spenderanno 7 trilioni di dollari entro il 2030. La maggior parte di questo investimento – 5,2 trilioni di dollari – sarà destinata a data center focalizzati sull'IA. All'interno di questa quota, 3,3 trilioni di dollari saranno destinati a server, storage dati e apparecchiature di rete, secondo le previsioni dell'azienda.

Nvidia, il produttore di GPU, è stato finora il beneficiario più significativo del boom dei data center IA. Il fatturato della sua divisione data center è passato da poco meno di 1 miliardo di dollari nell'ultimo trimestre del 2019 a 51 miliardi di dollari nel trimestre conclusosi nell'ottobre 2025. Durante questo periodo, le sue GPU per server hanno richiesto non solo sempre più gigabyte di DRAM, ma anche un numero crescente di chip DRAM. Il B300, rilasciato di recente, utilizza otto chip HBM, ciascuno un pacco di 12 die DRAM. I concorrenti hanno in gran parte rispecchiato l'uso di HBM da parte di Nvidia; ad esempio, la GPU MI350 di AMD utilizza anch'essa otto chip HBM da 12 die.

Con una domanda così schiacciante, l'HBM contribuisce sempre più ai flussi di entrate dei produttori di DRAM. Micron – il terzo produttore dopo SK Hynix e Samsung – ha riferito che l'HBM e altre memorie legate al cloud costituivano il 17% delle sue entrate DRAM nel 2023, una cifra salita a quasi il 50% nel 2025. Micron prevede che il mercato totale dell'HBM crescerà da 35 miliardi di dollari nel 2025 a 100 miliardi di dollari entro il 2028, una cifra superiore all'intero mercato DRAM del 2024.

Tag: # chip di memoria # carenza di chip # DRAM # HBM # IA # GPU # prezzi memoria # industria semiconduttori # data center # NAND # TSMC # Samsung # SK Hynix # Micron