Ekhbary
Sunday, 22 February 2026
Breaking

Comment et quand la pénurie de puces mémoire prendra fin

La demande croissante de l'IA fait grimper les prix, avec de

Comment et quand la pénurie de puces mémoire prendra fin
7DAYES
3 hours ago
3

États-Unis - Agence de presse Ekhbary

Comment et quand la pénurie de puces mémoire prendra fin

Si vous avez l'impression que tout dans la technologie tourne autour de l'IA ces jours-ci, c'est parce que c'est le cas. Nulle part cela n'est plus vrai que sur le marché de la mémoire informatique. La demande et la rentabilité du type de mémoire vive dynamique (DRAM) utilisée pour alimenter les unités de traitement graphique (GPUs) et autres accélérateurs dans les centres de données d'IA sont si immenses qu'elles détournent l'approvisionnement d'autres usages, provoquant une flambée spectaculaire des prix. Selon Counterpoint Research, les prix de la DRAM ont déjà augmenté de 80 à 90 % ce trimestre.

Les principales entreprises de matériel d'IA affirment avoir sécurisé leurs approvisionnements en puces jusqu'en 2028. Cependant, cela laisse tous les autres – fabricants de PC, gadgets grand public et tous les autres appareils nécessitant un stockage temporaire de milliards de bits – en difficulté pour faire face à la rareté de l'offre et aux coûts gonflés. Comment l'industrie électronique s'est-elle retrouvée dans cette situation, et plus important encore, comment s'en sortira-t-elle ?

Les économistes et les experts en mémoire soulignent une conjonction de facteurs : le cycle historique d'essor et de déclin de l'industrie de la DRAM et le déploiement d'une infrastructure matérielle d'IA d'une ampleur sans précédent. Sauf effondrement majeur dans le secteur de l'IA, on prévoit que des années s'écouleront avant que de nouvelles capacités et des avancées technologiques ne parviennent à aligner l'offre et la demande. Il est même possible que les prix restent élevés même après que l'équilibre soit atteint.

Pour comprendre la dynamique de cette situation, il est crucial de saisir le principal moteur des fluctuations de l'offre et de la demande : la mémoire à bande passante élevée (HBM). La HBM représente la stratégie de l'industrie DRAM pour contourner le ralentissement de la loi de Moore en utilisant la technologie d'encapsulation de puces 3D. Chaque puce HBM comprend jusqu'à 12 puces DRAM finement découpées, appelées "dies". Chaque die contient de nombreuses connexions verticales appelées "through-silicon vias" (TSVs). Ces dies sont empilés les uns sur les autres, interconnectés par des réseaux de billes de soudure microscopiques alignées sur les TSVs. Cette pile de DRAM – d'une épaisseur d'environ 750 micromètres, ressemblant davantage à un bloc de bureaux brutaliste qu'à une tour élancée – est ensuite montée sur une "die" de base, qui gère le transfert de données entre les dies mémoire et le processeur.

Cet assemblage technologique sophistiqué est positionné à moins d'un millimètre d'un GPU ou d'un autre accélérateur d'IA, relié par jusqu'à 2 048 connexions à micro-échelle. Les HBM sont généralement fixées des deux côtés du processeur, intégrant le GPU et la mémoire dans une seule unité encapsulée. L'objectif de cette proximité étroite et de cette connexion à haute vitesse avec le GPU est de surmonter le "mur de la mémoire" – la barrière énergétique et temporelle rencontrée lors de la tentative d'alimenter les téraoctets de données par seconde requis par les grands modèles linguistiques (LLMs) dans le GPU. La bande passante mémoire est un goulot d'étranglement critique limitant la vitesse de fonctionnement des LLMs.

Bien que la technologie HBM existe depuis plus d'une décennie et que les fabricants de DRAM aient continuellement amélioré ses capacités, son importance pour les GPUs a grimpé en flèche parallèlement à l'augmentation de la taille des modèles d'IA. Cette montée en importance s'est accompagnée d'un coût considérable. SemiAnalysis estime que la HBM coûte généralement trois fois plus cher que les autres types de mémoire et représente 50 % ou plus du coût total d'un GPU encapsulé.

Les observateurs de l'industrie s'accordent à dire que le secteur de la DRAM est intrinsèquement cyclique, caractérisé par des périodes d'essor considérables suivies de graves récessions. Avec des usines de fabrication (fabs) coûtant 15 milliards de dollars américains ou plus, les entreprises hésitent fortement à augmenter leur capacité. Elles ne disposent souvent des ressources financières nécessaires que pendant les périodes de pointe du marché, comme l'explique Thomas Coughlin, expert en stockage et mémoire et président de Coughlin Associates. Cependant, la construction et la mise en service d'une telle usine peuvent prendre 18 mois ou plus, garantissant effectivement que la nouvelle capacité arrive bien après la première vague de demande. Cela conduit souvent à une saturation du marché et à une baisse des prix.

Les racines du cycle actuel, selon Coughlin, remontent à la panique de l'approvisionnement en puces pendant la pandémie de COVID-19. Pour atténuer les perturbations de la chaîne d'approvisionnement et soutenir le passage rapide au travail à distance, les opérateurs de centres de données hyperscale comme Amazon, Google et Microsoft ont acheté d'énormes stocks de mémoire et de stockage, faisant ainsi grimper artificiellement les prix. Par la suite, à mesure que les chaînes d'approvisionnement se normalisaient et que l'expansion des centres de données ralentissait en 2022, les prix de la mémoire et du stockage ont chuté. Ce ralentissement s'est poursuivi tout au long de 2023, obligeant les grandes entreprises de mémoire et de stockage, y compris Samsung, à réduire leur production jusqu'à 50 % dans le but d'empêcher les prix de tomber en dessous des coûts de fabrication. C'était une mesure inhabituelle et désespérée, car les entreprises comptent généralement sur le fonctionnement de leurs installations à pleine capacité pour rentabiliser leurs investissements.

Suite à une reprise amorcée fin 2023, "toutes les entreprises de mémoire et de stockage sont devenues très réticentes à augmenter à nouveau leur capacité de production", note Coughlin. "Par conséquent, il y a eu peu ou pas d'investissement dans de nouvelles capacités de production tout au long de 2024 et pendant la majeure partie de 2025."

Ce manque de nouveaux investissements se heurte de plein fouet à une augmentation massive de la demande alimentée par les nouveaux centres de données. À l'échelle mondiale, près de 2 000 nouveaux centres de données sont en cours de planification ou de construction, selon Data Center Map. Si toutes ces installations sont achevées, cela représenterait une augmentation de 20 % de l'offre mondiale, qui s'élève actuellement à environ 9 000 installations.

Si le développement actuel se poursuit au rythme prévu, McKinsey prédit que les entreprises dépenseront 7 billions de dollars d'ici 2030. La majeure partie de cet investissement – 5,2 billions de dollars – sera consacrée aux centres de données axés sur l'IA. Dans ce segment, 3,3 billions de dollars devraient être alloués aux serveurs, au stockage de données et aux équipements réseau.

Nvidia, le fabricant de GPUs, a été le bénéficiaire le plus important du boom des centres de données d'IA. Le chiffre d'affaires de son activité centres de données est passé de près d'un milliard de dollars au dernier trimestre 2019 à 51 milliards de dollars au trimestre clos en octobre 2025. Durant cette période, ses GPUs de serveur ont non seulement exigé de plus en plus de gigaoctets de DRAM, mais aussi un nombre croissant de puces DRAM. Le modèle B300 récemment lancé utilise huit puces HBM, chacune étant une pile de 12 dies DRAM. Les concurrents reflètent largement l'adoption de la HBM par Nvidia ; par exemple, le GPU MI350 d'AMD intègre également huit puces HBM de 12 dies.

Avec une demande aussi écrasante, la HBM contribue de plus en plus aux flux de revenus des fabricants de DRAM. Micron, le troisième producteur derrière SK Hynix et Samsung, a rapporté que la HBM et la mémoire liée au cloud représentaient 17 % de ses revenus DRAM en 2023, un chiffre qui a grimpé à près de 50 % en 2025. Micron prévoit que le marché total de la HBM passera de 35 milliards de dollars en 2025 à 100 milliards de dollars d'ici 2028, dépassant ainsi la taille totale du marché DRAM de 2024.

Mots clés: # puces mémoire # pénurie de puces # DRAM # HBM # IA # GPUs # prix mémoire # industrie semi-conducteurs # centres de données # NAND # TSMC # Samsung # SK Hynix # Micron