에크바리
Sunday, 22 February 2026
Breaking

Como e Quando Terminará a Escassez de Chips de Memória

A Crescente Demanda de IA Impulsiona os Preços, com Especial

Como e Quando Terminará a Escassez de Chips de Memória
7DAYES
8 hours ago
5

Estados Unidos - Agência de Notícias Ekhbary

Como e Quando Terminará a Escassez de Chips de Memória

Se nos dias de hoje parece que tudo na tecnologia é sobre IA, é porque é. E em nenhum lugar isso é mais verdade do que no mercado de memória de computador. A demanda e a lucratividade do tipo de memória DRAM (Dynamic Random-Access Memory) usada para alimentar unidades de processamento gráfico (GPUs) e outros aceleradores em data centers de IA são tão imensas que estão desviando o fornecimento de outros usos, causando um rápido aumento nos preços. De acordo com a Counterpoint Research, os preços da DRAM já subiram 80-90% neste trimestre.

As maiores empresas de hardware de IA relatam que garantiram seu suprimento de chips até 2028. No entanto, isso deixa todos os outros — fabricantes de PCs, gadgets de consumo e todos os outros dispositivos que precisam armazenar temporariamente bilhões de bits — lutando para lidar com a escassez de suprimento e os custos inflacionados. Como a indústria eletrônica se meteu nessa enrascada e, mais importante, como sairá dela?

Economistas e especialistas em memória apontam para uma convergência de fatores: o ciclo histórico de boom e bust da indústria DRAM e a construção de uma infraestrutura de hardware de IA de escala sem precedentes. A menos que ocorra um colapso significativo no setor de IA, prevê-se que levará anos para que nova capacidade e avanços tecnológicos alinhem a oferta com a demanda. É até possível que os preços permaneçam elevados mesmo após o alcance do equilíbrio.

Para entender a dinâmica desta situação, é crucial compreender o principal motor das flutuações de oferta e demanda: a memória de alta largura de banda (HBM). HBM representa a tentativa da indústria DRAM de contornar o ritmo de desaceleração da Lei de Moore usando a tecnologia de empacotamento de chip 3D. Cada chip HBM é composto por até 12 chips DRAM finamente cortados, conhecidos como "dies". Cada die contém um número de conexões verticais chamadas "through-silicon vias" (TSVs). Esses dies são empilhados uns sobre os outros, interconectados por arranjos de esferas de solda microscópicas alinhadas aos TSVs. Esta pilha de DRAM — com cerca de 750 micrômetros de espessura, mais parecida com um bloco de escritório brutalista do que uma torre esguia — é então montada em um "die" base, que gerencia a transferência de bits entre os dies de memória e o processador.

Este sofisticado conjunto tecnológico é posicionado a um milímetro de uma GPU ou outro acelerador de IA, ao qual está vinculado por até 2.048 conexões em escala micrométrica. Os HBMs são tipicamente acoplados em ambos os lados do processador, integrando a GPU e a memória em uma única unidade empacotada. O objetivo dessa proximidade estreita e conexão de alta velocidade com a GPU é superar o "muro da memória" — a barreira de energia e tempo encontrada ao tentar alimentar os terabytes de dados por segundo necessários para executar grandes modelos de linguagem (LLMs) na GPU. A largura de banda da memória é um gargalo crítico que limita a velocidade operacional dos LLMs.

Embora a tecnologia HBM exista há mais de uma década, e os fabricantes de DRAM tenham continuamente aprimorado suas capacidades, sua importância para as GPUs aumentou em paralelo com o crescente tamanho dos modelos de IA. Esse aumento de importância veio a um custo considerável. A SemiAnalysis estima que a HBM normalmente custa três vezes mais do que outros tipos de memória e representa 50% ou mais do custo total de uma GPU empacotada.

Observadores da indústria concordam que o setor DRAM é inerentemente cíclico, caracterizado por períodos de forte expansão seguidos por severas quedas. Com novas fábricas (fabs) custando US$ 15 bilhões ou mais, as empresas hesitam muito em expandir a capacidade e muitas vezes só têm os recursos financeiros para fazê-lo durante os períodos de pico do mercado, como explica Thomas Coughlin, especialista em memória e armazenamento e presidente da Coughlin Associates. No entanto, a construção e comissionamento de uma fábrica dessas pode levar 18 meses ou mais, garantindo efetivamente que a nova capacidade chegue bem depois do pico inicial da demanda, levando à saturação do mercado e à depressão dos preços.

As raízes do ciclo atual, diz Coughlin, remontam ao pânico do fornecimento de chips durante a pandemia de COVID-19. Para mitigar interrupções na cadeia de suprimentos e apoiar a rápida transição para o trabalho remoto, operadores de data centers hiperscale como Amazon, Google e Microsoft adquiriram enormes estoques de memória e armazenamento, inflando artificialmente os preços. Posteriormente, à medida que as cadeias de suprimentos se normalizaram e a expansão dos data centers desacelerou em 2022, os preços de memória e armazenamento despencaram. Essa desaceleração continuou em 2023, e até levou grandes empresas de memória e armazenamento como a Samsung a cortar a produção em até 50% em uma tentativa de evitar que os preços caíssem abaixo dos custos de fabricação. Foi uma medida rara e bastante desesperada, pois as empresas normalmente dependem de operar suas fábricas em plena capacidade para recuperar seu valor.

Após uma recuperação que começou no final de 2023, "todas as empresas de memória e armazenamento se tornaram muito cautelosas em aumentar novamente sua capacidade de produção", observa Coughlin. "Consequentemente, houve pouco ou nenhum investimento em nova capacidade de produção ao longo de 2024 e na maior parte de 2025."

Essa falta de novos investimentos está colidindo diretamente com um enorme aumento na demanda impulsionado por novos data centers. Globalmente, quase 2.000 novos data centers estão planejados ou em construção, de acordo com o Data Center Map. Se todas essas instalações forem concluídas, isso representaria um aumento de 20% na oferta global, que atualmente é de aproximadamente 9.000 instalações.

Se a construção atual continuar no ritmo projetado, a McKinsey prevê que as empresas gastarão US$ 7 trilhões até 2030. A maior parte desse investimento — US$ 5,2 trilhões — será destinada a data centers focados em IA. Dentro dessa fatia, US$ 3,3 trilhões serão alocados para servidores, armazenamento de dados e equipamentos de rede, de acordo com as previsões da empresa.

A Nvidia, fabricante de GPUs, tem sido inquestionavelmente a maior beneficiária do boom dos data centers de IA. A receita de seu negócio de data centers saltou de pouco menos de US$ 1 bilhão no último trimestre de 2019 para US$ 51 bilhões no trimestre encerrado em outubro de 2025. Durante este período, suas GPUs de servidor não exigiram apenas cada vez mais gigabytes de DRAM, mas também um número crescente de chips DRAM. O B300, lançado recentemente, utiliza oito chips HBM, cada um sendo uma pilha de 12 dies DRAM. Os concorrentes têm amplamente espelhado o uso de HBM pela Nvidia; por exemplo, a GPU MI350 da AMD também incorpora oito chips HBM de 12 dies.

Com uma demanda tão avassaladora, o HBM está contribuindo cada vez mais para os fluxos de receita dos fabricantes de DRAM. A Micron — a terceira maior produtora atrás da SK Hynix e Samsung — relatou que HBM e outras memórias relacionadas à nuvem representavam 17% de sua receita de DRAM em 2023, um número que saltou para quase 50% em 2025. A Micron prevê que o mercado total de HBM crescerá de US$ 35 bilhões em 2025 para US$ 100 bilhões até 2028, um número maior do que todo o mercado de DRAM de 2024.

Palavras-chave: # chips de memória # escassez de chips # DRAM # HBM # IA # GPUs # preços de memória # indústria de semicondutores # data centers # NAND # TSMC # Samsung # SK Hynix # Micron