İkbari
Sunday, 22 February 2026
Breaking

Bellek Çipi Kıtlığı Ne Zaman ve Nasıl Sona Erecek?

Yapay Zeka Talebi Fiyatları Artırıyor, Uzmanlar Yeni Fabrika

Bellek Çipi Kıtlığı Ne Zaman ve Nasıl Sona Erecek?
7DAYES
10 hours ago
6

Amerika Birleşik Devletleri - Ekhbary Haber Ajansı

Bellek Çipi Kıtlığı Ne Zaman ve Nasıl Sona Erecek?

Son zamanlarda teknolojide her şeyin yapay zeka (AI) ile ilgili olduğu hissine kapılıyorsanız, bunun nedeni budur. Ve bilgisayar belleği pazarında bu durum daha da doğrudur. Yapay zeka veri merkezlerindeki grafik işlem birimlerini (GPU'lar) ve diğer hızlandırıcıları beslemek için kullanılan Dinamik Rastgele Erişim Belleği (DRAM) türüne olan talep ve karlılık o kadar büyüktür ki, diğer kullanımlar için ayrılan tedarikleri başka yönlere kaydırmakta ve fiyatların hızla yükselmesine neden olmaktadır. Counterpoint Research'e göre, DRAM fiyatları bu çeyrekte şimdiden %80-90 oranında artmıştır.

En büyük yapay zeka donanım şirketleri, çip tedariklerini 2028 yılına kadar güvence altına aldıklarını belirtiyorlar. Ancak bu durum, PC üreticileri, tüketici aygıtları ve milyarlarca bitlik geçici depolama gerektiren diğer her şeyi üreten herkesi, kıt tedarik ve şişirilmiş maliyetlerle başa çıkmak için çaresiz bırakmaktadır. Elektronik endüstrisi nasıl bu duruma düştü ve daha da önemlisi, nasıl çıkacak?

Ekonomistler ve bellek uzmanları, bu durumun DRAM endüstrisindeki tarihi yükseliş ve düşüş döngüsü ile benzeri görülmemiş ölçekteki yapay zeka donanım altyapısının kurulmasının bir çarpışmasının sonucu olduğunu belirtiyorlar. Yapay zeka sektöründe büyük bir çöküş yaşanmadıkça, arzı taleple uyumlu hale getirmek için yeni kapasite ve teknolojik gelişmelerin yıllar alacağı tahmin ediliyor. Hatta denge sağlandıktan sonra bile fiyatların yüksek kalması muhtemeldir.

Bu durumun dinamiklerini anlamak için, arz ve talep dalgalanmalarının ana itici gücü olan Yüksek Bant Genişlikli Belleği (HBM) anlamak kritik öneme sahiptir. HBM, 3D çip paketleme teknolojisini kullanarak Moore Yasası'nın yavaşlayan hızını aşma çabasıdır. Her HBM çipi, "çekirdek" (dies) adı verilen 12 adet ince kesilmiş DRAM çipinden oluşur. Her çekirdek, "silikon içinden geçişler" (TSVs) adı verilen çok sayıda dikey bağlantı içerir. Bu çekirdekler üst üste yığılır ve TSV'lere hizalanmış mikroskobik lehim topları dizileriyle birbirine bağlanır. Yaklaşık 750 mikrometre kalınlığındaki bu DRAM yığını – zarif bir kule yerine daha çok bir brutalist ofis binasına benzeyen – daha sonra bellek çekirdekleri ve işlemci arasındaki veri aktarımını yöneten bir taban çekirdeği üzerine monte edilir.

Bu gelişmiş teknolojik montaj, bir GPU'ya veya diğer yapay zeka hızlandırıcısına bir milimetre mesafede konumlandırılır ve 2.048 adede kadar mikro ölçekli bağlantıyla bağlanır. HBM'ler genellikle işlemcinin her iki tarafına takılır ve GPU ile bellek tek bir paketlenmiş ünite olarak entegre edilir. GPU ile bu kadar yakın mesafede ve yüksek hızlı bağlantının amacı, "bellek duvarını" aşmaktır – büyük dil modellerinin (LLM'ler) çalışması için gereken saniyede terabaytlarca veriyi GPU'ya beslemeye çalışırken karşılaşılan enerji ve zaman bariyeri. Bellek bant genişliği, LLM'lerin çalışma hızını sınırlayan kritik bir darboğazdır.

HBM teknolojisi on yılı aşkın süredir mevcut olsa ve DRAM üreticileri yeteneklerini sürekli geliştirmiş olsa da, yapay zeka modellerinin boyutu arttıkça GPU'lar için önemi de artmıştır. Bu önem artışı önemli bir maliyetle geldi. SemiAnalysis, HBM'nin tipik olarak diğer bellek türlerinden üç kat daha pahalıya mal olduğunu ve paketlenmiş bir GPU'nun toplam maliyetinin %50'sini veya daha fazlasını oluşturduğunu tahmin ediyor.

Sektör gözlemcileri, DRAM sektörünün doğası gereği döngüsel olduğu, büyük yükseliş dönemlerini şiddetli düşüşlerin takip ettiği konusunda hemfikirdir. Yeni üretim tesislerinin (fab) maliyeti 15 milyar ABD Doları veya daha fazla olduğundan, şirketler kapasiteyi artırma konusunda oldukça isteksizdir. Coughlin Associates'in başkanı ve depolama-bellek uzmanı Thomas Coughlin'in açıkladığı gibi, genellikle bunu yalnızca piyasadaki en yoğun dönemlerde yapacak mali kaynaklara sahiptirler. Ancak, böyle bir fabrikanın inşası ve devreye alınması 18 ay veya daha uzun sürebilir, bu da yeni kapasitenin ilk talep artışından çok sonra devreye gireceğini fiilen garanti eder. Bu durum genellikle piyasa doygunluğuna ve fiyatların düşmesine yol açar.

Coughlin'e göre, mevcut döngünün kökenleri, COVID-19 pandemisini çevreleyen çip tedariki paniğine dayanmaktadır. Tedarik zinciri aksaklıklarını azaltmak ve uzaktan çalışmaya hızlı geçişi desteklemek için Amazon, Google ve Microsoft gibi büyük veri merkezi operatörleri, bellek ve depolama alanında devasa envanterler satın alarak fiyatları yapay olarak yükselttiler. Daha sonra, tedarik zincirleri normale döndükçe ve veri merkezi genişlemesi 2022'de yavaşladıkça, bellek ve depolama fiyatları düştü. Bu düşüş 2023 boyunca devam etti ve hatta Samsung gibi büyük bellek ve depolama şirketlerini, fiyatların üretim maliyetlerinin altına düşmesini önlemek amacıyla üretimi %50'ye varan oranlarda azaltmaya zorladı. Bu, şirketlerin genellikle yatırımlarını geri kazanmak için tesislerini tam kapasiteyle çalıştırmaları gerektiği göz önüne alındığında, alışılmadık ve çaresiz bir önlemdi.

2023 sonlarında başlayan bir toparlanmanın ardından, "tüm bellek ve depolama şirketleri üretim kapasitelerini tekrar artırma konusunda çok temkinli hale geldi" diyor Coughlin. "Sonuç olarak, 2024 yılı boyunca ve 2025'in büyük bölümünde yeni üretim kapasitesine çok az yatırım yapıldı veya hiç yapılmadı."

Yeni yatırımlardaki bu eksiklik, yeni veri merkezlerinden kaynaklanan muazzam talep artışıyla doğrudan çarpışıyor. Data Center Map'e göre, dünya çapında planlanan veya inşa halinde olan yaklaşık 2.000 yeni veri merkezi bulunmaktadır. Eğer bu tesislerin tamamı tamamlanırsa, bu, şu anda yaklaşık 9.000 tesisten oluşan küresel arzda %20'lik bir artış anlamına gelecektir.

Eğer mevcut inşaat hızı devam ederse, McKinsey 2030 yılına kadar şirketlerin 7 trilyon dolar harcayacağını tahmin ediyor. Bu yatırımın büyük bir kısmı - 5.2 trilyon dolar - yapay zeka odaklı veri merkezlerine ayrılacak. Bu dilimin içinde, şirketin tahminlerine göre 3.3 trilyon dolar sunuculara, veri depolamaya ve ağ ekipmanlarına tahsis edilecek.

Yapay zeka veri merkezi patlamasının açık ara en büyük faydalanıcısı GPU üreticisi Nvidia olmuştur. Veri merkezi iş kolu geliri, 2019'un son çeyreğindeki 1 milyar doların altından, Ekim 2025'te sona eren çeyrekte 51 milyar dolara fırladı. Bu dönemde, sunucu GPU'ları sadece giderek daha fazla DRAM gigabayt talep etmekle kalmadı, aynı zamanda artan sayıda DRAM çipi de gerektirdi. Yakın zamanda piyasaya sürülen B300 modeli, her biri 12 DRAM çekirdeğinden oluşan bir yığın olan sekiz HBM çipi kullanıyor. Rakip firmalar da büyük ölçüde Nvidia'nın HBM kullanımını örnek alıyor; örneğin, AMD'nin MI350 GPU'su da sekiz adet 12 çekirdekli HBM çipi içeriyor.

Bu kadar büyük bir taleple birlikte, DRAM üreticilerinin gelirlerinden HBM'nin payı giderek artıyor. SK Hynix ve Samsung'un ardından üçüncü sırada yer alan Micron, HBM ve diğer bulutla ilgili belleğin 2023'te DRAM gelirlerinin %17'sini oluşturduğunu, ancak bu oranın 2025'te neredeyse %50'ye yükseldiğini bildirdi. Micron, HBM'nin toplam pazarının 2025'te 35 milyar dolardan 2028'de 100 milyar dolara yükseleceğini ve bunun 2024'teki tüm DRAM pazarından daha büyük bir rakam olacağını öngörüyor.

Etiketler: # bellek çipleri # çip kıtlığı # DRAM # HBM # yapay zeka # GPU # bellek fiyatları # yarı iletken endüstrisi # veri merkezleri # NAND # TSMC # Samsung # SK Hynix # Micron