Ekhbary
Sunday, 22 February 2026
Breaking

Neue Geräte könnten die "Speicherwand" der KI überwinden

Forscher der University of California, San Diego, stellen ge

Neue Geräte könnten die "Speicherwand" der KI überwinden
7DAYES
3 hours ago
5

Vereinigte Staaten - Ekhbary Nachrichtenagentur

Durchbruch in der Speichertechnologie verspricht, die Leistungsgrenze der KI zu durchbrechen

In einer Entwicklung, die künstliche Intelligenz (KI) revolutionieren könnte, hat ein Forscherteam der University of California, San Diego (UCSD), einen bahnbrechenden Fortschritt im Bereich des Resistive Random-Access Memory (RRAM) enthüllt. Diese Innovation befasst sich direkt mit einem der größten Hindernisse moderner KI-Systeme: der berüchtigten "Speicherwand". Diese Engstelle entsteht durch den erheblichen Zeit- und Energieaufwand, der für den ständigen Datentransport zwischen Prozessoren und Speicher erforderlich ist, selbst bei hochoptimierten KI-Modellen.

Die Genialität der vom UCSD-Team entwickelten 3D-gestapelten Bulk-RRAM liegt in ihrer Fähigkeit, Rechenaufgaben direkt innerhalb der Speicherzellen selbst durchzuführen. Dieses Paradigma, oft als "In-Memory Computing" bezeichnet, eliminiert die Notwendigkeit einer kontinuierlichen, energieintensiven Datenbewegung und ebnet den Weg für beispiellose Geschwindigkeit und Effizienz bei der KI-Verarbeitung.

Überwindung traditioneller Speicherbeschränkungen

Traditionell speichern RRAM-Geräte Daten, indem sie ihren elektrischen Widerstand verändern. Konventionelle RRAM-Technologien litten jedoch oft unter Instabilität und Komplexität, was ihre praktischen Anwendungen, insbesondere in datenintensiven Bereichen wie der KI, einschränkte. Ein Kernproblem der traditionellen RRAM ist ihre Abhängigkeit von der Bildung leitfähiger "Filamente" innerhalb eines widerstandsbehafteten Materials. Die Erzeugung dieser Filamente erfordert typischerweise hohe Spannungen, die oft nicht mit Standard-Complementary-Metal-Oxide-Semiconductor (CMOS)-Fertigungsprozessen kompatibel sind, was eine nahtlose Integration in moderne Prozessoren behindert. Darüber hinaus ist der Filamentbildungsprozess inhärent verrauscht und zufällig, was zu Datenungenauigkeiten führt – ein kritischer Nachteil für Deep-Learning-Modelle, die auf präzisen Gewichtswerten basieren.

Um diese Einschränkungen zu umgehen, haben die Forscher der UCSD unter der Leitung der Elektroingenieurin Duygu Kuzum die RRAM-Architektur grundlegend neu konzipiert. Anstatt sich auf die Filamentbildung zu verlassen, entwickelten sie eine neue Variante namens "Bulk RRAM". Bei diesem innovativen Design schaltet sich eine gesamte Materialschicht zwischen hohen und niedrigen Widerstandszuständen um, anstatt lokalisierte Filamente zu bilden. Dieser Ansatz vermeidet die Notwendigkeit der Hochspannungs-Filamentbildung und eliminiert die Notwendigkeit von "Selektor-Transistoren" zur Isolation, die zuvor für die Zellisolation in traditioneller RRAM erforderlich waren. Diese Vereinfachung erleichtert den komplexen Prozess der dreidimensionalen Stapelung erheblich.

Innovation bei 3D-Stapelung und Speicherkapazität

Während das Konzept der Bulk-RRAM nicht völlig neu ist, hat die UCSD-Gruppe bedeutende Durchbrüche bei der Miniaturisierung dieser Geräte und ihrer Integration in funktionale 3D-Schaltungen erzielt. Die Forscher haben die RRAM-Geräte erfolgreich auf die Nanoskala reduziert, wobei einzelne Geräte nur 40 Nanometer im Durchmesser messen. Entscheidend ist, dass es ihnen gelang, diese Bulk-RRAM-Geräte in beeindruckende acht Schichten zu stapeln. Jede Zelle innerhalb dieses Acht-Schichten-Stacks kann sechs Bit Daten darstellen, wodurch sie mit einem einzigen Spannungsimpuls 64 verschiedene Widerstandsniveaus speichern kann. Diese hohe Präzision bei den Widerstandszuständen ist mit traditioneller filamentbasierter RRAM nur äußerst schwer zu erreichen.

Darüber hinaus arbeiten die neuen Bulk-RRAM-Stacks im Megaohm (MΩ)-Widerstandsbereich, eine deutliche Steigerung gegenüber dem Kiloohm (kΩ)-Bereich der filamentbasierten RRAM. Dr. Kuzum merkt an, dass dieser höhere Widerstandsbereich besonders vorteilhaft für parallele Operationen ist und die Effizienz des In-Memory Computing weiter steigert.

Praktische Anwendung: Kontinuierlich lernende neuronale Netze

Um das Potenzial der Technologie zu demonstrieren, konstruierten die Forscher ein 1-Kilobyte-Speicherarray unter Verwendung mehrerer acht-schichtiger Bulk-RRAM-Stacks, die bemerkenswerterweise keine Selektor-Transistoren benötigten. Dieses Array wurde dann mit einem kontinuierlichen Lernalgorithmus getestet, der die Aufgabe hatte, Daten von tragbaren Sensoren zu klassifizieren und gleichzeitig kontinuierlich neue Informationen zu integrieren. Beispielsweise könnten Daten von einem tragbaren Smartphone verwendet werden, um die Aktivität des Trägers genau zu bestimmen, wie z. B. Sitzen, Gehen oder Treppensteigen. Die Tests ergaben eine beeindruckende Genauigkeit von 90 Prozent, ein Leistungsniveau, das mit digital implementierten neuronalen Netzen vergleichbar ist.

Dr. Kuzum glaubt, dass diese Technologie besonders gut für KI-Modelle geeignet ist, die auf Edge-Geräten eingesetzt werden und die aus ihrer Umgebung lernen und sich anpassen müssen, ohne ständige Cloud-Konnektivität. "Wir führen umfangreiche Charakterisierungs- und Materialoptimierungen durch, um ein Gerät zu entwickeln, das speziell für KI-Anwendungen entwickelt wurde", sagte Kuzum.

Zukünftige Herausforderungen und vielversprechende Aussichten

Alec Talin, Materialwissenschaftler bei Sandia National Laboratories und ein Forscher im Bereich Bulk-RRAM, der nicht an der Studie beteiligt war, bezeichnete diesen Integrationsfortschritt als einen sehr wertvollen Schritt. Talin wies jedoch auf eine potenzielle Herausforderung hin: die Fähigkeit, Daten über längere Zeiträume zu speichern, insbesondere bei den erhöhten Temperaturen, die in betrieblichen Computerumgebungen auftreten. Während die UCSD-Gruppe eine Datenspeicherung über mehrere Jahre bei Raumtemperatur demonstrierte, vergleichbar mit Flash-Speicher, bleibt die Leistung bei höheren Betriebstemperaturen Gegenstand weiterer Untersuchungen. "Dies ist eine der größten Herausforderungen für diese Technologie", kommentierte Talin, insbesondere im Hinblick auf Edge-Anwendungen.

Wenn es den Ingenieuren gelingt, diese Herausforderungen zu meistern, könnte die Bulk-RRAM-Technologie allen Arten von KI-Modellen erhebliche Vorteile bringen. Die "Speicherwand" ist in diesem Jahrzehnt zu einem immer größeren Hindernis geworden, da der herkömmliche Speicher Schwierigkeiten hat, mit den steigenden Anforderungen großer KI-Modelle Schritt zu halten. Jede Technologie, die Berechnungen direkt im Speicher ermöglicht, bietet eine entscheidende Abkürzung für die Weiterentwicklung der nächsten Generation intelligenter Systeme.

Tags: # KI # RRAM # Speicherwand # In-Memory Computing # Edge-Geräte # University of California San Diego # Halbleitertechnologie # Neuronale Netze