Micron stellte den weltweit ersten LPDDR‑SOCAMM2-Speicher mit einer Kapazität von 256 GB vor – ideal für KI.
Micron startet einen neuen Speicher-Typ für Rechenzentren
Das Unternehmen Micron hat weltweit das erste LPDRAM SOCAMM2-Module mit 256 GB vorgestellt, speziell entwickelt für Hochleistungs-Datencenter und KI-Aufgaben.
Was ist neu?
ParameterTraditioneller SpeicherLPDRAM SOCAMM2Energieverbrauch–dreifach niedrigerGröße des Moduls–kompakt, aus monolithischen Kristallen von 32 Gb/sDurchsatz–verbessert für KI-InferenzLatenz–deutlich reduziert
Bei Betrieb mit einem achtkanaligen Prozessor und 2 TB Gesamtspeicher steigt die Startgeschwindigkeit von KI-Modellen (Zeit bis zum ersten Token) um mehr als zweieinhalb Mal.
Für wen ist es gedacht?
Das Modul richtet sich an:
- den Einsatz großer Sprachmodelle;
- jede Arbeitslast, bei der Speichergröße, Durchsatz und Latenz kritisch sind;
- Szenarien, in denen ein Teil des KV-Caches aus dem Videospeicher in kostengünstigeren Systemspeicher ausgelagert werden kann, ohne die Leistung zu verlieren.
Formfaktor und Zusammenarbeit
SOCAMM2 ist eine kompakte Variante des RDIMM-Formats, aber mit geringerem Energieverbrauch. Die Speicherentwicklung erfolgte in Zusammenarbeit mit Nvidia, was seine Eignung für GPU-beschleunigte KI unterstreicht.
Damit bietet Micron eine effiziente Lösung für Rechenzentren, die Energiekosten und Platz spart und gleichzeitig die Leistung von KI-Belastungen verbessert.
Kommentare (0)
Teile deine Meinung — bitte bleib höflich und beim Thema.
Zum Kommentieren anmelden