Amazon plant die Bereitstellung von KI-Modellen auf riesigen Cerebras-Chips.

Amazon plant die Bereitstellung von KI-Modellen auf riesigen Cerebras-Chips.

12 hardware

Amazon und Cerebras bündeln Kräfte zur Beschleunigung großer Sprachmodelle

Amazon Web Services (AWS) kündigte an, dass es Mitte 2026 die Chips des Startups Cerebras Systems Inc. neben seinen eigenen Trainium-Prozessoren einsetzen wird. Laut interner Information soll dies „optimale Bedingungen“ für den Betrieb und das Hosting großer Sprachmodelle (LLM) schaffen. Details zur finanziellen Seite der Transaktion werden noch nicht veröffentlicht.

Was genau passiert
* Die Trainium 3‑Chips von AWS verarbeiten die Benutzereingaben – sie „verstehen“ deren Bedeutung.
* Anschließend übernehmen die Cerebras Wafer‑Scale Engine (WSE)-Chips die Generierung der Antwort.

So arbeiten zwei spezialisierte Beschleuniger zusammen und liefern Inferenzrechnungen für LLM.

> „Die Interaktion zwischen verschiedenen Komponenten verlangsamt den Prozess in der Regel“, sagt Nafea Bshara, Vizepräsidentin von AWS. „Aber wir streben danach, einen Vorteil zu erzielen, indem wir Chips einsetzen, die Inferenz schneller verarbeiten.“

Der Vorteil ist besonders deutlich dort, wo Reaktionsgeschwindigkeit entscheidend ist: z. B. beim schrittweisen Schreiben von Code oder der Echtzeit-Textgenerierung.

Warum das wichtig ist
* Amazon ist einer der größten Cloud-Anbieter und ein aktiver Nutzer von Nvidia‑GPU-Herstellern. Das Unternehmen entwickelt derzeit eigene KI-Chips, um die Effizienz seiner Rechenzentren zu steigern und Kunden einzigartige Dienste anzubieten.
* Für Cerebras bedeutet die Zusammenarbeit mit AWS den ersten großen Vertrag mit einem Giganten der Datenzentren, was die Markenbekanntheit im potenziellen Markt erhöht. Dies ist auch wichtig vor dem geplanten IPO.

Ergebnisse
AWS und Cerebras schaffen gemeinsam eine neue Infrastruktur für große Sprachmodelle: Trainium 3‑Chips verarbeiten Anfragen, während WSE-Antworten generieren. Obwohl ein einzelner Service ausschließlich mit Trainium günstiger sein könnte, verspricht die kombinierte Lösung erhebliche Beschleunigungen, bei denen „Zeit Geld ist“. Dies stärkt Amazons Position als großer Kunde von Nvidia und fördert gleichzeitig die eigenen KI-Chips des Unternehmens zu höherer Effizienz.

Kommentare (0)

Teile deine Meinung — bitte bleib höflich und beim Thema.

Noch keine Kommentare. Hinterlasse einen Kommentar und teile deine Meinung!

Um einen Kommentar zu hinterlassen, melde dich bitte an.

Zum Kommentieren anmelden