Nvidia hat das Nemotron 3 Super 120B vorgestellt – ein offenes LLM mit einem fünffachen Geschwindigkeitszuwachs für KI‑Agenten.

Nvidia hat das Nemotron 3 Super 120B vorgestellt – ein offenes LLM mit einem fünffachen Geschwindigkeitszuwachs für KI‑Agenten.

11 hardware

Neue Modell von Nvidia – Nemotron 3 Super

Nvidia hat die Einführung des Nemotron 3 Super angekündigt, eines offenen KI-Modells vom Typ Mixture‑of‑Experts (MoE).

* 120 Mrd. Gesamtsparameter, davon 12 Mrd. aktiv.
* Entwickelt für agentenbasierte KI – Systeme, in denen mehrere „Agenten“ miteinander und mit der Außenwelt interagieren.

Architektur
Das Modell verwendet einen hybriden Ansatz Mamba‑Transformer (Kombination aus Mamba-Schichten und Transformer-Elementen).

Im Nemotron 3 Super wird erstmals die LatentMoE-Paradigma eingesetzt, Multi‑Token Prediction-Schichten und ein Vortraining nach dem NVFP4-Protokoll. Nach Angaben von Nvidia erhöht dieser Stack die Genauigkeit und beschleunigt das Inferenzieren.

Leistung
* Durchsatz – bis zu 5× schneller als die vorherige Nemotron Super-Version.
* Genauigkeit – bis zu 2× höher.
* Unterstützung eines Kontextfensters von 1 Mio. Tokens ermöglicht es Agenten, den vollständigen Arbeitsprozesszustand zu speichern und reduziert das Risiko, vom Ziel abzuweichen.

Praktische Anwendung
Nemotron 3 Super eignet sich gut für komplexe Aufgaben in Multi‑Agenten-Systemen:

AufgabeAnwendungsbeispiel
Codegenerierung und Debugging ohne DokumententeilungAutomatisches Schreiben und Überprüfen großer Programme
FinanzanalyseEinbindung von Tausenden Seiten Berichte in den Modellspeicher

Training
Das Modell wurde mit synthetischen Daten trainiert, die mithilfe logischer Denkmodelle erstellt wurden. Nvidia veröffentlicht die vollständige Methodik:

* Mehr als 10 Billionen Tokens vor und nach dem Training;
* 15 Umgebungen für Reinforcement‑Learning-Training;
* Bewertungsrezepte.

Forscher können die Nvidia NeMo-Plattform nutzen, um das Modell weiter anzupassen oder eigene Versionen zu erstellen.

Technische Details
* NVFP4-Unterstützung auf der Nvidia Blackwell-Architektur.
* Reduzierte Speicheranforderungen und vierfach beschleunigte Ausgabe im Vergleich zu FP8 auf Nvidia Hopper ohne Genauigkeitsverlust.

Verfügbarkeit
Das Modell ist bereits verfügbar:

* Über build.nvidia.com, Hugging Face, OpenRouter und Perplexity.
* Cloud‑Partner: Google Cloud Vertex AI, Oracle Cloud Infrastructure, CoreWeave, Together AI, Baseten, Cloudflare, DeepInfra, Fireworks AI, Modal.
* Als Nvidia NIM-Mikroservice, der es ermöglicht, das Modell lokal oder in der Cloud bereitzustellen.

Nemotron 3 Super eröffnet neue Möglichkeiten für agentenbasierte KI und kombiniert hohe Genauigkeit, Skalierbarkeit und Anpassungsflexibilität.

Kommentare (0)

Teile deine Meinung — bitte bleib höflich und beim Thema.

Noch keine Kommentare. Hinterlasse einen Kommentar und teile deine Meinung!

Um einen Kommentar zu hinterlassen, melde dich bitte an.

Zum Kommentieren anmelden