OpenAI hat GPT‑5.4 Mini und Nano vorgestellt – kleine Varianten des Hauptmodells, die für hochbelastende Aufgaben konzipiert sind.
OpenAI veröffentlicht kompakte Versionen von GPT‑5.4
Das Unternehmen kündigte die Einführung zweier neuer kleiner KI-Modelle an – GPT‑5.4 mini und GPT‑5.4 nano, die die Kernfunktionen des vollwertigen GPT‑5.4 kombinieren, jedoch schneller arbeiten und weniger Ressourcen benötigen.
Was ist neu?
Modell Kernmerkmale Anwendungsbereiche
GPT‑5.4 mini
• Verbesserter Codegenerator
• Mehr logisches Denken
• Steuerung von Drittanbieter-Tools
• Geschwindigkeit mehr als doppelt so hoch wie bei GPT‑5 mini
• Ergebnisse auf dem Niveau des vollwertigen GPT‑5.4 in den Tests SWE‑Bench Pro und OSWorld‑Verified
• Schnelle KI‑Assistenten für Code
• Subagenten, die Hilfsaufgaben ausführen
• Multimodale Anwendungen (Screenshot-Erkennung, UI-Steuerung)
• Chatbots (bei Überschreitung der GPT‑5.4 Thinking-Limits in ChatGPT wechselt automatisch auf mini)
GPT‑5.4 nano
• Das kompakteste und schnellste Modell der GPT‑5.4-Familie
• Deutlich besser als GPT‑5 nano
• Datenextraktion, Klassifizierung und Rangordnung
• Subagenten für Grundaufgaben
Wie es in praktischen Szenarien funktioniert
- Codex: Das Senior-Modell GPT‑5.4 koordiniert die Arbeit paralleler Subagenten auf Basis von GPT‑5.4 mini. Dadurch kann beispielsweise Code im Repository gesucht, große Dateien analysiert und mit Dokumentationen gearbeitet werden – alles ohne das schwerste Modell zu verwenden.
- Entwicklung: Teams nutzen das „große“ Modell für Entscheidungen, während die kleinen Modelle diese Entscheidungen schnell bei großen Datenmengen umsetzen. GPT‑5.4 mini verwaltet zudem effizient die PC-Benutzeroberfläche.
Zugang und Preise
Modell Zugänglichkeit Tokenlimit Preis (eingehend) Preis (ausgehend)
GPT‑5.4 mini Codex app, CLI, IDE-Erweiterung, Webinterface, API 400 000 Token $0,75/Mio. $4,50/Mio.
Quotenverbrauch: 30 % von GPT‑5.4
GPT‑5.4 nano Ausschließlich API – $0,20/Mio. $1,25/Mio.
Damit hat OpenAI sein KI-Angebot erweitert und schnelle sowie kostengünstige Optionen für Aufgaben bereitgestellt, bei denen Geschwindigkeit und Effizienz wichtiger sind als die volle Modellleistung.
Kommentare (0)
Teile deine Meinung — bitte bleib höflich und beim Thema.
Zum Kommentieren anmelden