OpenAI hat GPT‑5.3‑Codex veröffentlicht – ein KI-Modell für das Programmieren, das zu seiner eigenen Entstehung beigetragen hat
OpenAI hat GPT‑5.3‑Codex veröffentlicht – ein schnelleres und vielseitigeres Modell zur Codegenerierung
Das Unternehmen kündigte die Veröffentlichung einer neuen Version seines Codierungsmodells an – GPT‑5.3‑Codex.
Im Gegensatz zum Vorgänger (GPT‑5.2‑Codex) behält es die gleiche Effizienz beim Schreiben von Programmen bei, arbeitet jedoch um 25 % schneller und kombiniert logisches Denken mit den professionellen Kenntnissen der vorherigen Version.
Selbstentwicklung des Modells – ein entscheidender Punkt
OpenAI betonte, dass GPT‑5.3‑Codex das erste Modell des Unternehmens sei, das sich „selbst geholfen“ hat bei seiner Entwicklung.
Die Entwickler nutzten frühe Iterationen des Algorithmus für:
* die Optimierung des Trainings,
* die Verwaltung der eigenen Bereitstellung,
* die Diagnose von Testergebnissen.
Das Team ist erstaunt darüber, wie schnell und effektiv das Modell sein eigenes Wachstum beschleunigt hat.
Vom Code‑Agent zum vielseitigen Assistenten
Das Modell hat den Weg vom einfachen Codegenerator/-prüfer zu einem Agenten zurückgelegt, der nahezu alle Aufgaben von Entwicklern und PC-Benutzern lösen kann.
Es kann:
* komplexe Recherchen mit verschiedenen Werkzeugen durchführen,
* in Echtzeit mit dem Benutzer interagieren und die Arbeitsrichtung anpassen.
Neue Rekorde und Verbesserungen
GPT‑5.3‑Codex erreichte branchenführende Kennzahlen:
Benchmark | GPT‑5.2‑Codex | GPT‑5.3‑Codex | SWE‑Bench Pro | 56,4 % | 56,8 % | Terminal‑Bench | 64 % | 77,3 %
Außerdem erzielte das Modell herausragende Ergebnisse bei OSWorld und GDPval, und in der Webentwicklung wurden signifikante Verbesserungen erzielt.
Vielseitigkeit für alle Fachleute
OpenAI positioniert GPT‑5.3‑Codex als vielseitigen Agenten, geeignet für:
* Programmierer,
* Designer,
* Projektmanager,
* Datenexperten und viele weitere Rollen.
Das Modell ermöglicht die Steuerung des gesamten Softwarelebenszyklus – von der Entwicklung bis zur Wartung.
Stärkung der Cybersicherheit
Das neueste Modell ist das erste in der Reihe, das direkt darauf trainiert wurde, Schwachstellen im Quellcode zu finden.
In diesem Zusammenhang kündigte das Unternehmen die Erweiterung des Cybersecurity-Stipendienprogramms an: 10 Millionen US-Dollar in Form von API-Krediten zur Unterstützung von Open-Source-Software.
Verfügbarkeit
* GPT‑5.3‑Codex ist bereits für zahlende ChatGPT-Abonnenten verfügbar.
* In Kürze wird die Möglichkeit geben, das Modell über eine API für Drittentwickler zu nutzen.
Kommentare (0)
Teile deine Meinung — bitte bleib höflich und beim Thema.
Zum Kommentieren anmelden