OpenAI hat einen „Chief Preparation Officer“ ernannt, der die Sicherheit von künstlicher Intelligenz überwachen wird.
OpenAI hat einen neuen Leiter für die Sicherheit von künstlicher Intelligenz ernannt
Im Zuge wachsender Fragen zur sicheren Nutzung von KI kündigte OpenAI einen neuen Mitarbeiter an – Dylan Scandino als *Head of Preparedness* (Leiter der Bereitschaft).
Wer ist Dylan Scandino?
Periode Unternehmen Rolle Mai 2023 – Februar 2024 Anthropic Projektleiter für KI-Sicherheit September 2022 – Mai 2025 DeepMind (Google) Spezialist für synthetische Daten zur Ausbildung von Gemini Bis 2022 Palantir, Unity Technologies, Everyday Robots Verschiedene Positionen im Bereich maschinelles Lernen und Softwareentwicklung
Scandino ist bekannt dafür, dass er in früheren Tätigkeiten ähnliche Aufgaben zur Risikoreduktion bei der Entwicklung von KI-Modellen übernommen hat.
Was bedeutet die neue Ernennung?
* Rolle: Leitende Position im „Preparedness“-Team – verantwortlich für die Vorbereitung und Umsetzung von Maßnahmen, die es ermöglichen, leistungsstarke Modelle ohne Gefahr für Nutzer zu entwickeln.
* Bedingungen: Gehalt $550 000 pro Jahr plus OpenAI-Aktien.
* Kontext: Seit 2023 gibt es bei OpenAI ein „Preparedness“-Team, das zuvor von Alexander Madrid, einem MIT-Spezialisten, geleitet wurde.
Wie sieht der Leiter von OpenAI die Situation?
Der Geschäftsführer Sam Altman betonte, dass mit der beschleunigten Entwicklung von Modellen neue und schwerwiegendere Risiken auftreten werden. Er hob hervor:
> „Wir werden an sehr leistungsstarken Modellen arbeiten. Das erfordert angemessene Vorsichtsmaßnahmen, um weiterhin große Vorteile zu bieten.“
Altman zeigte Vertrauen in Scandinos Kompetenzen:
*„Er ist der beste Kandidat für diese Rolle unter allen Menschen, die ich je getroffen habe“, sagte er.*
Er fügte hinzu, dass das neue Team sich auf langfristige Sicherheit konzentrieren und „ruhiger schlafen“ kann.
Was wird von Scandino erwartet?
Scandino selbst hat eingeräumt, dass schnell wachsende KI-Modelle „extremen und sogar irreversiblen Schaden“ verursachen können. Vor ihm steht die Aufgabe:
* Strategien zur Risikominimierung entwickeln;
* Praktiken für sichere Ausbildung und Betrieb von Modellen implementieren;
* Die Bemühungen des gesamten OpenAI-Teams in diesem Bereich koordinieren.
Ergebnis
OpenAI erweitert seine Sicherheitsstruktur, indem es einen erfahrenen Spezialisten aus führenden Unternehmen der Branche anheuert. Die neue Ernennung unterstreicht das Bestreben des Unternehmens, KI verantwortungsbewusst zu entwickeln und sich auf mögliche Herausforderungen der Zukunft vorzubereiten.
Kommentare (0)
Teile deine Meinung — bitte bleib höflich und beim Thema.
Zum Kommentieren anmelden