ChatGPT erhielt eine „Ablehnung“, weil OpenAI mit dem Pentagon zusammenarbeitet.
Frage zur Zusammenarbeit mit dem Verteidigungsministerium
Besorgt über die möglichen Folgen der Partnerschaft von OpenAI mit dem US-Verteidigungsministerium (MoD), hat ein Teil der amerikanischen Gesellschaft die Bewegung „ChatGPT‑Abschaltung“ ins Leben gerufen. Ziel der Initiative ist es, Anthropic zu unterstützen, ein Unternehmen, das in die „Schwarze Liste“ des Pentagon aufgenommen wurde, nachdem es sich geweigert hatte, seine KI-Modelle für bestimmte Aufgaben einzusetzen.
Warum Anthropic auf die Liste kam
Im Konflikt mit dem MoD gab es zwei „rote Linien“, die der KI‑Entwickler nicht überschreiten wollte:
1. Modellen darf keine autonome Befugnis geben, Entscheidungen über den Einsatz von Waffen zu treffen.
2. Modelle dürfen nicht zur Überwachung amerikanischer Bürger verwendet werden.
Als Anthropic sich weigerte, wurde der Vertrag mit dem MoD gekündigt und das Unternehmen in die „Schwarze Liste“ aufgenommen, was allen Verteidigungsauftragsnehmern untersagt, mit ihm zusammenzuarbeiten.
Übergang zu OpenAI
Nach dem Ausschluss von Anthropic aus den Verteidigungsprogrammen des MoD wurde OpenAI einbezogen. Der CEO Sam Altman erklärte, dass ihre Modelle nicht für großflächige Überwachung eingesetzt werden würden. Regierungsvertreter widersprachen jedoch: Sie betonten, dass KI nur im Rahmen „gesetzlicher Szenarien“ verwendet werde und das Patriot Act von 2001 die Erfassung von Metadaten in Kommunikationsnetzen erlaubt, auch wenn einige seiner Bestimmungen eingeschränkt wurden.
Reaktion der Öffentlichkeit und anderer KI‑Unternehmen
Das Ereignis löste eine starke negative Reaktion in Online‑Gemeinschaften aus. Menschen, die den Einsatz von ChatGPT eingestellt hatten, begannen positive Rückmeldungen zu erhalten. Es ist wichtig zu beachten, dass das Ablehnen der „roten Linien“ nicht für alle großen KI‑Hersteller verpflichtend ist:
- Google hatte zuvor eine ähnliche Beschränkung in seinen internen Richtlinien eingeführt, hat sie aber bereits aufgehoben.
- Microsoft erlaubt die Nutzung von KI in Waffen unter der Bedingung, dass ein Mensch den Schuss abfeuert.
- Amazon beschränkt sich auf das allgemeine Prinzip „verantwortlicher Einsatz“ ohne konkrete Details.
Position von OpenAI und rechtliche Rahmenbedingungen
Sam Altman wiederholte sein Versprechen, die „roten Linien“ bei autonomer Bewaffnung und großflächiger Überwachung einzuhalten, jedoch ohne die Umsetzungsmethoden zu erläutern. Er verwies auf bestehende US-Gesetzgebung, die die Erfassung von Daten über Personen ohne amerikanische Staatsbürgerschaft aus Sicherheitsgründen zulässt.
Für die breite Öffentlichkeit stellte OpenAI dem Pentagon eine flexible Interpretation dessen vor, was als legal gilt, während Anthropic strenge Kontrollen für den Einsatz seiner Technologien beibehielt. Infolgedessen wurde das Produkt Claude AI von Anthropic zum führenden offiziellen App-Anbieter für Android und iOS und erhielt auch eine Version für Windows 11.
Kommentare (0)
Teile deine Meinung — bitte bleib höflich und beim Thema.
Zum Kommentieren anmelden