Ein amerikanischer Richter sah im Verhalten des Pentagon den Wunsch, Anthropic für ihre Position zu bestrafen
Das Pentagon hat Anthropic in die Liste der „gefährlichen“ KI-Anbieter aufgenommen
In einer jüngsten Entscheidung des US-Verteidigungsministeriums (DoD) wurde das Unternehmen Anthropic, ein Entwickler von künstlicher Intelligenz-Systemen, in die Aufstellung von Organisationen aufgenommen, die eine Bedrohung für die nationale Sicherheit in der Lieferkette darstellen. Das Unternehmen sieht dies als Versuch, es wegen öffentlicher Aussagen über Risiken des KI-Einsatzes im Militär zu bestrafen.
Was genau passiert ist
1. Das Pentagon hat den Status „Bedrohung“ vergeben
- Der Status wird üblicherweise Unternehmen zugewiesen, deren Technologien Ziel von Eindringversuchen oder Sabotage durch Gegner werden könnten.
- Anthropic erhielt diesen Status Ende 2023.
2. Das Unternehmen hat vor Gericht geklagt
- In einem Bundesgericht in Kalifornien reichte Anthropic Klage ein und behauptete, dass Pete Heegset (Leiter der Beschaffung) seine Befugnisse überschritten habe.
- Es wird eine einstweilige Verfügung gefordert, die Sanktionen bis zum Abschluss des Gerichtsverfahrens verhindert.
3. Entscheidung des Bezirksrichters
- Richterin Rita Lin versprach, in den nächsten Tagen nach der letzten Sitzung ein schriftliches Urteil zu fällen.
Warum Anthropic nicht zugestimmt hat
- Das Unternehmen verweigerte dem Pentagon die Nutzung seiner Modelle für massenhaftes Überwachen von US-Bürgern und für autonome Waffensysteme, bei denen KI Entscheidungen über das Töten eines Menschen trifft.
- Durch den neuen Status schätzt Anthropic einen potenziellen Verlust von mehreren Milliarden Dollar (Verlust von Geschäft und Ruf).
- Nach ihrer Aussage wurde eine solche Maßnahme nie gegen amerikanische Unternehmen angewendet; die Grundlage diente einem wenig bekannten Gesetz über staatliche Aufträge, das darauf abzielt, militärische Systeme vor ausländischer Sabotage zu schützen.
Rechtliche Argumente
Anthropic behauptet, dass die Maßnahmen des Pentagons die Meinungsfreiheit und die US-Verfassung verletzen; dem Unternehmen wurde keine Möglichkeit gegeben, den Status anzufechten. Das Pentagon müsse das Risiko eines „Not-Aus-Schalters“ oder einer KI-Einmischung verhindern, die für militärische Operationen kritisch sein könnte.
Weitere Schritte
- Anthropic reichte noch eine weitere Klage in Washington ein wegen der Entscheidung des Pentagons, die es von staatlichen Aufträgen ausschließen könnte.
Kommentare (0)
Teile deine Meinung — bitte bleib höflich und beim Thema.
Zum Kommentieren anmelden