Das Pentagon droht mit einer harten Gegenreaktion von Anthropic wegen des Verbots der Nutzung von Claude in Überwachungssystemen und autonomer Bewaffnung

Das Pentagon droht mit einer harten Gegenreaktion von Anthropic wegen des Verbots der Nutzung von Claude in Überwachungssystemen und autonomer Bewaffnung

9 hardware

Kurz zur Situation

Der US-Verteidigungsminister Pete Hegseth erwägt, sämtliche Geschäftsbeziehungen mit dem Unternehmen Anthropic – einem der führenden KI-Entwickler – zu beenden und es als „Bedrohung der Lieferkette“ einzustufen. Das würde bedeuten, dass jeder Ministerialauftragnehmer die Beziehungen zu Anthropic auflösen müsste. Die Information wurde von *Axios* unter Berufung auf eine Quelle im Pentagon veröffentlicht.

Was genau diskutiert wird
Thema: Wesentliche Punkte – Beziehungsabbrüche
Hegseth erklärt, dass „das Aufbrechen dieser Verbindungen extrem schmerzhaft sein würde“, aber gleichzeitig plant das Ministerium, Anthropic für die erzwungenen Maßnahmen zur Zahlung zu zwingen.
Sicherheitsprinzip – Shawn Parnell (offizieller Pentagon-Vertreter) betonte: „Wir verlangen von unseren Partnern, dass sie den Truppen helfen, in jedem Kampf zu gewinnen“.
Aktuelle Beziehungen zu Anthropic – Claude ist das einzige KI-Modell, das in geheimen US-Militärsystemen eingesetzt wird. Es führt auch im kommerziellen Markt an und wurde bei einer jüngsten Operation in Venezuela eingesetzt.
Anforderungen an das System – Das Ministerium möchte sicherstellen, dass KI nicht für Massenüberwachung von Amerikanern oder zur Entwicklung autonomer Waffen verwendet wird. Anthropic hält diese Bedingungen für „übermäßig restriktiv“ und weist auf „graue Zonen“ hin, die ihre Durchführbarkeit einschränken.
Verhandlungen mit anderen Giganten – Das Pentagon führt ebenfalls Gespräche mit OpenAI, Google und xAI und verlangt das Recht, deren Modelle „für alle legitimen Zwecke“ zu nutzen.

Warum dies wichtig ist
1. Vertragsvolumen
* Der Vertrag mit dem Ministerium wird auf 200 Mrd. USD geschätzt, während der Jahresumsatz von Anthropic etwa 14 Mrd. USD beträgt.

2. Technologisches Potenzial
* Claude hat bereits seine Zuverlässigkeit bewiesen und wird in geheimen US-Netzwerken eingesetzt; 8 von 10 größten amerikanischen Unternehmen sind Kunden.

3. Sicherheitsrichtlinie
* Das Pentagon sieht das Potenzial, dass KI die Datensammlung (soziale Medien, Genehmigungen für verdecktes Waffentragen) erheblich verstärken und damit Bürger gefährden könnte.

4. Branchenwirkung
* Die harte Haltung gegenüber Anthropic setzt den Ton für weitere Verhandlungen mit OpenAI, Google und xAI. Bis diese Unternehmen zugestimmt haben, die Beschränkungen für nicht-geheime Militärsysteme zu lockern, werden ihre Modelle noch immer nicht in vollständig geheimen Operationen eingesetzt.

Reaktionen der Beteiligten
- Anthropic
- Bestätigt das Engagement für den Einsatz von KI in der nationalen Sicherheit und betont, dass Claude der erste Chatbot in geheimen Netzwerken war.
- Ist bereit, „produktive, gutwillige Verhandlungen“ mit dem Ministerium zu führen.

- Pentagon
- Nach Quellen ist seit einiger Zeit Unzufriedenheit mit Anthropic vorhanden und sieht die Möglichkeit, einen Konflikt auszulösen.
- Erwartet eine Bestätigung des Nicht-Bestehens von Beziehungen zu Anthropic, um die Zusammenarbeit fortzusetzen.

Was als Nächstes passiert
* Die Entscheidung über den Status von Anthropic in der Lieferkette wurde noch nicht getroffen.
* Das Pentagon beabsichtigt, die Regel „Verwendung für alle legitimen Zwecke“ für Modelle von OpenAI, Google und xAI zu verankern, aber eine endgültige Entscheidung steht noch aus.

Somit prüft das Ministerium ernsthafte Schritte gegen eines der Schlüsselunternehmen im KI-Bereich, während es gleichzeitig versucht, neue Sicherheits- und Kontrollstandards für technologische Partner festzulegen.

Kommentare (0)

Teile deine Meinung — bitte bleib höflich und beim Thema.

Noch keine Kommentare. Hinterlasse einen Kommentar und teile deine Meinung!

Um einen Kommentar zu hinterlassen, melde dich bitte an.

Zum Kommentieren anmelden