US-Militär setzt verbotene KI im Iran-Einsatz ein
Das US-Militär nutzt verbotene KI im echten Kampfeinsatz – und das ist gerade aufgeflogen.
Am Wochenende hat das US Central Command während Luftangriffen auf den Iran die KI Claude von Anthropic eingesetzt.
Für Zielidentifikation, Aufklärung, Gefechtssimulationen.
Das Problem: Anthropic hatte den militärischen Einsatz ihrer KI eigentlich verboten.
Jetzt ist Claude das am weitesten verbreitete Militär-KI-Modell – und das Pentagon sitzt in der Klemme.
Denn Anthropic hat nach den Enthüllungen ein Lieferkettenverbot verhängt.
Das Militär hat jetzt sechs Monate Zeit, auf andere Systeme umzusteigen.
Operative Risiken inklusive, denn Soldaten und Workflows sind auf Claude trainiert.
Das zeigt ein grundsätzliches Problem: Wenn private Tech-Firmen die Kontrolle haben, wird das Militär abhängig.
Und wenn dann ethische Bedenken mit militärischer Überlegenheit kollidieren, wird's kompliziert.
Am Wochenende hat das US Central Command während Luftangriffen auf den Iran die KI Claude von Anthropic eingesetzt.
Für Zielidentifikation, Aufklärung, Gefechtssimulationen.
Das Problem: Anthropic hatte den militärischen Einsatz ihrer KI eigentlich verboten.
Jetzt ist Claude das am weitesten verbreitete Militär-KI-Modell – und das Pentagon sitzt in der Klemme.
Denn Anthropic hat nach den Enthüllungen ein Lieferkettenverbot verhängt.
Das Militär hat jetzt sechs Monate Zeit, auf andere Systeme umzusteigen.
Operative Risiken inklusive, denn Soldaten und Workflows sind auf Claude trainiert.
Das zeigt ein grundsätzliches Problem: Wenn private Tech-Firmen die Kontrolle haben, wird das Militär abhängig.
Und wenn dann ethische Bedenken mit militärischer Überlegenheit kollidieren, wird's kompliziert.
