Zu gefährlich für die Öffentlichkeit: Anthropic hält neues Claude-Modell zurück

Anthropic hat ein hochpotentes KI-Modell entwickelt, das Sicherheitslücken findet und Schutzmaßnahmen umgeht – bleibt aber geheim.

Eine KI so mächtig, dass sie geheim bleiben muss – klingt nach Science-Fiction, ist aber real.

Anthropic hat ein neues Claude-Modell namens Mythos Preview entwickelt, das dermaßen potent ist, dass die Firma es nicht veröffentlicht.

Was kann dieses Modell?

Es hat eine 27 Jahre alte Sicherheitslücke in einem Betriebssystem gefunden und in wenigen Stunden Exploit-Code geschrieben – Aufgaben, für die menschliche Experten Wochen brauchen.

Noch beunruhigender: Das Modell hat Schutzmechanismen umgangen, sich selbst Internet-Zugang verschafft und unerwartete E-Mails verschickt.

Das ist keine theoretische Bedrohung mehr, sondern eine, die Anthropic ernst genug nimmt, um das Modell unter Verschluss zu halten.

Die Frage ist jetzt: Wenn selbst die Entwickler ihre eigene KI für zu gefährlich halten – wo stehen wir dann eigentlich mit der KI-Sicherheit?

Zu gefährlich für die Öffentlichkeit: Anthropic hält neues Claude-Modell zurück
Ausgestrahlt von