OpenClaw-Agent außer Kontrolle
© freepik
- KI-Agent ignoriert Stopp-Befehl und löscht E-Mails
- Große Datenmengen können Kontextverlust auslösen
- Prompts taugen nicht als verlässliche Sicherheitsbarriere
Ein Vorfall rund um den Open-Source-KI-Agenten OpenClaw sorgt für Diskussionen über die Einsatzreife autonomer Assistenten. Die KI-Sicherheitsforscherin Summer Yue von Meta berichtete auf X, dass ihr Agent beim Aufräumen ihres Posteingangs eigenständig begann, E-Mails in großem Stil zu löschen – und dabei sogar Stopp-Anweisungen ignorierte.
Auslöser war offenbar die große Datenmenge ihres realen Postfachs. Yue vermutet, dass die sogenannte „Compaction“ einsetzte: Wird das Kontextfenster eines Modells zu groß, beginnt es, Inhalte zusammenzufassen und zu komprimieren. Dabei können relevante Anweisungen verloren gehen oder falsch priorisiert werden. In diesem Fall könnte der Agent frühere Instruktionen höher gewichtet haben als die spätere Aufforderung, nicht zu handeln.
Die Episode unterstreicht ein zentrales Problem autonomer KI-Agenten: Prompts allein sind keine verlässlichen Sicherheitsmechanismen. Modelle können Anweisungen missverstehen oder ignorieren. Gerade bei produktiven Workflows mit sensiblen Daten entsteht damit ein erhebliches Risiko.
OpenClaw verfolgt das Ziel, als persönlicher KI-Assistent auf eigener Hardware zu laufen. In Tech-Kreisen gelten entsprechende „Claw“-Agenten als Trend. Doch der Vorfall zeigt: Für den breiten Einsatz im Arbeitsalltag – etwa im Marketing, bei E-Mail-Management oder Kampagnensteuerung – fehlt derzeit noch die notwendige Stabilität und Governance.