@-yet Hintergrund
Künstliche Intelligenz und Cybersecurity
Künstliche Intelligenz verändert die IT-Sicherheit in zweierlei Hinsicht:
• KI erweitert das Instrumentarium von Angreifern und
• KI eröffnet neue Formen der Verteidigung.
Für Angreifer wirkt KI dabei in erster Linie als Beschleuniger: Der relevante Effekt ist weniger „neue Magie“, sondern Skalierung aber teilweise auch Qualitätsgewinn. Unter anderem senkt KI den Aufwand für Social Engineering, weil generative Modelle Tonalität und Kontext konsistent und in hoher Geschwindigkeit imitieren können. Darüber hinaus verkürzt KI die Zeitspanne von Reconnaissance und Enumeration bis zur aktiven Ausnutzung technischer Schwachstellen. Die Priorisierung von Zielsystemen und potenziellen Angriffspfaden lässt sich stärker automatisieren, was den manuellen Aufwand für Angreifer drastisch reduziert.
Künstliche Intelligenz und Cybersecurity
Auch das Auffinden von Schwachstellen in Software wird durch KI massiv beschleunigt. Ein aktuelles und viel beachtetes Beispiel ist Claude Mythos (Preview) von Anthropic. Das Modell wurde am 7. April 2026 vorgestellt, jedoch nicht breit veröffentlicht. Der Zugang ist auf ein ausgewähltes Konsortium aus US-amerikanischen Technologieunternehmen im Rahmen von Project Glasswing beschränkt.

Hintergrund ist, dass das Modell beim autonomen Auffinden und Ausnutzen bisher unbekannter Schwachstellen (Zero-Day-Schwachstellen) als deutlich leistungsfähiger als sein Vorgänger Claude Opus 4.6 eingestuft wird. In internen Tests identifizierte das Modell autonom Zero-Day-Schwachstellen in allen großen Betriebssystemen und sowie in sämtlichen Browsern, darunter einen 27 Jahre alten Fehler in OpenBSD. OpenBSD ist ein auf Sicherheit ausgelegtes Betriebssystem, das unter anderem für kritische Infrastruktur, wie auch für Firewalls eingesetzt wird.
Ende April 2026 berichtete Bloomberg, dass Anthropics Zugriffsbeschränkung auf Mythos nicht so funktioniert hat, wie beabsichtigt. Bisher nicht bekannte Personen hatten sich mutmaßlich Zugang zu Claude Mythos verschafft, ohne dass Anthropic es bemerkt hat.
Zwischen Mehrwert und Marketing
Wichtig für eine nüchterne Einordnung ist, dass das Modell für die OpenBSD-Schwachstelle keinen funktionalen Exploit entwickeln konnte. Ein Detail, das in der öffentlichen Berichterstattung häufig untergeht. Insgesamt identifizierte Anthropic nach eigenen Angaben Tausende Zero-Day-Schwachstellen in kritischer Software, von denen viele als hoch- oder kritisch eingestuft wurden. Solche Meldungen verdienen dennoch die kritische Einordnung, dass der Übergang zwischen technischer Demonstration, kuratiertem Benchmark und Marketingbotschaft fließend ist.
Künstliche Intelligenz bei der Cyberabwehr
Auf Verteidigerseite wird KI bereits seit Jahren in AV-, EDR-, XDR- und SIEM-Produkten, vor allem für die Anomalieerkennung, eingesetzt. Dabei lernen Modelle das Normalverhalten eines Systems aus Prozessstarts, Skriptaufrufen, DLL- und Treiber-Ladevorgängen, Netzwerkflüssen, Authentifizierungsvorgängen sowie Cloud-API-Calls usw. und markieren signifikante Abweichungen. Der eigentliche Mehrwert liegt dabei weniger in der Einzelsignaldetektion als in der Korrelation schwacher Signale über mehrere Quellen und Systeme hinweg. Wenn etwa ein unauffälliger Prozessstart auf einem Endpoint zeitlich mit ungewöhnlichen Token-Nutzungen in der Cloud und zu neuen ausgehenden Verbindungen zusammenfällt, entsteht durch die Aggregation ein belastbares Indiz, das keiner der Quellen allein entnommen werden könnte.
Entscheidend ist dabei: KI ersetzt keine regelbasierten Detektionsmechanismen, sondern ergänzt sie. Signaturen und deterministische Detection-Logik liefern robuste, reproduzierbare Treffer; KI erhöht die Sichtbarkeit für neue Varianten und sogenannte „Living-off-the-Land“-Muster, bei denen Angreifer legitime Systemwerkzeuge missbrauchen, um unter dem Radar zu bleiben.
Um False Positives zu minimieren und Ergebnisse auditierbar zu halten, sind verlässliche Baselines und Nachvollziehbarkeit unabdingbar. Konkret geht es um die Fragestellung wie wurde ein Alert ausgelöst, welche Indicators of Compromise (IOC) lagen dem zugrunde und lässt sich das Ergebnis reporduzieren?
In der Praxis entfaltet KI ihr volles Potential am besten dann, wenn sie als Scoring- und Korrelationsebene arbeitet, deren Ausgaben anschließend durch regelbasierte Analytik, strukturierte Queries und Playbooks verifiziert werden und nicht als alleinige Entscheidungsinstanz agiert.