Wird KI menschliche Pentester ersetzen?
Es ist mittlerweile gang und gäbe, dass KI bei der Automatisierung von Aufgaben zum Einsatz kommt, und Penetrationstests bilden da keine Ausnahme. Da KI-gesteuerte Tools immer ausgefeilter werden, stellen sich manche die Frage: Könnten diese Systeme den traditionellen menschlichen Penetrationstester gänzlich überflüssig machen? In diesem Blogartikel schauen wir uns die Stärken und Grenzen von KI im Zusammenhang mit offensiver Cybersicherheit an und geben einen Ausblick darauf, welche Rolle die Expertise menschlicher Red Teams in einer zunehmend automatisierten Welt spielen wird.
Wo wird KI bereits für Penetrationstests eingesetzt?
KI spielt bereits eine unterstützende (aber dennoch einflussreiche) Rolle während des gesamten Lifecycle eines Penetrationstests:
- Triage und Priorisierung: Moderne Tools nutzen maschinelles Lernen, um risikoreiche Assets zu priorisieren und potenzielle Cluster von Schwachstellen zu identifizieren. KI-gesteuerte Discovery-Plattformen greifen auf Threat Intelligence-Feeds und frühere Assessments zurück, um Empfehlungen für die wichtigsten Bereiche zu geben. Dies kann hilfreich sein, wenn es darum geht, den manuellen Overhead zu reduzieren.
- Unterstützung bei der Validierung: Es werden bereits Sprachmodelle getestet, um Proof-of-Concept-Exploits oder Fuzzing-Harnesses zu entwerfen. In der Praxis kombinieren Tester die von KI vorgeschlagenen Payloads mit ihrem eigenen Fachwissen. Dies beschleunigt die Exploit-Entwicklungsphase, da ein erster Entwurf erstellt wird, den der Mensch dann verfeinert, anstatt ihn komplett zu ersetzen.
- Simulationen von Phishing und Social Engineering: KI-gestützte Content-Generatoren können hochgradig personalisierte Spear-Phishing-E-Mails und Landingpages in großem Umfang erstellen und dabei auf öffentlich verfügbare Daten für den Kontext zurückgreifen. Während ein erfahrener Social Engineer die Nachrichten weiterhin manuell anpasst, steigert KI die Effizienz bei groß angelegten Red-Team-Übungen erheblich.
- Berichterstellung und Empfehlungen: Nach Abschluss der technischen Arbeit verwenden viele Teams KI, um erste Berichtsentwürfe zu erstellen: Sie fassen die Ergebnisse zusammen, generieren Empfehlungen für Abhilfemaßnahmen und formatieren die Ergebnisse zu ansprechenden Dokumenten. Dadurch können sich erfahrene Tester auf den strategischen Kontext konzentrieren und sicherstellen, dass die Empfehlungen mit der Risikobereitschaft des Kunden übereinstimmen.
Warum ist menschliche Expertise weiterhin unentbehrlich?
Selbst die fortschrittlichsten KI-Tools können die einzigartigen menschlichen Fähigkeiten, die einen Penetrationstest wirklich effektiv machen, nicht ersetzen. Menschliches Fachwissen bleibt in folgenden Bereichen unabdingbar:
- Bestimmung von Modellen und Umfang von Bedrohungen: Definition der wichtigsten Aspekte für ein Unternehmen, z. B. Identifizierung kritischer Assets, Verständnis der Vertrauensgrenzen und Ermittlung wahrscheinlicher Motive von Angreifern. Diese Arbeit erfordert differenzierte Urteile über Risikobereitschaft, regulatorische Vorgaben und Unternehmensprioritäten.
- Kreatives Angriffsdesign: Die Entwicklung neuartiger Exploits gegen komplexe Geschäftslogik, die Verknüpfung unterschiedlicher Schwachstellen und das Improvisieren, wenn sich ein Ziel unerwartet verhält, erfordern „unkonventionelles Denken“ und Fachwissen, das KI noch nicht zuverlässig nachahmen kann.
- Kontextbezogene Interpretation: Um zu bestimmen, welche Ergebnisse wirklich ein wesentliches Risiko darstellen (im Gegensatz zu Problemen mit geringen Auswirkungen), muss man wissen, wie die Systeme eines Unternehmens in der Praxis genutzt werden. Beispielsweise, wie Kontrollmaßnahmen das Risiko mindern und welche realen Folgen ein Exploit haben würde.
- Ethische und rechtliche Beurteilung: Die Entscheidung, wo die Grenze zu ziehen ist, möchten die meisten nicht der KI überlassen. Beispielsweise, welche Taktiken im Rahmen eines bestimmten Auftrags zulässig sind, wie viel Kollateralschaden akzeptabel ist und wie die Koordination mit den internen Rechts-, Compliance- und Datenschutzteams erfolgt.
- Kundenkommunikation und -beratung: Die Arbeit mit Kunden erfordert Einfühlungsvermögen, Überzeugungskraft und den Aufbau von Vertrauen. Menschliche Penetrationstester müssen rohe technische Ergebnisse in klare, umsetzbare Leitlinien übersetzen und die Erwartungen der Stakeholder managen. Dies lässt sich durch persönliche Besprechungen und Workshops viel einfacher bewerkstelligen als über eine KI-Schnittstelle.
- Zero-Day-Entdeckung und -Erforschung: Während KI sehr gut darin ist, bekannte Muster zu scannen, erfordert die Aufdeckung völlig neuer Arten von Schwachstellen oft kreative Experimente, tiefgreifende Protokoll-Reverse-Engineering und die Art von „Aha-Momenten”, die nur durch jahrelange praktische Erfahrung entstehen.
Zusammenfassend lässt sich sagen, dass KI sich hervorragend für umfangreiche Aufgaben wie Scannen, Triage und das Erstellen von Berichten eignet. Menschliche Tester bleiben unverzichtbar für Strategie, Kreativität, Ethik und die nuancierten Urteile, die eine Liste von Ergebnissen in einen priorisierten, kontextbezogenen Sicherheitsfahrplan verwandeln.
Wie wahrscheinlich ist es, dass wir in Zukunft ausschließlich KI-basierte Penetrationstests sehen werden?
Es gibt so einige Gründe, warum Pentest durch „KI im Alleingang“ (ohne jede Beteiligung menschlicher Expertise) in der vorhersehbaren Zukunft noch unwahrscheinlich bleiben:
- Komplexität der „realen“-Umgebungen: Unternehmensnetzwerke sind komplex: Legacy-Systeme, maßgeschneiderte Anwendungen und sich ständig verändernde Cloud-Infrastrukturen verhindern eine einheitliche Automatisierung. KI-Tools sind hervorragend in der Mustererkennung, haben jedoch Schwierigkeiten, wenn die Infrastruktur von den Konfigurationen aus dem Lehrbuch abweicht oder wenn geschäftskritische Arbeitsabläufe auf maßgeschneiderter Logik beruhen.
- Implizites Wissen und fachliche Intuition: Erfahrene Tester greifen auf einen enormen Fundus an implizitem Wissen zurück – beispielsweise subtile Anzeichen für Fehlkonfigurationen, seltsame Verhaltensweisen in undurchsichtigen Protokollen oder sogar verräterische Fingerabdrücke von maßgeschneidertem Code. Diese instinktiven Schlussfolgerungen („Diesen Fehler habe ich schon einmal gesehen, das bedeutet wahrscheinlich …“) lassen sich nur schwer in deterministische Algorithmen übersetzen.
- Ethische, rechtliche und auftragsspezifische Beurteilungen: Jeder Kundenauftrag ist mit individuellen Risikotoleranzen, rechtlichen Beschränkungen und internen politischen Rahmenbedingungen verbunden. Ein KI-Agent kann nicht mit einem CFO über die Regeln für den Auftrag verhandeln, spontan entscheiden, wie viel Kollateralschaden akzeptabel ist, oder eine Situation geschickt entschärfen, wenn ein simulierter Angriff in der Produktion schiefgeht.
- Adaptive Resistenz und Gegenmaßnahmen: Da Verteidiger KI-gesteuerte Erkennungs- und Reaktionsmaßnahmen einsetzen, müssen auch Angreifer (und damit auch Red-Team-Tools) kontinuierlich innovativ sein. Sie müssen Payloads, Verschleierungstechniken und mehrstufige Exploits optimieren. Die menschliche Kreativität bleibt (vorerst) der ultimative Joker in diesem Katz-und-Maus-Spiel, den statische Modelle ohne kontinuierliche, von Experten durchgeführte Nachschulungen nicht replizieren können.
- Beziehungen auf Vertrauensbasis: Kunden bezahlen nicht nur für Schwachstellenlisten, sondern für einen vertrauenswürdigen Partner, der die Ergebnisse in einen Kontext setzt, sich für das Budget einsetzt und die Behebung der Schwachstellen begleitet. Ein KI-„Bericht“ kann zwar die Risiken auflisten, aber er kann nicht mit am Tisch sitzen und den Konsens herstellen, der erforderlich ist, um Prioritäten für die Behebung der Schwachstellen zu setzen oder einen Kulturwandel voranzutreiben.
Was gibt es Neues bei KI gestützten-Penetrationstests für 2025?
- Agentische KI-Plattformen sichern sich Geldgeber: Im April 2025 hat Terra Security eine 7,5 Millionen Dollar schwere Startkapitalrunde, angeführt von SYN Ventures und FXP Ventures, für seine „agentische” KI-native Penetrationstestplattform abgeschlossen. Terras Lösung stimmt Dutzende feingetunter KI-Agenten unter menschlicher Aufsicht miteinander ab, um kontinuierlich tiefgehenden Tests in großem Maßstab zu liefern – wobei sie unterstreichen, dass selbst die neuesten KI-Tools geschaffen wurden, um kompetente Tester zu noch mehr zu befähigen, nicht um sie zu ersetzen (GlobeNewswire).
- Akademische Durchbrüche bei der Vollautomatisierung: Ein arXiv-Papier vom Februar 2025 hat „RapidPen” vorgestellt, einen Prototyp eines LLM-basierten Frameworks, das autonom eine IP-to-Shell-Schwachstelle mit einer Erfolgsrate von 60 Prozent in unter sieben Minuten pro Durchlauf erzielt. Obgleich dies beeindruckend ist, betonen die Autoren, dass dies eine Demonstration einer ausnutzbaren Sicherheitslücke (Proof of concept) bloß experimenteller Natur bleibt. Sie sagen, dass sie noch weit von der Marktreife entfernt und noch immer von eigens zusammengestellten Datenbanken von Exploits und menschlicher Überwachung abhängig ist.
- Die Industrie diskutiert auf der RSAC 2025: Auf der RSA Konferenz 2025 hat Cisco ein Open-Source, 8-Milliarden-Parameter „Foundation AI Security Model” für Verteidigungseinsätze gegen Cyberangriffe enthüllt, während Google Cloud mitgeteilt hat, dass APT (Advanced Persistent Threat)-Gruppen KI für Forschung und Phishing einsetzen (z. B. Gemini). Allerdings sind bisher keine wirklich neuartigen „KI-nativen” Angriffsvektoren aufgetreten. Sprecher auf der Konferenz waren sich einig, dass die verantwortungsvolle Koevolution von KI sowohl in Red-Team- als auch Blue-Team-Einsätzen die nächste Herausforderung sein wird.
Was ist in den nächsten drei bis fünf Jahren von KI-Penetrationstests zu erwarten?
In den nächsten drei bis fünf Jahren werden wir zunehmend autonome Tools sehen, die die „Routinearbeit“ übernehmen, wie automatisierte Erkennung, erste Exploit-Versuche und sogar die Erstellung von Berichtsentwürfen. Allerdings werden alle großen Anbieter und Beratungsunternehmen diese Ergebnisse weiterhin einer manuellen Überprüfung unterziehen. Ein Meilenstein auf dem Weg zu einer „reinen KI“ würde Durchbrüche in den Bereichen Kontextbewusstsein, kontinuierliches selbstüberwachtes Lernen und (vielleicht am wichtigsten) neue Rahmenbedingungen für die Zuweisung von Haftung bei unbeabsichtigten Schäden durch automatisierte Angriffe erfordern.
KI hat die Penetrationstests zweifellos verändert und die Erkundung, Triage und Berichterstellung revolutioniert. Wie wir jedoch gesehen haben, ist es die Kombination aus maschineller Geschwindigkeit und menschlicher Kreativität, die die tiefsten Einblicke, die kreativsten Angriffswege und die differenzierten Empfehlungen liefert, die Ihr Unternehmen benötigt. Anstatt zu fragen „Wird KI uns ersetzen?“, sollten wir uns lieber fragen „Wie können wir KI nutzen, um unser Fachwissen zu erweitern?“
Mit anderen Worten: KI wird zwar das Pen-Test-Toolkit immer weiter neu definieren, aber es ist weitaus wahrscheinlicher, dass sie ihre Rolle als unverzichtbarer Copilot festigen wird, als dass sie den menschlichen Piloten vollständig ersetzen wird.
Profitieren auch Sie von den Vorteilen manueller Penetrationstests in Kombination mit Automatisierung
Die Pen Testing as a Service (PTaaS)-Plattform von Outpost24 kombiniert erstklassige automatisierte Scans mit On-Demand-Zugriff auf erfahrene Pentester. So profitieren Sie von der Geschwindigkeit modernster Tools und der strategischen Beratung erfahrener Penetrationstester. Von der kontinuierlichen Erkennung von Schwachstellen über die schnelle Entwicklung von Proof-of-Concepts bis hin zu umfassenden Berichten – mit PTaaS kann sich Ihr Team auf wertschöpfende Tätigkeiten konzentrieren, während wir die Fleißarbeit übernehmen.
Testen Sie PTaaS von Outpost24 und erleben Sie kontinuierliche, skalierbare Penetrationstests, die auf KI basieren, von Experten überwacht werden und auf Ihr Risikoprofil zugeschnitten sind. Buchen Sie jetzt eine Live-Demo.