Als ich zögerlich die ersten KI-Tools in meinem Alltag genutzt habe, war mein erster Gedanke „hui, praktisch“: Texte zusammenfassen, Ideen generieren, Brainstormings beschleunigen – nett.

Inzwischen ist jedoch klar: Was für Unternehmen Produktivität bringt, funktioniert bei Angreifern genauso gut. Es wird vielleicht nicht jeder x-beliebige Betrüger zum filmreifen Superhacker – aber KI macht Angriffe einfacher, billiger und schneller.

Der wichtigste Punkt: KI macht Angriffe skalierbar

Wenn über KI und Cyberkriminalität gesprochen wird, klingt das schnell nach Science-Fiction. In der Praxis ist die Entwicklung recht unspektakulär: KI macht bekannte Angriffsmuster effizienter:

  • bessere Recherche

  • überzeugendere Phishing-Nachrichten

  • schnelleres Basteln von Schadcode

  • flottere Auswertung gestohlener Daten.

Das britische NCSC formuliert: KI werde Cyberangriffe bis 2027 mit hoher Wahrscheinlichkeit effektiver und effizienter machen und so Häufigkeit und Intensität von Bedrohungen erhöhen. Zugleich erwartet die Behörde eher eine Weiterentwicklung bestehender Taktiken als völlig neue Zauberkunststücke. 

Für IT-Entscheider ist das eine wichtige Einordnung. Die größte Gefahr ist nicht, dass morgen ein autonomer KI-Bösewicht im schwarzen Hoodie aus dem Drucker krabbelt.

Die größere Gefahr ist, dass sich die Wirtschaftlichkeit von Angriffen verändert. Wenn Kriminelle mit weniger Know-how mehr überzeugende Angriffe starten können, steigt die Masse. Und wenn die Masse steigt, steigt statistisch auch die Chance, dass irgendjemand klickt, etwas freigibt oder einen Anhang öffnet, der besser ungeöffnet bleiben sollte.

Phishing wird nicht genialer – aber glaubwürdiger

Besonders deutlich sieht man das beim Phishing. KI-Tools können öffentlich verfügbare Informationen über Unternehmen, Mitarbeitende, Rollen und Prozesse sehr schnell zusammentragen.

Daraus entstehen deutlich glaubwürdigere Nachrichten: sprachlich sauber, passend zur Branche, personalisiert und oft in genau dem Ton, den das Opfer aus dem Arbeitsalltag kennt. Microsoft beschreibt, dass KI-Tools das Web nach Unternehmensinformationen durchsuchen, detaillierte Zielprofile erstellen und damit Social-Engineering-Köder auf einem neuen Niveau ermöglichen.

Das bedeutet konkret: Die klassische schlecht übersetzte „Hallo lieber Kunde, bitte klicken Sie hier“-Mail wird nicht verschwinden, bekommt aber Gesellschaft von deutlich raffinierteren Varianten.

Statt offensichtlicher Tippfehler kommen Mails, die wie eine plausible Rückfrage vom Dienstleister wirken. Statt generischem Text kommt eine Nachricht, die auf ein echtes Projekt, einen Lieferanten oder einen internen Termin Bezug nimmt.

Und wenn dann noch eine geklonte Stimme am Telefon freundlich nachhilft, wird aus einer mittelmäßigen Masche plötzlich ein überzeugendes Theaterstück. Leider ohne Pause und mit dir als unfreiwilligem Hauptdarsteller.

Auch Schadcode profitiert von KI

Noch spannender – und aus technischer Sicht unbequemer – ist der Blick auf Malware und Angriffswerkzeuge. Check Point Research beschreibt in seiner Analyse vom März 2026, dass KI-gestützte Malware-Entwicklung einen neuen Reifegrad erreicht habe.

Als Beispiel nennen die Forschenden „VoidLink“, ein umfangreiches Linux-Malware-Framework, das laut ihrer Darstellung von einem einzelnen Entwickler mit Hilfe einer KI-gestützten Entwicklungsumgebung in sehr kurzer Zeit erstellt wurde.

Entscheidend ist hier weniger der einzelne Fall als die Botschaft dahinter: KI hilft nicht nur beim Formulieren hübscher Texte, sondern zunehmend auch beim Strukturieren, Beschleunigen und Automatisieren von Entwicklungsarbeit.

Gleichzeitig lohnt sich eine nüchterne Einordnung. Das NCSC erwartet bis 2027 keine vollständig automatisierten End-to-End-Angriffe als Standard. Fachkundige Angreifer werden also weiterhin gebraucht. KI ersetzt den Menschen auf Angreiferseite nicht vollständig – sie verstärkt ihn.

Anders gesagt: Die gefährlichsten Täter bekommen bessere Werkzeuge in die Hand. Und die weniger talentierten Täter rücken ein Stück näher an ein professionelleres Niveau heran.

Kriminelle arbeiten längst daran, Schutzmechanismen zu umgehen

Angreifer nutzen KI nicht nur „normal“, sondern versuchen aktiv, Schutzmechanismen von KI-Diensten zu umgehen. Microsoft hat Anfang 2025 öffentlich gemacht, gegen ein Netzwerk vorzugehen, das nach Unternehmensangaben gestohlene Zugangsdaten nutzte, Schutzplanken generativer KI-Dienste umging und den Zugang zu manipulierten Diensten an weitere böswillige Akteure weiterverkaufte.

Das zeigt: Cyberkriminelle interessieren sich nicht nur für KI als nettes Hilfsmittel, sondern auch für Wege, KI-Systeme selbst zu missbrauchen und aus kommerziellen Diensten eine kriminelle Infrastruktur zu machen.

Für Unternehmen ist das relevant, weil damit zwei Risiken parallel wachsen. Erstens nutzen Angreifer KI, um klassische Attacken besser zu fahren. Zweitens versuchen sie, KI-Plattformen selbst zu kompromittieren, zu manipulieren oder für schädliche Zwecke umzubauen.

Wer also nur auf „böse Prompts“ schaut, denkt zu klein. Die eigentliche Frage ist größer: Wie verhindere ich, dass KI in meinem Unternehmen unkontrolliert genutzt, falsch integriert oder über unsichere Schnittstellen zum neuen Einfallstor wird? 

Das Thema ist inzwischen Chefsache – und Architekturthema

Die Debatte  verschiebt sich: weg von der reinen Tool-Frage, hin zur Architekturfrage. Check Point positioniert AI Security in seinem April-Event 2026 ausdrücklich als „architectural priority“.

Auch rund um die RSAC 2026 drehte sich vieles darum, wie AI Agents, Laufzeitumgebungen, Modellzugriffe und Schnittstellen abgesichert werden können. Mehrere große Anbieter haben dort neue Funktionen für die Absicherung von AI Agents, Agent-Runtimes, Shadow AI und zugehörigen Policies vorgestellt. 

SiliconANGLE zitiert IBM sinngemäß mit: Bekannte Sicherheitsprinzipien gelten weiter, nur eben in einem Umfeld, das sich deutlich schneller bewegt. 

Die Botschaft dahinter gefällt mir, weil sie angenehm unaufgeregt ist: nicht in Panik verfallen, aber zügig handeln. 

Was bedeutet das für dich als IT-Entscheider?

Erstens: KI-Bedrohungen sind Managementthema. Wenn Angriffe günstiger skalieren, betrifft das nicht nur die Security-Abteilung, sondern Prozesse, Freigaben, Schulungen, Lieferketten und Identitäten.

Besonders gefährlich wird es dort, wo Technik und Vertrauen zusammenkommen: Rechnungen, Zahlungsfreigaben, Helpdesk-Prozesse, Passwort-Resets, externe Dienstleister, Bewerbungen oder CEO-Fraud. KI macht genau diese Vertrauensangriffe überzeugender. 

Zweitens: Der größte Fehler wäre, in Extreme zu verfallen. Weder „alles verbieten“ noch „wird schon gutgehen“ ist eine kluge Strategie. Das NCSC weist ausdrücklich darauf hin, dass Organisationen KI sicher einführen und gleichzeitig ihre klassischen Schutzmaßnahmen sauber halten sollen.

Drei Beispiele, die du auf dem Schirm haben solltest

  1. Personalisiertes Phishing: Eine KI erstellt aus frei verfügbaren Informationen eine Mail, die aussieht wie die legitime Rückfrage eines Partners – passend zu Rolle, Branche und Sprachstil.

  2. Voice Fraud: Ein Anruf klingt vertraut, dringlich und erstaunlich glaubwürdig, weil Stimme und Tonfall synthetisch nachgebildet werden.

  3. KI-gestützte Malware-Entwicklung: Nicht der vollständige Angriff läuft autonom, aber Teile von Code, Skripten, Tarnmechanismen oder Infrastruktur werden erheblich schneller erzeugt und angepasst.

Das Tückische daran: Keines dieser Beispiele ist für sich genommen völlig neu. Neu ist die Kombination aus Tempo, Qualität und Skalierung.

Cyberkriminelle brauchen nicht zwingend mehr Genialität. Es reicht, wenn sie mehr Durchsatz bekommen. Und ganz ehrlich: Für Verteidiger ist schon das anstrengend genug.

Was jetzt zu tun ist

Unser Rat: Betrachte KI nicht nur als Produktivitätsprojekt, sondern immer auch als Sicherheitsprojekt.

  • Definiere, welche KI-Tools überhaupt genutzt werden dürfen.

  • Schaffe Transparenz über Schatten-KI.

  • Härte Identitäten und Freigabeprozesse.

  • Trainiere Teams gezielt auf moderne Social-Engineering-Muster, nicht nur auf die Phishing-Klassiker von gestern.

  • Und prüfe, wo KI-Agenten, Modellzugriffe, Plugins, Datenquellen oder Automationen neue Angriffsflächen schaffen könnten.

Die Branche bewegt sich genau in diese Richtung: weg von Einzelmaßnahmen, hin zu durchdachter Governance und integrierter Absicherung.

Was du mitnehmen solltest

KI ist kein Cyber-Schurke mit Laseraugen. Sie ist ein Verstärker. Für Unternehmen bedeutet das, dass dieselbe Technologie, die intern Effizienz bringt, extern Angriffe professionalisieren kann.

Wer das früh versteht, handelt klüger: nicht panisch, aber konsequent. Denn die wichtigste Frage ist nicht mehr, ob Cyberkriminelle KI nutzen – sondern wie gut du darauf vorbereitet bist.

Beate Böker
Beitrag von Beate Böker
08.04.26 08:15