Ich gebe es zu: Die Versuchung ist groß. Man sitzt zwischen Meetings, Tickets und der dritten Tasse Kaffee des Tages, braucht schnell ein „sicheres Passwort“ – und denkt: Das lasse ich eben kurz von der KI machen.
Klingt modern, effizient und ein bisschen nach Zukunft. Leider ist es bei Passwörtern eher Zukunft mit eingebauter Sollbruchstelle.
Ein Passwort soll nicht elegant, plausibel oder „ziemlich stark“ wirken. Es soll vor allem unvorhersehbar sein. Und Sprachmodelle wie ChatGPT, Gemini oder Claude sind nicht dafür gebaut, echte Zufälligkeit zu erzeugen.
Sie sind dafür gebaut, das wahrscheinlich nächste Zeichen vorherzusagen.
Für einen guten Text ist das stark. Für ein gutes Passwort ist das ungefähr so hilfreich wie ein Regenschirm aus Knäckebrot.
Auf den ersten Blick wirken solche Kennwörter überzeugend: lang, mit Groß- und Kleinbuchstaben, Zahlen und Sonderzeichen. Genau deshalb fallen viele darauf herein.
Heise berichtet über Sicherheitsforscher, die davor warnen, weil diese Passwörter zwar sicher aussehen, aber dennoch leicht zu knacken sind.
Die aktuelle Untersuchung von Irregular bringt das Problem sehr klar auf den Punkt: LLMs erzeugen Passwörter nicht mit einem kryptografisch sicheren Zufallsverfahren, sondern über Token-Vorhersage.
Das ist das Gegenteil von gleichverteilter, schwer vorhersagbarer Zufälligkeit. Entsprechend fanden die Forscher wiederkehrende Muster, doppelte Ergebnisse und strukturelle Ähnlichkeiten in den erzeugten Passwörtern über verschiedene Modelle hinweg.
Ein starkes Passwort braucht Entropie, also vereinfacht gesagt: Unberechenbarkeit. NIST empfiehlt, zufällig vergebene Secrets mit einem zugelassenen Zufallsbitgenerator zu erzeugen, und betont zugleich, dass bei nutzergewählten Passwörtern eher Länge, Blacklists und nutzerfreundliche Verfahren zählen als starre Komplexitätsregeln. Außerdem verweist NIST ausdrücklich auf die Vorteile von Passwortmanagern.
Genau daran scheitern KI-Tools in diesem Einsatzgebiet. Irregular beschreibt, dass sichere Generatoren auf einem cryptographically secure pseudorandom number generator basieren, während LLMs stattdessen tokenweise Wahrscheinlichkeiten ausgeben.
Anders gesagt: Ein Passwortmanager würfelt. Ein Sprachmodell improvisiert. Und improvisierte Sicherheit ist in etwa so beruhigend wie ein Fallschirm mit „Beta-Version“-Aufkleber.
In der Irregular-Analyse wurden mehrere führende Modelle getestet, darunter GPT-, Claude- und Gemini-Varianten.
Das Ergebnis: Alle lieferten schwache Passwortmuster. Die Forscher beobachteten vorhersagbare Zeichenfolgen, wiederkehrende Strukturen und sogar identische oder nahezu identische Kennwörter in mehreren Durchläufen.
Besonders kritisch ist die Entropie. Irregular erklärt, dass ein Passwort mit nur 20 Bit Entropie grob eine Million Versuche braucht und damit in Sekunden angreifbar sein kann.
Zeitgenössische Berichte über die Untersuchung fassen zusammen, dass vermeintlich starke 16-stellige KI-Passwörter im Test nur etwa 20 bis 27 Bit Entropie erreichten, während echte zufällige 16-Zeichen-Passwörter deutlich höher liegen sollten.
Das ist der Knackpunkt für IT-Entscheider: Ein Passwort kann in einer Passwortprüfung „stark“ aussehen und trotzdem statistisch so gebaut sein, dass Angreifer bevorzugte Muster gezielt ausprobieren können.
Heißt übersetzt: Die Oberfläche sagt „sicher“, die Mathematik sagt „viel Glück“.
Im Unternehmensalltag entsteht Risiko nicht nur dadurch, dass Mitarbeitende privat mal schnell einen Chatbot fragen.
Irregular warnt auch davor, dass Coding Agents und agentische Browser Passwörter teils unsichtbar über das LLM selbst erzeugen – etwa bei Datenbank-Setups, API-Keys oder Testumgebungen. Das kann passieren, ohne dass Entwickler überhaupt merken, dass hier kein sicherer Generator verwendet wurde.
Gerade das ist für Unternehmen gefährlich: Schwache Passwörter landen dann nicht nur im Kopf eines Mitarbeiters, sondern direkt in Skripten, Docker-Compose-Dateien, Konfigurationen oder Demosystemen.
Irregular zeigt konkrete Beispiele, in denen solche LLM-generierten Kennwörter in Code und Setups auftauchen. Die Forscher sehen darin sogar eine neue Angriffsfläche, weil typische Muster eines bestimmten Modells später gezielt ausprobiert werden könnten.
Stell dir vor, jemand im Team sagt: „Erstell mir bitte ein starkes Passwort für den neuen Test-Account.“
Die KI liefert etwas wie Rt7xK9mP2vNqL4wB oder G7$kL9#mQ2&xP4!w.
Das wirkt erstmal beeindruckend. Aber exakt solche Muster tauchten in den Analysen wiederholt auf. Für Menschen sehen sie chaotisch aus; für ein Modell und damit potenziell auch für Angreifer sind sie eben nicht chaotisch genug.
Das macht KI-generierte Passwörter so tückisch: Sie sind nicht plump wie Sommer2026!, sondern täuschend professionell.
Deshalb sind sie ein Management-Thema und nicht nur eine technische Randnotiz. Denn alles, was plausibel falsch ist, rutscht in Organisationen besonders leicht durch.
Die bessere Lösung ist erfreulich unspektakulär: Nutze einen Passwortmanager mit integriertem Generator.
NIST verweist ausdrücklich darauf, dass Passwortmanager die Wahl stärkerer Passwörter fördern, und empfiehlt außerdem Verfahren, die lange Passwörter, Paste-Funktion und Blacklists kompromittierter Werte unterstützen.
Für Unternehmen bedeutet das ganz konkret:
Nicht „jeder wie er mag“, sondern verbindlich über Passwortmanager oder zentral freigegebene Tools mit kryptografisch sicherem Zufall.
In Richtlinien sollte ausdrücklich stehen, dass öffentliche Chatbots nicht zur Generierung von Passwörtern, API-Keys oder Initialzugängen genutzt werden.
Wer KI-Agenten für Setup-, Code- oder DevOps-Aufgaben nutzt, sollte kontrollieren, wie Zugangsdaten erzeugt werden.
Sonst baut man moderne Workflows auf ein Fundament aus statistischem Pappmaché.
Länge, Einzigartigkeit, sichere Erzeugung und MFA beziehungsweise Passkeys sind wichtiger als dekorative Sonderzeichen-Akrobatik.
NIST rät ausdrücklich davon ab, zusätzliche starre Komplexitätsregeln in den Mittelpunkt zu stellen, und setzt stärker auf Blocklisten, sichere Speicherung und Rate Limiting.
KI kann heute enorm viel. Sie kann Texte formulieren, Ideen sortieren, Zusammenhänge erklären und im Alltag produktiv helfen.
Aber sie ist kein Zufallsgenerator. Und bei Passwörtern ist genau das entscheidend. Wer ein LLM ein Passwort „erfinden“ lässt, bekommt oft kein echtes Sicherheitsprodukt, sondern nur eine sehr überzeugende Sicherheitskulisse.
Also merke: Nicht alles, was smart wirkt, ist auch sicher.
Bei Passwörtern heißt das: weniger Magie, mehr Kryptografie.