llms.txt im Faktencheck: SEO für GPT & Co.?
In der SEO-Welt ist llms.txt aktuell das Buzzword schlechthin – eine Art robots.txt für KI-Modelle wie ChatGPT, Claude oder Gemini. Aber was steckt wirklich dahinter? Wer nutzt es bereits? Und ist das Ganze sinnvoll oder heißt das einfach nur: Cloaking 2.0? Ich hab's mir kritisch angeschaut.
Was ist llms.txt?
Die llms.txt
ist eine freiwillige Textdatei im Root deiner Website. Sie listet in Markdown-Struktur die wichtigsten Inhalte für Sprachmodelle auf – sozusagen: "Hey GPT, hier findest du alles, was du brauchst." Tools wie Yoast oder Mintlify generieren sie inzwischen automatisch.
Die Idee: Sprachmodelle crawlen gezielt nur die besten Seiten – sauber, effizient, schnell. Kein tiefes HTML, kein DOM-Matching, keine semantische Verirrung. Klingt nach Win-Win.
Das Problem: Noch nutzt sie keiner (offiziell)
John Mueller (Google) hat es ziemlich direkt gesagt:
"FWIW no AI system currently uses llms.txt."Auch Claude (Anthropic), GPTBot (OpenAI) oder Gemini (Google) greifen aktuell laut Serverlogs nicht auf die Datei zu. Es gibt Hinweise auf Tests – aber keine öffentliche Bestätigung.
Wer nutzt es trotzdem?
Plattformen wie Mintlify oder useinstructor.com setzen llms.txt als Early-Adopter ein. Mehr als 70 Projekte listen die Datei bereits – meist Tech-Dokus, API-Guides, Developer-Content. Auch Yoast bietet automatische Generierung.
Anthropic soll in internen Dev-Umgebungen bereits mit dem Format experimentieren. Aber: Kein Modell verweist bisher auf Inhalte aus dieser Datei.
Deep Links = neues Cloaking?
Du kannst Deep Links in llms.txt angeben. Das heißt aber auch: Die Sprachmodelle könnten Inhalte verwenden, die über die eigentliche Website-Navigation gar nicht erreichbar sind. Genau hier stellt sich die Frage: Ist das nicht SEO-Cloaking für KI?
Antwort: Nur wenn du andere Inhalte dort bereitstellst, als sie der Nutzer auf deiner Seite findet. Halte Inhalte synchron, keine versteckten Botschäfte, keine verborgenen PDFs. Sonst gibt's ein doppeltes UX-Problem: Nutzer findet nix, LLM zitiert Quatsch.
Warum es trotzdem sinnvoll sein kann
- Die Datei ist einfach zu erstellen (Markdown, automatisierbar)
- Sie liefert strukturierte Zugänge für eventuelle LLM-Agenten
- Sie ist wie ein "vorbereiteter Kontext" für AI
- Wenn morgen GPT oder Claude sie nutzen: Du bist dabei
Was du beachten solltest
- Keine Inhalte doppelt oder manipulativ anders bereitstellen
- Verlinkungen müssen auf die "echten" Seiten führen
- Header, Navigation, UX: Deep-Links sollten nicht im Dead-End landen
- Logs beobachten: Gibt es schon Zugriffe von GPTBot oder Claude?
Fazit
llms.txt ist aktuell ein Experiment – mit großer Idee, aber ohne echten Impact. Noch nutzt kein großer Bot die Datei offiziell. Aber: Sie ist einfach umzusetzen, birgt kein Risiko und positioniert dich für mögliche AI-Sichtbarkeit der Zukunft.
Meine Empfehlung: Erstellen, sauber halten, Logs beobachten. Wenn morgen Claude mitliest, bist du ganz vorn dabei. Und wenn nicht? Dann hat’s dich ein paar Zeilen Text gekostet.