llms.txt im Faktencheck: SEO für GPT & Co.?

In der SEO-Welt ist llms.txt aktuell das Buzzword schlechthin – eine Art robots.txt für KI-Modelle wie ChatGPT, Claude oder Gemini. Aber was steckt wirklich dahinter? Wer nutzt es bereits? Und ist das Ganze sinnvoll oder heißt das einfach nur: Cloaking 2.0? Ich hab's mir kritisch angeschaut.

Was ist llms.txt?

Die llms.txt ist eine freiwillige Textdatei im Root deiner Website. Sie listet in Markdown-Struktur die wichtigsten Inhalte für Sprachmodelle auf – sozusagen: "Hey GPT, hier findest du alles, was du brauchst." Tools wie Yoast oder Mintlify generieren sie inzwischen automatisch.

Die Idee: Sprachmodelle crawlen gezielt nur die besten Seiten – sauber, effizient, schnell. Kein tiefes HTML, kein DOM-Matching, keine semantische Verirrung. Klingt nach Win-Win.

Das Problem: Noch nutzt sie keiner (offiziell)

John Mueller (Google) hat es ziemlich direkt gesagt:

"FWIW no AI system currently uses llms.txt."
Auch Claude (Anthropic), GPTBot (OpenAI) oder Gemini (Google) greifen aktuell laut Serverlogs nicht auf die Datei zu. Es gibt Hinweise auf Tests – aber keine öffentliche Bestätigung.

Wer nutzt es trotzdem?

Plattformen wie Mintlify oder useinstructor.com setzen llms.txt als Early-Adopter ein. Mehr als 70 Projekte listen die Datei bereits – meist Tech-Dokus, API-Guides, Developer-Content. Auch Yoast bietet automatische Generierung.

Anthropic soll in internen Dev-Umgebungen bereits mit dem Format experimentieren. Aber: Kein Modell verweist bisher auf Inhalte aus dieser Datei.

Deep Links = neues Cloaking?

Du kannst Deep Links in llms.txt angeben. Das heißt aber auch: Die Sprachmodelle könnten Inhalte verwenden, die über die eigentliche Website-Navigation gar nicht erreichbar sind. Genau hier stellt sich die Frage: Ist das nicht SEO-Cloaking für KI?

Antwort: Nur wenn du andere Inhalte dort bereitstellst, als sie der Nutzer auf deiner Seite findet. Halte Inhalte synchron, keine versteckten Botschäfte, keine verborgenen PDFs. Sonst gibt's ein doppeltes UX-Problem: Nutzer findet nix, LLM zitiert Quatsch.

Warum es trotzdem sinnvoll sein kann

  • Die Datei ist einfach zu erstellen (Markdown, automatisierbar)
  • Sie liefert strukturierte Zugänge für eventuelle LLM-Agenten
  • Sie ist wie ein "vorbereiteter Kontext" für AI
  • Wenn morgen GPT oder Claude sie nutzen: Du bist dabei

Was du beachten solltest

  • Keine Inhalte doppelt oder manipulativ anders bereitstellen
  • Verlinkungen müssen auf die "echten" Seiten führen
  • Header, Navigation, UX: Deep-Links sollten nicht im Dead-End landen
  • Logs beobachten: Gibt es schon Zugriffe von GPTBot oder Claude?

Fazit

llms.txt ist aktuell ein Experiment – mit großer Idee, aber ohne echten Impact. Noch nutzt kein großer Bot die Datei offiziell. Aber: Sie ist einfach umzusetzen, birgt kein Risiko und positioniert dich für mögliche AI-Sichtbarkeit der Zukunft.

Meine Empfehlung: Erstellen, sauber halten, Logs beobachten. Wenn morgen Claude mitliest, bist du ganz vorn dabei. Und wenn nicht? Dann hat’s dich ein paar Zeilen Text gekostet.

💬 Chat öffnen
🧠 Support-Chat