LLM-Bereitschafts-Audit
67% der Websites blockieren KI-Crawler versehentlich. Das Audit prüft 12 technische Faktoren.
Was geprüft wird
Crawler-Zugang: Blockiert robots.txt KI-Crawler (GPTBot, ClaudeBot)? Gibt es eine llms.txt? Sind Seiten ohne JavaScript zugänglich?
Inhaltsstruktur: Klare Überschriftenhierarchie? Semantisches HTML? Ausreichend umfassend für Zitierung?
Schema und Metadata: Schema.org vorhanden? Open Graph und Meta-Beschreibung korrekt?
Häufigste Probleme
- robots.txt blockiert KI-Bots
- Fehlendes Schema-Markup
- Keine llms.txt
- Unzureichender Inhalt
Credit-Kosten
3 Credits. Zuerst ausführen, Probleme beheben, dann in teurere Tools investieren.