ROBOTS.TXT GENERATOR

Crawl Control Tool

1 Grundeinstellungen

Optional: Hilft Bots, deine Inhalte schneller zu finden.

2 Spezifische Bots

Neuen Bot hinzufügen

Vorschau: robots.txt
|

Häufige Fragen zu robots.txt

Was ist eine robots.txt?
Die robots.txt ist eine Textdatei im Hauptverzeichnis deiner Website, die Suchmaschinen-Bots Anweisungen gibt. Sie regelt, welche Bereiche der Seite gecrawlt (durchsucht) werden dürfen und welche nicht.

Brauche ich unbedingt eine robots.txt?
Nicht zwingend, aber es ist sehr empfehlenswert. Ohne diese Datei crawlen Bots alles, was sie finden können – auch Admin-Bereiche oder private Dateien. Außerdem hilft der Verweis auf die Sitemap in der robots.txt, dass Google neue Inhalte schneller findet.

Was bedeutet "User-agent: "?
Das Sternchen () ist ein Platzhalter (Wildcard) und steht für "alle Bots". Anweisungen unter diesem Block gelten also für jeden Crawler, es sei denn, es gibt einen spezifischeren Block (z.B. für Googlebot), der diese Regeln überschreibt.