Erstellen Sie Ihre robots.txt-Datei kostenlos online. Crawler-Regeln für Google, Bing und andere Bots konfigurieren – Download und Copy mit einem Klick.
Schnell-Vorlagen
User-agent: * Allow: /
Suchmaschinen haben begrenzte Ressourcen zum Crawlen. Mit einer robots.txt lenken Sie Crawler auf die wichtigen Seiten und verhindern, dass technische URLs (Parameter, Duplikate) gecrawlt werden.
Bots wie GPTBot, CCBot oder ClaudeBot crawlen Websites zum Trainieren von KI-Modellen. Mit gezielten Disallow-Regeln können Sie verhindern, dass Ihre Inhalte für das Training genutzt werden.
Pfade wie /admin/ oder /wp-admin/ sollten nicht indexiert werden. Die robots.txt verhindert, dass Suchmaschinen diese URLs in den Index aufnehmen.
robots.txt verhindert das Crawlen, noindex verhindert die Indexierung. Wichtig: Eine gecrawlte, aber noindexierte Seite ist sicher. Eine nicht gecrawlte Seite kann trotzdem in den Index aufgenommen werden (z.B. über externe Links).