Noindex ist eine Meta-Robots-Direktive, die Suchmaschinen anweist, eine bestimmte Webseite nicht in ihren Suchindex aufzunehmen. Seiten mit noindex-Tag werden von Google gecrawlt und verarbeitet, erscheinen aber nicht in den Suchergebnissen.
Die korrekte Verwendung von noindex ist ein wichtiges Werkzeug im technischen SEO. Sie hilft, den Suchindex sauber zu halten, Crawl Budget zu schonen und Duplicate-Content-Probleme zu vermeiden.
Wann noindex einsetzen
Empfohlene Anwendungsfaelle
| Seitentyp | Grund fuer noindex |
|---|---|
| Interne Suchergebnisse | Thin Content, kein Mehrwert fuer Suchende |
| Tag-/Filter-Seiten | Duplicate Content, Crawl-Budget-Verschwendung |
| Danke-/Bestaetigungsseiten | Kein Suchintent vorhanden |
| Login-/Account-Seiten | Private Inhalte ohne Suchrelevanz |
| Staging-/Test-Umgebungen | Duerfen nicht oeffentlich erscheinen |
| Veraltete Aktionsseiten | Zeitlich begrenzte Angebote nach Ablauf |
| Paginierung (optional) | Ab Seite 2 oft ohne eigenstaendigen Wert |
Wann noindex NICHT verwenden
- Hauptseiten: Startseite, Leistungsseiten, Kontaktseite
- Blog-Artikel: Selbst aeltere Artikel koennen Traffic bringen
- Produktseiten: Jede verkaufsrelevante Seite muss indexiert bleiben
- Seiten mit Backlinks: noindex verschenkt Linkjuice
Implementierungsmethoden
HTML Meta Tag
Die gaengigste Methode -- der noindex-Tag wird im <head> der Seite platziert:
<meta name="robots" content="noindex">
Varianten:
noindex, follow: Nicht indexieren, aber Links verfolgennoindex, nofollow: Nicht indexieren und Links ignorieren
X-Robots-Tag (HTTP Header)
Fuer Nicht-HTML-Inhalte wie PDFs oder Bilder wird der X-Robots-Tag als HTTP-Header gesetzt. Das ist die einzige Moeglichkeit, die Indexierung von Dateien ohne HTML-Head zu steuern.
Google-spezifisch
Statt des generischen robots-Tags koennen Sie googlebot verwenden, um nur Google-spezifische Anweisungen zu geben und andere Suchmaschinen nicht zu beeinflussen.
Noindex vs. Alternativen
| Methode | Wirkung | Wann nutzen |
|---|---|---|
| noindex | Seite wird nicht indexiert | Seite soll nicht in Suchergebnissen erscheinen |
| robots.txt Disallow | Seite wird nicht gecrawlt | Crawl-Budget sparen (Vorsicht: indexiert evtl. trotzdem) |
| Canonical URL | Verweist auf bevorzugte Version | Bei Duplicate Content mit einer Hauptversion |
| 301 Redirect | Leitet dauerhaft weiter | Seite existiert nicht mehr, Nachfolger vorhanden |
| 410 Gone | Signalisiert: Seite ist dauerhaft entfernt | Seite existiert nicht mehr, kein Nachfolger |
Noindex und Crawl Budget
Obwohl noindex-Seiten nicht indexiert werden, werden sie weiterhin gecrawlt. Bei sehr grossen Websites mit Tausenden noindex-Seiten kann das Crawl Budget belasten. In solchen Faellen ist eine Kombination aus noindex (fuer die Indexierung) und einer sauberen internen Verlinkungsstruktur (fuer das Crawling) sinnvoll.
Typische Fehler vermeiden
Fehler 1: Vergessenes noindex nach Relaunch
Der haeufigste und schaedlichste Fehler: Waehrend der Entwicklung werden Seiten auf noindex gesetzt, nach dem Go-Live wird vergessen, die Tags zu entfernen. Ganze Websites verschwinden aus dem Index. Pruefen Sie nach jedem Relaunch systematisch den Indexierungsstatus in der Google Search Console.
Fehler 2: noindex auf Seiten mit wertvollem Linkjuice
Wenn externe Seiten auf eine Ihrer Seiten verlinken und Sie diese auf noindex setzen, geht der Linkjuice verloren. Besser: Eine 301-Weiterleitung auf die passende indexierte Seite einrichten.
Fehler 3: robots.txt und noindex kombinieren
Wenn die robots.txt den Zugriff auf eine Seite blockiert, kann Google den noindex-Tag nicht lesen. Das Ergebnis: Die Seite bleibt moeglicherweise im Index -- genau das Gegenteil der Absicht. Verwenden Sie nie beide Methoden gleichzeitig auf derselben URL.