PAKU Media
StartseiteLeistungenPortfolioÜber unsBlogKontakt
PAKU Media

Kreativagentur aus Bielefeld für Webdesign, Videografie und Social Media — seit 2022.

Partner

Navigation

  • ›Startseite
  • ›Leistungen
  • ›Portfolio
  • ›Über uns
  • ›Branchen
  • ›Blog
  • ›Kontakt

Leistungen

  • ›Webdesign
  • ›Videografie
  • ›Social Media Ads
  • ›App Design
  • ›Lexikon
  • ›Tools

Kontakt

Pamuk und Kuscu GbR

Friedhofstraße 171
33659 Bielefeld

hello@pakumedia.de

0521 98 99 40 99

PAKU.Media

© 2026 PAKU Media. Alle Rechte vorbehalten.

ImpressumDatenschutzAGBLexikonToolsSitemap
Home/Lexikon/Sitemap
Webentwicklung

Sitemap

Zuletzt aktualisiert: 2026-03-29

Eine Sitemap ist eine strukturierte Übersicht aller Seiten einer Website. Sie existiert in zwei grundlegend verschiedenen Formen: als XML-Sitemap für Suchmaschinen-Crawler und als HTML-Sitemap für menschliche Besucher. Im SEO-Kontext meint "Sitemap" fast immer die XML-Variante.

Eine Sitemap ist ein direkter Kommunikationskanal zwischen einer Website und den Crawlern von Google, Bing und anderen Suchmaschinen. Sie beantwortet drei grundlegende Fragen: Welche URLs existieren? Wann wurden sie zuletzt geändert? Wie wichtig sind sie relativ zueinander?

XML-Sitemap vs. HTML-Sitemap: Unterschied und Zweck

XML-Sitemap (für Suchmaschinen)

Die XML-Sitemap ist eine maschinenlesbare Datei im XML-Format, die typischerweise unter /sitemap.xml erreichbar ist. Sie enthält strukturierte Daten, die Suchmaschinen beim Crawlen und Indizieren der Website unterstützen.

Typische XML-Sitemap-Struktur:

<?xml version="1.0" encoding="UTF-8"?>
<urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9">
  <url>
    <loc>https://www.beispiel.de/leistungen/</loc>
    <lastmod>2026-03-15</lastmod>
    <changefreq>monthly</changefreq>
    <priority>0.8</priority>
  </url>
</urlset>

HTML-Sitemap (für Benutzer)

Die HTML-Sitemap ist eine normale Webseite mit einer hierarchischen Linkliste aller wichtigen Seiten. Sie hilft Nutzern, die gewünschte Seite nicht über die Navigation finden. Für SEO hat sie nur indirekte Bedeutung – durch verbesserte interne Verlinkung und Crawlbarkeit.

Vergleich auf einen Blick:

MerkmalXML-SitemapHTML-Sitemap
ZielgruppeSuchmaschinen-CrawlerMenschliche Besucher
FormatXMLHTML
Speicherort/sitemap.xml/sitemap/ oder /uebersicht/
SEO-BedeutungHoch (direkt)Gering (indirekt)
Muss gepflegt werden?Ja, automatisiert idealJa, manuell oder automatisiert

Warum Sitemaps wichtig für SEO sind

Crawling erleichtern

Suchmaschinen entdecken neue Seiten über zwei Wege: interne Links und Sitemaps. Seiten, die schlecht verlinkt sind – zum Beispiel neue Blogbeiträge, tief vernetzte Produktseiten oder sprachversionierte Unterseiten – werden ohne Sitemap möglicherweise nicht oder erst mit erheblicher Verzögerung gefunden.

Indizierungs-Signale senden

Die Sitemap sagt Google nicht nur, welche Seiten existieren, sondern auch, welche Seiten aktuell geändert wurden (lastmod). Das hilft Google, Crawl-Ressourcen effizienter einzusetzen – statt die gesamte Website regelmäßig zu crawlen, konzentriert es sich auf geänderte Inhalte.

Internationale Websites und Hreflang

Mehrsprachige Websites wie pakumedia.de (Deutsch und Englisch) nutzen Sitemaps auch, um Hreflang-Attribute zu kommunizieren – die Signale, welche Sprachversion für welche Region bestimmt ist.

Die vier XML-Sitemap-Attribute im Detail

1. <loc> – Die URL (Pflichtfeld)

Die vollständige, kanonische URL der Seite. Immer mit Protokoll (https://) und konsistent mit der bevorzugten URL-Variante (mit oder ohne Trailing Slash).

2. <lastmod> – Letzte Änderung (empfohlen)

Das Datum der letzten inhaltlichen Änderung im Format YYYY-MM-DD. Wichtig: Nur aktualisieren, wenn tatsächlich relevanter Inhalt geändert wurde. Google ignoriert lastmod-Werte, die offensichtlich automatisiert ohne echte Änderungen gesetzt werden.

3. <changefreq> – Änderungshäufigkeit (optional)

Hinweis auf die erwartete Änderungsfrequenz: always, hourly, daily, weekly, monthly, yearly, never. Google nutzt diesen Wert als Hinweis, nicht als Anweisung, und verlässt sich bei der Crawl-Planung stärker auf lastmod.

4. <priority> – Relative Priorität (optional)

Ein Wert von 0.0 bis 1.0, der die relative Priorität einer URL im Vergleich zu anderen Seiten derselben Website angibt. Standardwert: 0.5. Empfehlung: Startseite 1.0, wichtige Hauptseiten 0.8, reguläre Seiten 0.5–0.6, Archivseiten 0.3.

Sitemap bei Google Search Console einreichen

Die Search Console ist die offizielle Schnittstelle zwischen Website und Google. Das Einreichen einer Sitemap beschleunigt die Indizierung und liefert wertvolle Diagnosedaten.

Schritt-für-Schritt-Anleitung:

  1. Google Search Console öffnen (search.google.com/search-console)
  2. Property auswählen (oder neue Property anlegen)
  3. Im linken Menü: "Sitemaps" aufrufen
  4. Sitemap-URL eingeben (z.B. sitemap.xml oder sitemap_index.xml)
  5. Auf "Senden" klicken
  6. Google verarbeitet die Sitemap – Status erscheint nach wenigen Minuten bis Stunden

Wichtige Metriken in der Search Console:

  • Eingereichte URLs – Wie viele URLs enthält die Sitemap?
  • Indizierte URLs – Wie viele hat Google tatsächlich indexiert?
  • Fehler – Welche URLs konnten nicht gecrawlt werden?

Eine große Lücke zwischen eingereichten und indizierten URLs ist ein SEO-Signal, das untersucht werden sollte.

Sitemap-Typen: Über die Standard-Sitemap hinaus

News Sitemap

Für Nachrichtenwebsites und Publisher, die in Google News erscheinen möchten. Enthält nur Artikel der letzten 48 Stunden und zusätzliche Metadaten (Publikationsdatum, Titel, Sprache).

Video Sitemap

Informiert Google über Videoinhalt auf der Website: Videotitel, Beschreibung, Thumbnail-URL, Video-URL und Dauer. Verbessert die Chancen auf Video-Rich-Results in der Suche und ist für Websites mit eigenem Video-Hosting wichtig (im Gegensatz zu eingebetteten YouTube-Videos).

Image Sitemap

Ermöglicht Google, Bilder zu entdecken, die sonst möglicherweise nicht gecrawlt würden – besonders relevant für JavaScript-geladene Bilder oder Bilder in CSS. Erhöht Chancen auf Sichtbarkeit in der Google Bildersuche.

Sitemap-Typen im Überblick:

TypEinsatzBesonderheiten
Standard-SitemapAlle WebsitesBasis; <loc>, <lastmod>, <changefreq>, <priority>
Video SitemapVideo-PublisherZusatzinfos zu Videos; hilft bei Video-Rich-Results
Image SitemapBildlastige SeitenVerbessert Indexierung von Bildern
News SitemapNachrichtenportaleNur letzte 48h; Google News-Integration
Sitemap IndexGroße WebsitesEnthält Verweise auf mehrere Sub-Sitemaps

Sitemap-Größe und -Aufteilung

Eine einzelne XML-Sitemap darf maximal 50.000 URLs enthalten und 50 MB (unkomprimiert) groß sein. Große Websites mit Zehntausenden von Seiten – E-Commerce-Shops, Nachrichtenportale, Jobbörsen – benötigen mehrere Sitemaps, die über eine Sitemap-Index-Datei zusammengefasst werden.

<?xml version="1.0" encoding="UTF-8"?>
<sitemapindex xmlns="http://www.sitemaps.org/schemas/sitemap/0.9">
  <sitemap>
    <loc>https://www.beispiel.de/sitemap-seiten.xml</loc>
    <lastmod>2026-03-29</lastmod>
  </sitemap>
  <sitemap>
    <loc>https://www.beispiel.de/sitemap-produkte.xml</loc>
    <lastmod>2026-03-29</lastmod>
  </sitemap>
</sitemapindex>

Für WordPress-Websites übernehmen Plugins wie Yoast SEO oder Rank Math die automatische Sitemap-Verwaltung inkl. Index-Dateien.

Sitemap-Generatoren und automatisierte Erstellung

Next.js (App Router)

Für Next.js-Projekte wie pakumedia.de bietet der App Router eine native Sitemap-Generierung. Eine sitemap.ts-Datei im app/-Verzeichnis generiert dynamisch die Sitemap:

// app/sitemap.ts
import { MetadataRoute } from 'next'

export default function sitemap(): MetadataRoute.Sitemap {
  return [
    { url: 'https://pakumedia.de', lastModified: new Date() },
    { url: 'https://pakumedia.de/leistungen', lastModified: new Date() },
  ]
}

WordPress + Yoast SEO

Yoast SEO generiert automatisch eine XML-Sitemap unter /sitemap_index.xml mit getrennten Sitemaps für Seiten, Beiträge, Kategorien und Medien. Granulare Einstellung möglich (welche Post-Typen, welche Taxonomien).

Screaming Frog

Der Screaming Frog SEO Spider kann Websites crawlen und eine Sitemap exportieren – besonders nützlich für Websites ohne automatisierte Lösung oder zur Sitemap-Validierung.

Crawl Budget und Sitemap

Das Crawl Budget bezeichnet die Anzahl der URLs, die Googlebot in einem bestimmten Zeitraum crawlt. Für mittelgroße bis große Websites ist das Crawl Budget ein limitierender Faktor.

Eine saubere Sitemap hilft, das Crawl Budget optimal zu nutzen:

  • Nur wichtige, indizierbare Seiten in der Sitemap
  • Keine Redirect-Ketten zu Sitemap-URLs
  • Aktuelles lastmod-Datum nur bei echten Änderungen

Was NICHT in die Sitemap gehört

Das ist ein oft unterschätzter Punkt. Falsche URLs in der Sitemap verschwenden Crawl Budget und senden verwirrende Signale:

AusschließenBegründung
noindex-SeitenWidersprüchliches Signal; noindex nicht in Sitemap
301/302-WeiterleitungenSitemap soll nur kanonische End-URLs enthalten
Parameter-URLs (z.B. ?sort=asc)Duplicate Content; nur kanonische URL
404-SeitenFehlende Seiten haben keine Sitemap-Berechtigung
Inhalte hinter LoginCrawler können nicht zugreifen
Paginated Pages (Seite 2, 3...)Nur wenn inhaltlich eigenständig; meist ausschließen

Sitemap-Fehler diagnostizieren

Die Search Console zeigt Sitemap-Fehler detailliert. Häufige Fehler und Lösungen:

"URL nicht indiziert: Crawled - currently not indexed" → Google hat die Seite gecrawlt, aber entschieden, sie nicht zu indexieren. Inhalt prüfen: zu kurz, zu ähnlich zu anderen Seiten, wenig Mehrwert?

"Redirect-Fehler" → Sitemap-URL leitet weiter. Sitemap auf Ziel-URL aktualisieren.

"Nicht gefunden (404)" → URL existiert nicht mehr. Aus Sitemap entfernen oder Redirect einrichten.

"Soft 404" → Seite gibt Status 200 zurück, hat aber keinen sinnvollen Inhalt (z.B. leere Suchergebnis-Seite). Inhalt verbessern oder aus Sitemap entfernen.

Sitemap-Best-Practices auf einen Blick

Eine saubere Sitemap-Strategie zusammengefasst:

  1. Automatische Generierung bevorzugen (verhindert veraltete URLs)
  2. Sitemap in der robots.txt angeben: Sitemap: https://domain.de/sitemap.xml
  3. Bei Google Search Console einreichen und regelmäßig auf Fehler prüfen
  4. Nur indizierbare, kanonische URLs aufnehmen
  5. lastmod nur bei echten inhaltlichen Änderungen aktualisieren
  6. Ab 50.000 URLs: Sitemap-Index mit mehreren Sub-Sitemaps
  7. Spezielle Sitemaps für Videos, Bilder oder News-Inhalte
  8. Sitemap und XML-Sitemap als Teil der gesamten SEO-Infrastruktur verstehen
←Zurück zum Lexikon

Projekt anfragen

Fragen zu Sitemap? Wir helfen gerne.

Unser Team berät Sie kostenlos und unverbindlich — direkt aus Bielefeld.

Kontakt aufnehmen→
FAQ's

Häufige Fragen zu Sitemap.

Die wichtigsten Antworten auf einen Blick – kompakt und verständlich.

Weiter lernen

Verwandte Begriffe.

Zum Lexikon →
01Webentwicklung

XML-Sitemap

XML-Sitemap erklärt: Aufbau, Tags, Einreichen bei Google, Sitemap-Index, spezielle Sitemaps und häufige Fehler. Vollständiger Guide mit Beispielen.

Definition lesen→
02Marketing

SEO

Was ist SEO (Suchmaschinenoptimierung)? Vollständige Definition, alle Maßnahmen, Techniken und Tipps für Top-Rankings bei Google 2026.

Definition lesen→
03SEO

Crawling

Crawling einfach erklärt: Wie Suchmaschinen-Crawler funktionieren, Crawl-Budget, robots.txt, Crawl-Fehler und wie interne Verlinkung das Crawling verbessert.

Definition lesen→
04SEO

Indexierung

Was ist Indexierung bei Google? Wie Suchmaschinen Seiten in ihren Index aufnehmen und wie Sie Indexierungsprobleme lösen.

Definition lesen→
05SEO

robots.txt

robots.txt erklärt: Crawler-Direktiven, Crawl-Budget-Steuerung, häufige Fehler und wie Sie Ihre robots.txt mit der Google Search Console testen.

Definition lesen→
06SEO

Technisches SEO

Was ist technisches SEO? Crawling, Indexierung, Page Speed und die technischen Grundlagen für bessere Rankings bei Google.

Definition lesen→