Rechner Welt

Sitemap-XML-Generator 2026

Stand April 2026
Geprueft von Finanzrechner-Redaktion, Redaktion Tools|Stand: April 2026|Quellen: sitemaps.org – Protocol, Google – Build a Sitemap, Bing – Sitemaps

XML-Sitemap aus URL-Liste erzeugen – mit lastmod, changefreq und Priorität nach Sitemaps-Protokoll.

Fügen Sie alle URLs Ihrer Site (eine pro Zeile) ein und wählen Sie changefreq und Priorität – das Tool erzeugt eine valide sitemap.xml nach dem offiziellen Sitemaps-Protokoll. Datum der letzten Änderung wird automatisch auf das heutige Datum gesetzt. Datei zum Download bereit.

<?xml version="1.0" encoding="UTF-8"?>
<urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9">
  <url>
    <loc>https://example.com/</loc>
    <lastmod>2026-04-24</lastmod>
    <changefreq>monthly</changefreq>
    <priority>0.8</priority>
  </url>
  <url>
    <loc>https://example.com/about</loc>
    <lastmod>2026-04-24</lastmod>
    <changefreq>monthly</changefreq>
    <priority>0.8</priority>
  </url>
  <url>
    <loc>https://example.com/contact</loc>
    <lastmod>2026-04-24</lastmod>
    <changefreq>monthly</changefreq>
    <priority>0.8</priority>
  </url>
</urlset>

So funktioniert der Sitemap-Generator

Der Generator nimmt Ihre URL-Liste entgegen, eine pro Zeile, und kombiniert jede URL mit den Standardwerten für lastmod, changefreq und priority. Heraus kommt ein valides XML-Dokument im Sitemaps-0.9-Format mit korrektem XML-Header, Namespace-Deklaration und URL-Set-Wrapper.

Sonderzeichen in URLs werden XML-escaped (&, <, >), damit das Dokument valide bleibt. Das aktuelle Datum dient als lastmod – für eine genauere Pflege müssten Sie das XML manuell pro Eintrag anpassen oder eine CMS-basierte Sitemap-Lösung nutzen.

Sitemaps-Protokoll

Das Sitemaps-Protokoll 0.9 wurde 2005 gemeinsam von Google, Yahoo und Microsoft entwickelt und ist seither der Standard für XML-Sitemaps. Spezifikation auf sitemaps.org. Erweiterungen für Bilder, Videos und News sind inzwischen ebenfalls etabliert und werden von allen großen Suchmaschinen unterstützt.

Eine einzelne Sitemap darf maximal 50.000 URLs oder 50 MB enthalten. Größere Sites nutzen einen Sitemap-Index, der mehrere Sitemaps zusammenfasst. Gzip-Komprimierung wird unterstützt und reduziert Übertragungsgröße deutlich.

Anwendungsfälle

  • Neue Website: Erste Sitemap einreichen, damit Google die Struktur schneller versteht.
  • Migration: Nach URL-Änderungen alle neuen URLs in Sitemap eintragen.
  • Große Sites: Tausende Produktseiten oder Blog-Artikel sicher zur Indexierung anmelden.
  • Tiefe Strukturen: Inhalte, die nur über mehrere Klicks erreichbar sind, gezielt sichtbar machen.
  • News-Portale: Mit news:news-Erweiterung bei Google News.

Datenschutz: Client-Side

Die XML-Erzeugung läuft komplett im Browser. Es findet kein Upload Ihrer URLs an einen Server statt – auch interne, noch nicht öffentliche URLs können sicher getestet werden. Keine Cookies.

Damit ist die Nutzung DSGVO-konform ohne Zusatzaufwand. Nach dem Download liegt die XML-Datei lokal bei Ihnen und kann nach Wunsch hochgeladen werden.

Typische Fehler

  • Nicht-kanonische URLs: URLs mit Tracking-Parametern oder Filter-Variants verwirren – nur kanonische Versionen aufnehmen.
  • noindex-Seiten in Sitemap: Widersprüchliches Signal – Crawler ignoriert die Sitemap teilweise.
  • 404-Seiten: Tote URLs in der Sitemap senken die Glaubwürdigkeit. Regelmäßig prüfen.
  • Mehr als 50.000 URLs: Sitemap wird abgelehnt. Sitemap-Index nutzen.
  • Nicht in Search Console eingereicht: Google findet sie zwar via robots.txt, aber Search Console liefert detaillierte Fehlerberichte.

Häufige Fragen

Die XML-Sitemap teilt Suchmaschinen alle wichtigen URLs Ihrer Site mit – inklusive Datum der letzten Änderung, Frequenz und Priorität. Google, Bing und Yandex nutzen sie als Hinweis, welche Seiten indexiert werden sollen, besonders bei großen Sites mit tiefen Strukturen oder neuen Inhalten, die noch nicht intern verlinkt sind.
Standardmäßig im Root-Verzeichnis als /sitemap.xml. Trag sie zusätzlich in der robots.txt ein: Sitemap: https://example.com/sitemap.xml. Reicht das nicht, melden Sie sie in der Google Search Console und in den Bing Webmaster Tools an. Bei sehr großen Sites Sitemap-Index nutzen, der mehrere Sitemaps verlinkt (max. 50.000 URLs oder 50 MB pro Sitemap).
changefreq ist eine Hinweis-Frequenz, wie oft sich die Seite ändert (always, hourly, daily, weekly, monthly, yearly, never). priority gibt die Wichtigkeit relativ zu anderen Seiten der eigenen Site an (0.0 bis 1.0, Standard 0.5). Beide werden von Google heute eher ignoriert – lastmod ist das wichtigste Signal.
Maximal 50.000 URLs oder 50 MB unkomprimiert pro Datei. Bei größeren Sites: mehrere Sitemaps und ein Sitemap-Index, der sie auflistet. Auch große Sites wie Amazon nutzen verschachtelte Index-Sitemaps. Gzip-Komprimierung (sitemap.xml.gz) reduziert die Größe deutlich.
Google empfiehlt das Datum der letzten substanziellen Änderung, nicht etwa Bot-Updates oder kosmetische CSS-Änderungen. Format: ISO 8601 (YYYY-MM-DD oder mit Uhrzeit). Falsche/manipulierte Werte (z. B. immer das heutige Datum) werden von Google erkannt und ignoriert – schadet der Glaubwürdigkeit.
Ja, das Sitemap-Protokoll erlaubt Erweiterungen für Bilder (image:image), Videos (video:video) und News (news:news). Bei Foto-Sites, Video-Plattformen und Nachrichten-Portalen verbessert das die Indexierung und ermöglicht Anzeige in spezialisierten Google-Suchergebnissen.
CMS wie WordPress, TYPO3, Strapi und Shopify generieren Sitemaps automatisch via Plugin oder eingebaut. Bei statischen Sites (Next.js, Astro, Hugo) erstellen Build-Scripts die XML beim Deploy. Manuelles Pflegen ist nur bei sehr kleinen Sites praktikabel.
Sitemap-Eintrag ist nur ein Hinweis, keine Indexierungsgarantie. Prüfen Sie: robots.txt blockiert die URL nicht, kein noindex im Meta-Tag, Seite ist erreichbar und liefert 200, interne Verlinkung vorhanden, Inhalt unique. In der Search Console URL inspect nutzen für Detail-Diagnose.
Ja – auch URLs mit Parametern (?id=123) sind erlaubt, sollten aber sparsam genutzt werden. Bei filterbasierten Listen lieber kanonische URLs nutzen und Parameter via Search Console konfigurieren. Sehr große parameter-basierte Mengen verwirren Crawler und sollten via robots.txt eingegrenzt werden.

Alle Tools laufen vollständig im Browser, es werden keine eingegebenen Daten an einen Server übertragen. Ohne Gewähr — keine Rechts-, Steuer- oder Finanzberatung.

Letzte Aktualisierung: April 2026 | Quellen: sitemaps.org – Protocol, Google – Build a Sitemap, Bing – Sitemaps