Sitemaps sind Übersichten über die Seitenstruktur einer Website – aber es gibt zwei grundlegend verschiedene Typen, die unterschiedliche Zwecke erfüllen:

  1. Sitemap.xml
    • Für Suchmaschinen
    • Technisches Format (meist automatisch generiert)
    • Enthält alle wichtigen URLs inkl. optionalem Änderungsdatum, Priorität, Frequenz
    • Wird in der Regel unter /sitemap.xml abgelegt und in der Google Search Console eingereicht
    • Unterstützt Google beim effizienten Crawlen und Indexieren der Website
  2. HTML-Sitemap
    • Für Nutzer gedacht
    • Eine verlinkte Seite, die alle wichtigen Seiten strukturiert auflistet
    • Hilft bei der Navigation, besonders bei umfangreichen oder schlecht durchsuchbaren Seiten
    • Kann Suchmaschinen zusätzlich bei der internen Verlinkung unterstützen

Was ist besser?
→ Beide Sitemaps erfüllen unterschiedliche Aufgaben. Eine Sitemap.xml ist für SEO Pflicht, eine HTML-Sitemap ist optional, aber empfehlenswert – vor allem bei großen oder komplexen Websites.

Warum ist das wichtig?

Die Kombination aus technischer und nutzerfreundlicher Sitemap verbessert sowohl die Indexierbarkeit als auch die Nutzerführung – und stärkt damit das SEO-Fundament der Seite.

Die facettierte Navigation (oder auch facetted Search) ist eine Art der Filterfunktion, die vor allem in Onlineshops und großen Inhaltsportalen zum Einsatz kommt. Nutzer können Inhalte anhand mehrerer Merkmale eingrenzen – z. B. nach Farbe, Größe, Preis oder Kategorie.

Beispiel:
Kategorie: Esstische → Filter: Holzart: Eiche, Länge: 180 cm, Farbe: Weiß

SEO-Herausforderung:
Jede Filterkombination kann theoretisch eine neue URL erzeugen – etwa:
/esstische?holzart=eiche&laenge=180&farbe=weiss
→ Das führt schnell zu Tausenden Varianten mit ähnlichen oder doppelten Inhalten.

Typische SEO-Probleme bei facettierter Navigation:

  • Duplicate Content
  • Crawl-Budget-Verschwendung
  • Unnötige Indexierung irrelevanter Seiten

SEO-Strategien für facettierte Navigation:

  • Nicht relevante Kombinationen per robots.txt oder noindex ausschließen
  • Wichtige Filterkombinationen als Landingpages mit eigener SEO-Optimierung nutzen
  • Canonical Tags und strukturierte URLs gezielt einsetzen
  • URL-Parameter gezielt in der Google Search Console verwalten

Warum ist das wichtig?

Facettierte Navigation ist nützlich für Nutzer – kann aber ohne technische Kontrolle die SEO-Effektivität massiv gefährden. Wer sie richtig einsetzt, verbindet UX und SEO optimal.

Eine Redirect Chain entsteht, wenn eine URL nicht direkt, sondern über mehrere Weiterleitungsschritte zur Zielseite führt. Das verlangsamt die Ladezeit, verschlechtert die Nutzererfahrung und kann sich negativ auf das SEO-Ranking auswirken.

Beispiel einer Redirect-Kette:
/seite-alt → 301 → /seite-mittel → 301 → /seite-neu

Solche Ketten können auftreten durch:

  • Website-Relaunches mit mehreren Umleitungsstufen
  • fehlerhafte automatische Weiterleitungen (z. B. http → www → https)
  • Weiterleitung von Unterseiten auf falsch strukturierte URLs

Probleme bei Redirect Chains:

  • Verzögerte Ladezeiten
  • Verlust von Linkjuice
  • Erschwertes Crawling durch Suchmaschinen
  • Risiko für kaputte Weiterleitungen, wenn eine Zwischenstufe entfernt wird

Lösung:

  • Alle Weiterleitungen regelmäßig mit Tools wie Screaming Frog prüfen
  • Wo möglich, direkte Weiterleitungen setzen (z. B. alt → neu, ohne Zwischenstufen)
  • Weiterleitungsketten vermeiden oder auf maximal eine 301-Weiterleitung begrenzen

Warum ist das wichtig?

Saubere Weiterleitungen sind entscheidend für Nutzerführung, Ladegeschwindigkeit und SEO. Redirect Chains kosten Performance – und damit Rankings.

Die Crawl-Tiefe (auch: Navigationstiefe) bezeichnet, wie viele Klicks eine Seite von der Startseite entfernt ist. Je höher die Tiefe, desto schwieriger wird es für Nutzer und Suchmaschinen, die Seite zu finden und zu bewerten.

Beispiel:
Startseite → Kategorie → Unterkategorie → Produktseite
→ Die Produktseite hätte in diesem Fall die Tiefe 4.

SEO-Grundsatz:
Je flacher die Seitenstruktur, desto besser – insbesondere für häufig besuchte oder umsatzstarke Seiten. Wichtige Seiten sollten mit möglichst wenigen Klicks erreichbar sein.

Negative Auswirkungen hoher Crawl-Tiefe:

  • Schlechtere Indexierung
  • Geringere interne Verlinkung / Linkjuice
  • Weniger Traffic auf tief liegenden Seiten
  • Gefahr der „Crawl-Vergessenheit“ bei großen Websites

Optimierung:

  • Wichtige Seiten intern gezielt verlinken
  • Flache Seitenhierarchien aufbauen
  • Pagination und Filter smart einsetzen
  • HTML-Sitemap nutzen

Warum ist das wichtig?

Google bevorzugt klar strukturierte Websites. Eine geringe Crawl-Tiefe verbessert die Sichtbarkeit, Nutzerführung und das Crawl-Budget – gerade bei großen oder wachstumsstarken Seiten.

Die Server Response Time – auch Time to First Byte (TTFB) genannt – misst die Zeit, die ein Webserver benötigt, um auf eine Anfrage zu reagieren und das erste Byte an den Browser zurückzusenden.

Je schneller der Server antwortet, desto schneller kann die Seite aufgebaut werden – was sich direkt auf die Nutzererfahrung und die Core Web Vitals auswirkt.

Ein guter TTFB-Wert: unter 200 ms
Mögliche Ursachen für eine hohe Server Response Time:

  • Langsame oder überlastete Hosting-Umgebung
  • Komplexe CMS-Prozesse (z. B. WordPress mit vielen Plugins)
  • Unoptimierte Datenbankabfragen
  • Kein Caching aktiv

Optimierungsmaßnahmen:

  • Schnelles Hosting mit SSD und HTTP/2
  • Caching (z. B. mit WP Rocket oder Varnish)
  • Datenbank optimieren
  • Server-Standort möglichst nahe an der Zielgruppe wählen

Warum ist das wichtig?

Die Server Response Time ist ein oft unterschätzter Rankingfaktor. Sie beeinflusst direkt die Ladezeit, die LCP-Metrik der Core Web Vitals und die Zufriedenheit der Nutzer – besonders auf mobilen Geräten.

Ein SSL-Zertifikat (bzw. TLS-Zertifikat) sorgt dafür, dass eine Website über das HTTPS-Protokoll sicher aufgerufen wird. Dabei werden alle Daten zwischen dem Browser und dem Server verschlüsselt übertragen – ein grundlegender Faktor für Sicherheit und Vertrauen im Web.

Eine per HTTPS gesicherte Website erkennt man am Schloss-Symbol in der Adressleiste und an der URL:
https://www.beispielseite.de

Gründe für HTTPS:

  • Schutz sensibler Daten (z. B. bei Formularen, Bestellungen, Logins)
  • Pflicht für Datenschutz-konforme Websites (DSGVO)
  • Vertrauenssignal für Besucher
  • Rankingfaktor bei Google (wenn auch nur leicht gewichtet)
  • Voraussetzung für bestimmte Browserfunktionen (z. B. PWA, Standortzugriff)

Tipp: Moderne Hosting-Anbieter bieten kostenlose SSL-Zertifikate (z. B. via Let’s Encrypt) an – die Einrichtung ist meist automatisiert.

Warum ist das wichtig?

Eine Website ohne HTTPS wirkt veraltet und unsicher – sowohl für Nutzer als auch für Google. HTTPS gehört heute zum technischen Standard jeder professionellen Webpräsenz.

HTTP-Statuscodes sind Rückmeldungen vom Server an den Browser oder Crawler – sie zeigen an, ob eine Seite erfolgreich geladen wurde, dauerhaft umgezogen ist oder nicht mehr existiert.Für SEO sind sie entscheidend, weil sie Crawling, Indexierung und Nutzererfahrung beeinflussen.

Wichtige SEO-relevante Statuscodes:

  • 200 OK
    Alles in Ordnung – Seite erfolgreich geladen.
  • 301 Moved Permanently
    Dauerhafte Weiterleitung. Wichtig für SEO, da Linkjuice (Ranking-Signale) weitergegeben wird.
  • 302 Found / Moved Temporarily
    Temporäre Weiterleitung. Google behandelt 302 inzwischen ähnlich wie 301, sollte aber nur bei tatsächlichen Übergangslösungen genutzt werden.
  • 404 Not Found
    Seite existiert nicht. Einzelne 404er sind unkritisch – zu viele schaden der Nutzererfahrung und können Crawling-Ressourcen verschwenden.
  • 410 Gone
    Seite dauerhaft gelöscht – ein klareres Signal als 404. Google entfernt diese URLs schneller aus dem Index.
  • 500 Internal Server Error
    Serverfehler – kritisch, wenn dauerhaft. Kann dazu führen, dass Seiten aus dem Index fallen.


Warum ist das wichtig?

Statuscodes steuern, wie Suchmaschinen Seiten behandeln. Falsch gesetzte Weiterleitungen, kaputte Links oder unerklärliche Fehler können das Ranking massiv beeinträchtigen.

 

Mobile-First Indexing bedeutet, dass Google primär die mobile Version einer Website für die Indexierung und das Ranking verwendet – nicht mehr die Desktop-Variante. Diese Umstellung gilt inzwischen für alle Websites im Google-Index.

Hintergrund: Die Mehrheit der Nutzer greift über Smartphones auf Websites zu. Google bewertet daher die Inhalte, Struktur und Nutzerfreundlichkeit auf Mobilgeräten als Hauptgrundlage für das Ranking.

Wichtige Punkte beim Mobile-First Indexing:

  • Die mobile Version sollte alle Inhalte enthalten, die für SEO relevant sind
  • Texte, Bilder, strukturierte Daten und interne Verlinkung müssen mobil vollständig verfügbar sein
  • Ladezeit und Mobile Usability sind entscheidend
  • Responsive Design ist klar zu bevorzugen gegenüber separaten m.-Domains

Warum ist das wichtig?

Wer mobil abgespeckte Inhalte zeigt, riskiert Sichtbarkeitsverluste. Google bewertet, was mobil sichtbar ist – daher muss die mobile Version vollständig, schnell und nutzerfreundlich sein.

Pagination (deutsch: „Seitennummerierung“) bezeichnet die Aufteilung von Inhalten auf mehrere Unterseiten – etwa bei Blogarchiven, Kategorieseiten oder Produktlisten in Onlineshops.

Beispiel:

  • /blog/seite/1/
  • /blog/seite/2/
  • /blog/seite/3/ usw.


In der SEO ist Pagination ein sensibles Thema, da sie bei falscher Umsetzung zu Problemen wie Duplicate Content, schlechter Indexierung oder Keyword-Kannibalisierung führen kann.

Best Practices zur Pagination aus SEO-Sicht:

  • Vermeidung von „Endlosschleifen“ in der Navigation
  • Optionale Verwendung von Canonical Tags auf einzelne Seiten oder auf die erste Seite
  • Klarer interner Linkaufbau zu den Folgeseiten

Warum ist das wichtig?

Pagination wirkt sich direkt auf Crawl-Budget, User Experience und Ranking-Chancen aus. Eine saubere Umsetzung sorgt dafür, dass Inhalte auch auf Seite 2, 3 oder 10 nicht an Sichtbarkeit verlieren.

Lazy Loading ist eine Technik, bei der Inhalte – meist Bilder oder Videos – erst dann geladen werden, wenn sie im sichtbaren Bereich der Seite erscheinen. Alles außerhalb des Viewports wird verzögert geladen, sobald der Nutzer dorthin scrollt.

Technisch wird das häufig über das HTML-Attribut loading=“lazy“ umgesetzt:

				
					<img decoding="async" src="bild.jpg" loading="lazy" alt="Beispielbild">

				
			

Vorteile von Lazy Loading:

  • Schnellere Ladezeiten beim ersten Seitenaufruf
  • Geringerer Datenverbrauch, besonders mobil
  • Verbesserung der Core Web Vitals, vor allem LCP

Achtung: Wenn Lazy Loading falsch implementiert ist, kann es Probleme bei der Indexierung durch Suchmaschinen geben – z. B. wenn Inhalte nur per JavaScript nachgeladen werden und nicht crawlbar sind.

Warum ist das wichtig?

Lazy Loading verbessert die Nutzererfahrung und wirkt sich positiv auf SEO aus – insbesondere bei bildlastigen Seiten. Gleichzeitig sollte man sicherstellen, dass wichtige Inhalte für Suchmaschinen sichtbar bleiben.