Die Indexierung bezeichnet den Vorgang, bei dem Suchmaschinen wie Google eine Seite in ihren Suchindex aufnehmen – also dafür sorgen, dass sie bei passenden Suchanfragen erscheinen kann.

Eine deindexierte Seite hingegen wurde bewusst oder automatisch vom Index ausgeschlossen und ist damit nicht (mehr) über Google & Co. auffindbar.

Typische Wege zur Indexierung:

  • Einreichung der URL in der Google Search Console
  • Aufnahme über interne oder externe Links
  • Crawling durch Sitemap-Dateien


Typische Gründe für Deindexierung:

  • Verwendung des Meta-Tags noindex
  • Sperre über die robots.txt (kein Crawling möglich)
  • Technische Fehler oder mangelnde Qualität
  • Manuelle Maßnahme von Google


Prüfen lässt sich der Indexierungsstatus z. B. über:

  • site:example.com/deine-seite in der Google Suche eingeben
    oder in der URL-Prüfung der Google Search Console.

Warum ist das wichtig?

Nur indexierte Seiten können Rankings aufbauen. Eine fehlerhafte Indexierung bedeutet Sichtbarkeitsverlust. Umgekehrt kann gezielte Deindexierung helfen, irrelevante Seiten aus den Suchergebnissen zu entfernen.

Das Crawl-Budget beschreibt die Ressourcen, die eine Suchmaschine – vor allem Google – für das Crawlen einer bestimmten Website zur Verfügung stellt.

Es setzt sich aus zwei Faktoren zusammen:

  1. Crawl Rate Limit – Wie viele Anfragen Google dem Server „zumutet“
  2. Crawl Demand – Wie relevant oder „wichtig“ Google die Seiten einschätzt

Je größer eine Website ist, desto wichtiger wird das Crawl-Budget: Nicht alle Seiten werden automatisch regelmäßig gecrawlt – vor allem, wenn viele unwichtige oder doppelte Inhalte existieren.

Typische Probleme bei schlechtem Crawl-Budget:

  • Wichtige Seiten werden verspätet oder gar nicht indexiert
  • Ressourcen werden für irrelevante Seiten (z. B. Filter, Duplicate Content) verschwendet
  • SEO-Änderungen greifen verzögert


Maßnahmen zur Optimierung:

  • Saubere URL-Struktur
  • Ausschluss irrelevanter Seiten via robots.txt oder noindex
  • Vermeidung von Duplicate Content
  • Starke interne Verlinkung

Warum ist das wichtig?

Nur was gecrawlt wird, kann auch indexiert und gerankt werden. Ein effizientes Crawl-Budget sorgt dafür, dass Google sich auf die Seiten konzentriert, die wirklich zählen.

Die URL-Struktur beschreibt den Aufbau der Webadressen (URLs) innerhalb einer Website. Eine klare, kurze und sprechende URL ist nicht nur nutzerfreundlich, sondern hilft auch Suchmaschinen, den Inhalt einer Seite besser zu verstehen.

Beispiel für eine gute URL:
https://www.beispielseite.de/produkte/holzplatte-eiche-160×80

Typische Merkmale einer optimierten URL-Struktur:

  • Kurz und präzise
  • Kleinbuchstaben, keine Umlaute oder Sonderzeichen
  • Trennzeichen: Bindestriche statt Unterstriche
  • Keyword enthalten, wenn sinnvoll
  • Verzeichnisstruktur nachvollziehbar (Themen-Hierarchie)

Vermeiden sollte man:

  • kryptische IDs oder Parameter (?id=1234)
  • doppelten oder überflüssigen Pfadaufbau
  • inkonsistente oder wechselnde Formate

Warum ist das wichtig?

Eine gute URL-Struktur verbessert die Klickrate, unterstützt die SEO-Indexierung und macht Inhalte auch ohne Navigation auffindbar. Sie ist ein oft unterschätzter Faktor für Usability und Rankings.

Der hreflang-Tag ist ein HTML-Attribut, das Suchmaschinen mitteilt, für welche Sprache und Region eine bestimmte Seitenversion gedacht ist – und welche alternativen Sprachversionen existieren. Er ist besonders wichtig für mehrsprachige oder international ausgerichtete Websites.

Beispiel:

				
					<link rel="alternate" hreflang="de" href="https://example.com/de/" />
<link rel="alternate" hreflang="en" href="https://example.com/en/" />

				
			

Dadurch erkennt Google:

  • „Diese Seite ist für deutschsprachige Nutzer gedacht.“
  • „Es gibt auch eine passende englische Version.“

Auch Regionen können definiert werden, z. B. de-AT für Österreich oder en-GB für Großbritannien.

Vorteile von hreflang:

  • Vermeidung von Duplicate Content bei ähnlichen Sprachversionen
  • Verbesserte Nutzererfahrung durch passende Sprachzuweisung
  • Bessere Indexierung und Sichtbarkeit im jeweiligen Land

Warum ist das wichtig?

Ohne hreflang zeigt Google unter Umständen die falsche Sprachversion – was zu schlechter Nutzerführung, höheren Absprungraten und Rankingschwächen führen kann. hreflang sorgt für Klarheit in der internationalen SEO.

Der Canonical Tag ist ein HTML-Element, mit dem Website-Betreiber Suchmaschinen mitteilen, welche Version einer Seite als die „originale“ oder bevorzugte gelten soll – vor allem dann, wenn es mehrere inhaltlich ähnliche oder identische Seiten gibt.

Syntax im <head> einer HTML-Seite:

				
					<link rel="canonical" href="https://www.example.com/beispielseite/" />
				
			

Beispiel: Eine Produktseite kann über mehrere URLs erreichbar sein – z. B. durch Filter, UTM-Parameter oder Session-IDs. Der Canonical Tag weist Google an, nur eine Version für das Ranking zu berücksichtigen.

Typische Anwendungsfälle:

  • Vermeidung von Duplicate Content
  • Konsolidierung von Linkjuice auf eine Hauptseite
  • Eindeutige Signale bei Print- oder mobilen Versionen

Warum ist das wichtig?

Ohne Canonical Tags können sich Seiten gegenseitig kannibalisieren oder Google falsche Signale senden. Die korrekte Verwendung sorgt für saubere Indexierung und bessere Kontrolle über die Darstellung in den Suchergebnissen.

Die robots.txt ist eine Textdatei im Root-Verzeichnis einer Website (z. B. example.com/robots.txt) und dient dazu, Suchmaschinen-Crawlern Anweisungen zu geben, welche Seiten oder Verzeichnisse sie crawlen dürfen – oder eben nicht.

Einfaches Beispiel:

				
					User-agent: *
Disallow: /intern/
				
			

→ Diese Anweisung sagt allen Crawlern, dass der Ordner /intern/ nicht gecrawlt werden soll.

Wichtig: Die robots.txt verhindert nicht das Indexieren einer Seite – sie hindert Crawler nur am Besuch. Seiten können dennoch im Index erscheinen, wenn sie z. B. von außen verlinkt werden. Wer Inhalte vollständig aus den Suchergebnissen entfernen will, sollte zusätzlich mit dem Meta-Tag noindex arbeiten.

Warum ist das wichtig?

Die robots.txt steuert das Crawling-Verhalten, schützt sensible Bereiche vor unnötigem Bot-Zugriff und hilft dabei, das Crawl-Budget effizient einzusetzen – besonders bei großen Websites.