Eine Redirect Chain entsteht, wenn eine URL nicht direkt, sondern über mehrere Weiterleitungsschritte zur Zielseite führt. Das verlangsamt die Ladezeit, verschlechtert die Nutzererfahrung und kann sich negativ auf das SEO-Ranking auswirken.

Beispiel einer Redirect-Kette:
/seite-alt → 301 → /seite-mittel → 301 → /seite-neu

Solche Ketten können auftreten durch:

  • Website-Relaunches mit mehreren Umleitungsstufen
  • fehlerhafte automatische Weiterleitungen (z. B. http → www → https)
  • Weiterleitung von Unterseiten auf falsch strukturierte URLs

Probleme bei Redirect Chains:

  • Verzögerte Ladezeiten
  • Verlust von Linkjuice
  • Erschwertes Crawling durch Suchmaschinen
  • Risiko für kaputte Weiterleitungen, wenn eine Zwischenstufe entfernt wird

Lösung:

  • Alle Weiterleitungen regelmäßig mit Tools wie Screaming Frog prüfen
  • Wo möglich, direkte Weiterleitungen setzen (z. B. alt → neu, ohne Zwischenstufen)
  • Weiterleitungsketten vermeiden oder auf maximal eine 301-Weiterleitung begrenzen

Warum ist das wichtig?

Saubere Weiterleitungen sind entscheidend für Nutzerführung, Ladegeschwindigkeit und SEO. Redirect Chains kosten Performance – und damit Rankings.

Die robots.txt ist eine Textdatei im Root-Verzeichnis einer Website (z. B. example.com/robots.txt) und dient dazu, Suchmaschinen-Crawlern Anweisungen zu geben, welche Seiten oder Verzeichnisse sie crawlen dürfen – oder eben nicht.

Einfaches Beispiel:

				
					User-agent: *
Disallow: /intern/
				
			

→ Diese Anweisung sagt allen Crawlern, dass der Ordner /intern/ nicht gecrawlt werden soll.

Wichtig: Die robots.txt verhindert nicht das Indexieren einer Seite – sie hindert Crawler nur am Besuch. Seiten können dennoch im Index erscheinen, wenn sie z. B. von außen verlinkt werden. Wer Inhalte vollständig aus den Suchergebnissen entfernen will, sollte zusätzlich mit dem Meta-Tag noindex arbeiten.

Warum ist das wichtig?

Die robots.txt steuert das Crawling-Verhalten, schützt sensible Bereiche vor unnötigem Bot-Zugriff und hilft dabei, das Crawl-Budget effizient einzusetzen – besonders bei großen Websites.

Retargeting (auch: Remarketing) ist eine Online-Marketing-Methode, bei der Besucher einer Website nach dem Verlassen der Seite gezielt erneut angesprochen werden – zum Beispiel über Werbeanzeigen auf anderen Websites oder in sozialen Netzwerken.

Technisch funktioniert Retargeting meist über Cookies oder Pixel: Beim Besuch einer Seite wird der Nutzer markiert, und später können auf ihn zugeschnittene Anzeigen ausgespielt werden. So erinnert man ihn an Produkte, Leistungen oder Angebote, die er sich bereits angesehen hat.

Ein klassisches Beispiel: Ein Nutzer schaut sich einen Tisch in einem Online-Shop an, kauft aber nicht. Später sieht er auf einer anderen Website eine Anzeige genau dieses Tisches – das ist Retargeting.

Warum ist das wichtig?

Retargeting hilft dabei, Nutzer mit echtem Interesse zurückzuholen und die Conversion Rate zu steigern. Es gilt als besonders effizient, weil es bereits bekannten Traffic nutzt und gezielt reaktiviert.