Auf einen Blick
- ✓Ein JTL-Shop mit mehreren Tausend Produkten war bei Google mit genau einer Seite indexiert — obwohl robots.txt und noindex-Tags unauffällig waren.
- ✓Die Ursache: fehlerhafte Sitemap-Einträge mit nicht auflösenden URLs und Weiterleitungsketten — von Google still verworfen, ohne Fehlermeldung in der Search Console.
- ✓Nach Vlarom-Sitemap-Fix stieg die Indexierung innerhalb von 4 Wochen von 1 auf 2.968 Seiten.
Das Problem: Tausende Produkte, eine indexierte Seite
Ein Händler aus dem B-Ware- und Retouren-Handel stellte täglich neue Artikel ein — geprüfte Marken-Retouren, frisch aufbereitet, mit eigenem Shop auf JTL-Basis. Der Betrieb lief, Bestellungen kamen über direkte Kanäle. Aber Google kannte den Shop kaum.
Eine Prüfung in der Google Search Console zeigte das Ausmaß: Von mehreren Tausend Produktseiten war genau eine einzige indexiert. Für einen Shop, der auf organischen Traffic angewiesen ist und täglich neues Sortiment einstellt, ist das ein strukturelles Problem — nicht ein vorübergehendes.
Die Ursache: Stiller Sitemap-Fehler ohne Fehlermeldung
Der erste Verdacht war naheliegend: robots.txt oder noindex-Tags, die den Googlebot blockieren. Beides war unauffällig. Die Ursache lag tiefer.
Die Sitemap des JTL-Shops enthielt fehlerhafte Einträge — URLs, die entweder nicht auflösten oder auf Weiterleitungsketten zeigten. Google verwirft solche Sitemaps still. Keine Fehlermeldung in der Search Console, kein Alarm im Shop-Backend. Der Googlebot crawlte den Shop kaum. Was nicht gecrawlt wird, wird nicht indexiert.
Das Tückische an diesem Fehler: Er ist unsichtbar, solange man nicht gezielt danach sucht. Kein Plugin schlägt Alarm, kein Monitoring-Tool meldet ihn als kritisch. Wer gezielt suchen will: Die Google Search Console zeigt unter „Sitemaps“ den Verarbeitungsstatus — aber nur für eingereichte Sitemaps, nicht für still verworfene.
Das Vorgehen: Sitemap neu aufbauen, Crawl beobachten
Vlarom hat die Sitemap-Konfiguration im JTL-Shop vollständig überprüft. Fehlerhafte URL-Muster wurden identifiziert — Weiterleitungen auf nicht mehr existierende Seiten, doppelte Einträge, URLs mit ungültigen Parametern.
Die bereinigte Sitemap wurde neu aufgebaut und in der Google Search Console eingereicht. Parallel wurde geprüft, ob robots.txt, kanonische Tags oder interne Weiterleitungsstrukturen den Crawl zusätzlich behinderten. Der Crawl-Prozess wurde über mehrere Tage aktiv beobachtet, um sicherzustellen, dass Google die neue Sitemap akzeptiert und abarbeitet.
Das Gesamtprojekt dauerte drei Arbeitstage — davon zwei für Analyse und einen für Umsetzung.
Das Ergebnis: 2.968 Seiten in 4 Wochen
Innerhalb von vier Wochen nach dem Vlarom-Fix stieg die Anzahl indexierter Seiten von 1 auf 2.968. Produktseiten, die jahrelang bei Google unsichtbar waren, tauchten in den Suchergebnissen auf. Die organische Sichtbarkeit des Shops verbesserte sich messbar.
1 indexierte Seite
2.968 indexierte Seiten (4 Wochen nach Fix)
Die Lektion
Die Lektion
Ein Sitemap-Fehler klingt klein. Für einen JTL-Shop mit Tausenden Produkten bedeutet er monatelange Unsichtbarkeit bei Google — ohne dass ein Fehler-Log darauf hinweist. Wer weniger indexierte Seiten hat als Produkte, sollte als erstes die Sitemap prüfen, nicht die Inhalte.
Häufige Fragen zur JTL-Shop Indexierung
Weitere Vlarom-Showcases aus der Praxis:

