1. Indexierung blockiert (robots.txt, noindex, Passwortschutz)
Ein falscher Disallow-Eintrag, versehentlich gesetztes noindex oder ein geschützter Staging-Server, der live ging – das sind Klassiker.
- Symptome: Seiten fehlen im Index, Search Console meldet “Blockiert durch robots.txt” oder “Ausgeschlossen durch ‘noindex’”.
- Beispiel: In der robots.txt steht noch Disallow: / für den Launch-Sprint.
- Lösung: Robots.txt minimal halten, noindex nur gezielt einsetzen, Staging immer per Auth schützen – nie per Disallow allein.
2. Verwirrende oder falsche Canonicals
Canonicals zeigen Suchmaschinen die bevorzugte URL. Fehler führen zu Ranking-Verlusten oder Deindexierung der eigentlich wichtigen Seite.
- Symptome: Falsche Versionen ranken, Filterseiten verdrängen Kategorie-Seiten.
- Beispiel: Produktvarianten setzen Canonical auf Startseite statt auf die Hauptvariante.
- Lösung: Canonicals konsistent zur logischen Haupt-URL; keine widersprüchlichen Signale (Canonical vs. interne Links vs. Sitemaps).
3. JavaScript-Rendering verschluckt Inhalte
Wenn Inhalte erst clientseitig nachgeladen werden, können sie für Crawler verzögert oder gar nicht sichtbar sein.
- Symptome: Im HTML-Quelltext fehlen zentrale Inhalte, nur im Browser sichtbar.
- Beispiel: Blog-Teaser werden via Client-Rendering injiziert – Google sieht leere Seiten.
- Lösung: Server-Side Rendering, Hybrid Rendering oder statische Vor-Renderings; essenzielle Inhalte direkt im initialen HTML ausliefern.
4. Crawl-Fallen durch Parameter und Facetten
Endlose Kombinationen von Sortierungen, Filtern und Tracking-Parametern erzeugen Duplicate Content und verschwenden Crawl-Budget.
- Symptome: Tausende nahezu identische URLs, langsames Auffinden neuer Inhalte.
- Beispiel: ?sort=, ?color=, ?utm= erzeugen viele Indexvarianten.
- Lösung: Saubere Parameter-Strategie: wichtige Facetten indexierbar, unwichtige noindex, interne Links nur auf kanonische Varianten, Parameter per Disallow begrenzen – aber nie wichtige Ressourcen blockieren.
5. Schwache Informationsarchitektur und interne Verlinkung
Suchmaschinen brauchen klare Strukturen. Inhalte, die tief vergraben sind, bekommen wenig Sichtbarkeit.
- Symptome: Wichtige Seiten haben kaum interne Links, Klicktiefe > 3 Ebenen.
- Beispiel: Kampagnenlandings sind nur über UTM-Links erreichbar, nicht intern verlinkt.
- Lösung: Flache Struktur, klare Hub-Seiten, kontextsensitive Verlinkung, Brotkrumen-Navigation und thematische Cluster.
6. Core Web Vitals und Performance-Probleme
Seit 2024 ist INP (Interaction to Next Paint) ein Core Web Vital. Langsame Interaktionen, späte Rendering-Blocks und Layout-Verschiebungen kosten Rankings und Conversion.
- Symptome: Schlechte Werte in PageSpeed Insights, hohe LCP/CLS/INP, mobile Bounce-Rates.
- Beispiel: Hero-Bild unkomprimiert, Fonts blockieren Rendering, zu viele Third-Party-Skripte.
- Lösung: Bildoptimierung (moderne Formate, richtige Dimensionen), kritisches CSS inline, Skripte de-/async, Third-Party minimal, Caching und CDN.
7. Mobile-First-Komplikationen
Indexierung erfolgt mobil. Unterschiede zwischen Desktop und Mobilversionen oder schlechte UX kosten Sichtbarkeit.
- Symptome: Inhalte fehlen mobil, Tap-Ziele zu klein, störende Interstitials.
- Beispiel: Mobile Navigation blendet wichtige Kategorien hinter mehreren Taps aus.
- Lösung: Responsive Design, gleiche Inhalte mobil/desktop, zugängliche Navigation, sinnvolle Lazy-Loading-Strategien.
8. Redirect-Ketten, 404er und Statuscode-Fehler
Fehlerhafte Statuscodes erschweren Crawling und ruinieren Linkjuice.
- Symptome: 302 statt 301 im Dauer-Redirect, lange Ketten, Soft-404.
- Beispiel: http → https → www → trailing slash über drei Hops.
- Lösung: Dauerhafte 301-Weiterleitungen, Ketten auf max. einen Hop reduzieren, kaputte Links reparieren, korrekte 404/410 verwenden.
9. Sitemaps, die nicht helfen
Sitemaps sind kein Index-Garantiebrief, aber ein wichtiges Signal.
- Symptome: Sitemap listet 404/Noindex-URLs, veraltete Einträge, mehrere Sitemaps ohne Index-Datei.
- Beispiel: Produkte in Sitemap, obwohl out of stock und noindex.
- Lösung: Nur indexierbare Kanonicals in die Sitemap, aktualisierte lastmod, große Sites via Sitemap-Index strukturieren, in der Search Console einreichen.
10. Duplikate durch Protokoll/Host/Slash
Gleiche Inhalte unter http/https, mit/ohne www oder mit/ohne Slash sind Duplicate Content.
- Symptome: Mehrere Varianten im Index, Signale splitten sich.
- Beispiel: https://example.com und https://www.example.com beide erreichbar ohne Redirect.
- Lösung: Eine kanonische Host- und Slash-Strategie, siteweite 301, Canonical konsistent, HSTS für HTTPS.
11. Strukturierte Daten fehlerhaft oder unvollständig
Structured Data helfen Maschinen, Inhalte zu verstehen. Fehler führen zu Verlust von Rich Results.
- Symptome: Search Console meldet Fehler/Warnungen, Rich Snippets erscheinen nicht.
- Beispiel: Article-Markup ohne Author/DatePublished, Product ohne Preis/Verfügbarkeit.
- Lösung: Relevante Schemas korrekt einsetzen (z. B. Article, Product, Organization, Breadcrumb), regelmäßig validieren.
12. Internationalisierung (hreflang) inkonsistent
Hreflang-Fehler sind häufig, besonders bei Shops und mehrsprachigen Portalen.
- Symptome: Falsche Länderseiten ranken, Duplicate Content über Sprachversionen.
- Beispiel: de-AT und de-DE ohne wechselseitige Verweise, x-default fehlt.
- Lösung: Wechselseitige hreflang-Tags, korrekte Sprach-/Region-Codes, konsistente Canonicals, Tests mit großen Stichproben.
13. Orphan Pages
Seiten ohne interne Links werden selten gecrawlt und kaum gefunden.
- Symptome: In der Sitemap vorhanden, aber “Seite mit Weiterleitung” oder “entdeckt – derzeit nicht indexiert”.
- Beispiel: Kampagnenseite nur über bezahlte Anzeigen erreichbar.
- Lösung: Jede wichtige Seite mindestens von einer starken Hub-Seite verlinken; automatisch generierte Übersichten nutzen.