Inhaltsverzeichnis

Der Crawl-Report

Der Crawl-Report ist das zentrale Analyse-Dashboard im SEOLizer. Er zeigt Dir alle Auffälligkeiten und technischen Details, die beim letzten Website-Crawl festgestellt wurden – inkl. konkreter Empfehlungen zur Optimierung.

Aufbau eines Crawl Reports

Allgemeines

Bei jedem Crawl werden grundlegende Tests auf Ebene der Startseite durchgeführt, u. a.:

Prüfkriterium Beschreibung / Status
Kompression Ist GZip oder Deflate für `text/html` aktiviert?
SSL-Zertifikat Gültigkeit, Aussteller und korrekte Implementierung des Zertifikats
HTTP/2-Unterstützung Wird die Seite über HTTP/2 ausgeliefert?
Time to First Byte (TTFB) Antwortzeit des Servers bis zum ersten Byte
Canonical Domain Weiterleitungen zwischen http/https und www/naked konsistent eingerichtet?
Wildcard-Subdomains aktiv Antworten nicht definierter Subdomains mit 200-OK?
Content-Caching Verwendung von Cache-Systemen wie Varnish oder CDN erkennbar?
robots.txt Ist die Datei `/robots.txt` vorhanden und korrekt abrufbar?
Sitemap Ist eine XML-Sitemap vorhanden und strukturell gültig?

Fehlerberichte

Im Bereich „Fehlerberichte“ findest Du alle erkannte Schwächen und Probleme – priorisiert nach ihrer Relevanz für die SEO-Performance.

Beispiele für typische Fehlerarten

Jede Fehlermeldung wird erklärt, mit Beispielen versehen und oft mit einem konkreten Handlungstipp ergänzt.

 
Hinweis: Ein einzelner Fehler ist oft kein großes Problem – doch viele kleine Probleme summieren sich. Der SEOLizer hilft Dir, Prioritäten zu setzen und gezielt zu optimieren.

URLs

In dieser Rubrik findest Du eine vollständige Liste aller beim Crawl erfassten URLs – mit Details wie:

Prüfkriterium Beschreibung / Status
HTTP-Statuscode Gibt den HTTP-Antwortstatus der URL zurück (z. B. 200, 301, 404)
Anzahl eingehender/ausgehender Links Wie viele Links verweisen auf die URL bzw. von ihr weg?
Quelle Wurde die URL über die Sitemap oder durch den Crawler entdeckt?
Indexierbarkeit Ist die URL technisch indexierbar (z. B. nicht durch noindex blockiert)?
robots.txt-/Meta-Robots-Blockaden Verhindern Regeln in der `robots.txt` oder im `<meta name=„robots“>` die Indexierung?
Wortanzahl im Main-Content Zählt die sichtbaren und relevanten Wörter im Hauptinhaltsbereich
Lesbarkeitswerte (FRI/FRIC) Analyse der textlichen Lesbarkeit anhand gängiger Indizes (Flesch Reading Index / Content)

Mimetypes & Caching

Im Rahmen der technischen Analyse wertet SEOLizer alle gefundenen Dateitypen (z. B. HTML, CSS, JavaScript, Bilder, Fonts) und deren zugehörige HTTP-Header aus – insbesondere die gesetzten Cache-Richtlinien. Dabei liegt der Fokus auf den Direktiven `Cache-Control` und `Expires`, die festlegen, wie lange eine Datei im lokalen Browser-Cache gespeichert bleiben darf.

Ziel dieser Analyse ist es, Inkonsistenzen in der Cache-Konfiguration zu erkennen. Ein häufiges Beispiel: Zwei JavaScript-Dateien mit identischem MIME-Type (`application/javascript`) befinden sich in unterschiedlichen Verzeichnissen – die eine ist auf „1 Stunde“ gecacht, die andere auf „1 Jahr“. Solche Unterschiede können zu unnötigen Ladezeiten, verwirrtem Caching-Verhalten im Browser und ineffizienter Nutzung von Ressourcen führen.

Besonders kritisch ist es, wenn statische Ressourcen wie Logos, Schriften oder Skripte gar nicht gecacht oder unterschiedlich behandelt werden – obwohl sie technisch identisch sind. Das kann auch bei Content Delivery Networks (CDNs) zu vermeidbarem Datenverkehr führen.

SEOLizer identifiziert solche Inkonsistenzen, indem alle gefundenen Dateitypen systematisch analysiert, gruppiert und auf widersprüchliche Cache-Strategien geprüft werden. So lassen sich Optimierungspotenziale zuverlässig erkennen und gezielt beheben.

 
Typische Fehlerursachen:
  • Unterschiedliche Cache-Einstellungen auf Verzeichnisebene (z. B. durch `.htaccess` oder Serverkonfiguration)
  • CMS-Plugins, die gezielt bestimmte MIME-Types oder Pfade anders behandeln
  • Alte Konfigurationen in CDNs oder Reverse Proxies (z. B. Varnish, Cloudflare)
  • Widersprüchliche Regeln in serverseitigen Rewrite- oder Redirect-Konfigurationen
  • Unterschiedliche MIME-Types für technisch identische Dateitypen durch fehlerhafte Serverkonfiguration (z. B. `.js` als `text/plain`)

URL-Parameter

SEOLizer analysiert alle im Crawl-Prozess gefundenen URL-Parameter und erstellt eine detaillierte Übersicht über deren Vorkommen, Verteilung und potenzielle Konflikte. Dabei werden sowohl GET-Parameter aus URLs als auch Tracking- oder Session-Parameter erfasst und ausgewertet.

Ziel dieser Analyse ist es, Parameter zu identifizieren, die die Indexierung oder Bewertung durch Suchmaschinen negativ beeinflussen können – insbesondere im Hinblick auf Duplicate Content.

Beispielhafte Konflikte:

Die Analyse zeigt für jeden erfassten Parameter:

 
Hinweis: Diese Funktion hilft dabei, unnötige URL-Varianten aufzudecken, die von Suchmaschinen als separate Seiten interpretiert werden könnten – ein häufiger Grund für Duplicate Content. Auf Basis der Analyse lassen sich gezielt Parameter in der `robots.txt`, per Canonical-Tag oder über Parameterbehandlung in der GSC ausschließen.

Content-Analyse

SEOLizer analysiert die Inhalte einer Seite systematisch nach verschiedenen strukturellen und inhaltlichen Kriterien. Ziel ist es, die Qualität des Haupt-Contents zu bewerten, Schwachstellen zu identifizieren und gezielte Optimierungsvorschläge zu liefern.

Folgende Faktoren fließen in die Bewertung ein:

Prüfkriterium Beschreibung
Strukturierung des Inhalts Erkennung klar abgegrenzter Inhaltsbereiche, z. B. Hauptinhalt vs. Navigation oder Footer
Wortanzahl im Haupt-Content Analyse der tatsächlichen Textmenge im sichtbaren und relevanten Inhaltsbereich
H1-Hierarchie Prüfung auf korrekte und eindeutige Verwendung der Hauptüberschrift (H1) sowie deren Einordnung in die Gesamthierarchie
Semantische Dichte Bewertung der inhaltlichen Tiefe und Themenrelevanz anhand der Häufigkeit und Gewichtung bedeutungstragender Begriffe

Basierend auf diesen Kriterien erhältst Du konkrete Handlungsempfehlungen, z. B.:

Externe Inhalte

SEOLizer analysiert alle auf einer Seite eingebundenen Drittinhalte – dazu zählen unter anderem Inhalte von CDNs, externe JavaScript-Dateien, eingebettete Fonts, externe Bilder sowie iframe-basierte Dienste wie YouTube oder Kartenanbieter.

Für jede eingebundene Ressource wird erfasst:

Analyseaspekt Beschreibung
Herkunft (Quelle) Von welcher Domain oder welchem externen Dienst stammt der eingebundene Inhalt?
Verwendungsort In welchem technischen Kontext wird die Ressource eingebunden? (z. B. im `<head>`, Inline, über JavaScript, im Footer)
Art der Einbindung Wie wird die Ressource eingebunden? Direkt im Quellcode, dynamisch nachgeladen oder über einen Tag-Manager (z. B. Google Tag Manager)
Sicherheitsaspekte Prüfung auf Mixed Content, fehlende `integrity`- oder `crossorigin`-Attribute, unsichere Übertragungswege oder veraltete Ressourcen

Diese Informationen sind entscheidend für:

Anwendungsbereich Bedeutung / Risiko
DSGVO-Prüfungen Externe Inhalte können personenbezogene Daten übertragen – z. B. IP-Adressen beim Laden von Google Fonts, YouTube oder externen Trackern
Ladezeitoptimierung Zu viele oder ineffizient eingebundene Drittinhalte verlängern Ladezeiten und verzögern den Seitenaufbau (z. B. durch zusätzliche DNS-Lookups oder Render-Blocking)
Sicherheitsbewertungen Veraltete oder unsicher eingebundene Skripte (z. B. ohne `integrity`-Attribut oder über HTTP geladen) können Schwachstellen erzeugen und das Vertrauen der Nutzer beeinträchtigen

Der Crawl-Report ist Dein digitaler Gesundheitscheck für jedes Projekt. Nutze ihn regelmäßig, um Schwachstellen zu identifizieren, technische Fehler zu beheben und die Performance Deiner Website kontinuierlich zu verbessern.