Der Crawl-Report ist das zentrale Analyse-Dashboard im SEOLizer. Er zeigt Dir alle Auffälligkeiten und technischen Details, die beim letzten Website-Crawl festgestellt wurden – inkl. konkreter Empfehlungen zur Optimierung.
Bei jedem Crawl werden grundlegende Tests auf Ebene der Startseite durchgeführt, u. a.:
Prüfkriterium | Beschreibung / Status |
---|---|
Kompression | Ist GZip oder Deflate für `text/html` aktiviert? |
SSL-Zertifikat | Gültigkeit, Aussteller und korrekte Implementierung des Zertifikats |
HTTP/2-Unterstützung | Wird die Seite über HTTP/2 ausgeliefert? |
Time to First Byte (TTFB) | Antwortzeit des Servers bis zum ersten Byte |
Canonical Domain | Weiterleitungen zwischen http/https und www/naked konsistent eingerichtet? |
Wildcard-Subdomains aktiv | Antworten nicht definierter Subdomains mit 200-OK? |
Content-Caching | Verwendung von Cache-Systemen wie Varnish oder CDN erkennbar? |
robots.txt | Ist die Datei `/robots.txt` vorhanden und korrekt abrufbar? |
Sitemap | Ist eine XML-Sitemap vorhanden und strukturell gültig? |
Im Bereich „Fehlerberichte“ findest Du alle erkannte Schwächen und Probleme – priorisiert nach ihrer Relevanz für die SEO-Performance.
Jede Fehlermeldung wird erklärt, mit Beispielen versehen und oft mit einem konkreten Handlungstipp ergänzt.
In dieser Rubrik findest Du eine vollständige Liste aller beim Crawl erfassten URLs – mit Details wie:
Prüfkriterium | Beschreibung / Status |
---|---|
HTTP-Statuscode | Gibt den HTTP-Antwortstatus der URL zurück (z. B. 200, 301, 404) |
Anzahl eingehender/ausgehender Links | Wie viele Links verweisen auf die URL bzw. von ihr weg? |
Quelle | Wurde die URL über die Sitemap oder durch den Crawler entdeckt? |
Indexierbarkeit | Ist die URL technisch indexierbar (z. B. nicht durch noindex blockiert)? |
robots.txt-/Meta-Robots-Blockaden | Verhindern Regeln in der `robots.txt` oder im `<meta name=„robots“>` die Indexierung? |
Wortanzahl im Main-Content | Zählt die sichtbaren und relevanten Wörter im Hauptinhaltsbereich |
Lesbarkeitswerte (FRI/FRIC) | Analyse der textlichen Lesbarkeit anhand gängiger Indizes (Flesch Reading Index / Content) |
Im Rahmen der technischen Analyse wertet SEOLizer alle gefundenen Dateitypen (z. B. HTML, CSS, JavaScript, Bilder, Fonts) und deren zugehörige HTTP-Header aus – insbesondere die gesetzten Cache-Richtlinien. Dabei liegt der Fokus auf den Direktiven `Cache-Control` und `Expires`, die festlegen, wie lange eine Datei im lokalen Browser-Cache gespeichert bleiben darf.
Ziel dieser Analyse ist es, Inkonsistenzen in der Cache-Konfiguration zu erkennen. Ein häufiges Beispiel: Zwei JavaScript-Dateien mit identischem MIME-Type (`application/javascript`) befinden sich in unterschiedlichen Verzeichnissen – die eine ist auf „1 Stunde“ gecacht, die andere auf „1 Jahr“. Solche Unterschiede können zu unnötigen Ladezeiten, verwirrtem Caching-Verhalten im Browser und ineffizienter Nutzung von Ressourcen führen.
Besonders kritisch ist es, wenn statische Ressourcen wie Logos, Schriften oder Skripte gar nicht gecacht oder unterschiedlich behandelt werden – obwohl sie technisch identisch sind. Das kann auch bei Content Delivery Networks (CDNs) zu vermeidbarem Datenverkehr führen.
SEOLizer identifiziert solche Inkonsistenzen, indem alle gefundenen Dateitypen systematisch analysiert, gruppiert und auf widersprüchliche Cache-Strategien geprüft werden. So lassen sich Optimierungspotenziale zuverlässig erkennen und gezielt beheben.
SEOLizer analysiert alle im Crawl-Prozess gefundenen URL-Parameter und erstellt eine detaillierte Übersicht über deren Vorkommen, Verteilung und potenzielle Konflikte. Dabei werden sowohl GET-Parameter aus URLs als auch Tracking- oder Session-Parameter erfasst und ausgewertet.
Ziel dieser Analyse ist es, Parameter zu identifizieren, die die Indexierung oder Bewertung durch Suchmaschinen negativ beeinflussen können – insbesondere im Hinblick auf Duplicate Content.
Beispielhafte Konflikte:
Die Analyse zeigt für jeden erfassten Parameter:
SEOLizer analysiert die Inhalte einer Seite systematisch nach verschiedenen strukturellen und inhaltlichen Kriterien. Ziel ist es, die Qualität des Haupt-Contents zu bewerten, Schwachstellen zu identifizieren und gezielte Optimierungsvorschläge zu liefern.
Folgende Faktoren fließen in die Bewertung ein:
Prüfkriterium | Beschreibung |
---|---|
Strukturierung des Inhalts | Erkennung klar abgegrenzter Inhaltsbereiche, z. B. Hauptinhalt vs. Navigation oder Footer |
Wortanzahl im Haupt-Content | Analyse der tatsächlichen Textmenge im sichtbaren und relevanten Inhaltsbereich |
H1-Hierarchie | Prüfung auf korrekte und eindeutige Verwendung der Hauptüberschrift (H1) sowie deren Einordnung in die Gesamthierarchie |
Semantische Dichte | Bewertung der inhaltlichen Tiefe und Themenrelevanz anhand der Häufigkeit und Gewichtung bedeutungstragender Begriffe |
Basierend auf diesen Kriterien erhältst Du konkrete Handlungsempfehlungen, z. B.:
SEOLizer analysiert alle auf einer Seite eingebundenen Drittinhalte – dazu zählen unter anderem Inhalte von CDNs, externe JavaScript-Dateien, eingebettete Fonts, externe Bilder sowie iframe-basierte Dienste wie YouTube oder Kartenanbieter.
Für jede eingebundene Ressource wird erfasst:
Analyseaspekt | Beschreibung |
---|---|
Herkunft (Quelle) | Von welcher Domain oder welchem externen Dienst stammt der eingebundene Inhalt? |
Verwendungsort | In welchem technischen Kontext wird die Ressource eingebunden? (z. B. im `<head>`, Inline, über JavaScript, im Footer) |
Art der Einbindung | Wie wird die Ressource eingebunden? Direkt im Quellcode, dynamisch nachgeladen oder über einen Tag-Manager (z. B. Google Tag Manager) |
Sicherheitsaspekte | Prüfung auf Mixed Content, fehlende `integrity`- oder `crossorigin`-Attribute, unsichere Übertragungswege oder veraltete Ressourcen |
Diese Informationen sind entscheidend für:
Anwendungsbereich | Bedeutung / Risiko |
---|---|
DSGVO-Prüfungen | Externe Inhalte können personenbezogene Daten übertragen – z. B. IP-Adressen beim Laden von Google Fonts, YouTube oder externen Trackern |
Ladezeitoptimierung | Zu viele oder ineffizient eingebundene Drittinhalte verlängern Ladezeiten und verzögern den Seitenaufbau (z. B. durch zusätzliche DNS-Lookups oder Render-Blocking) |
Sicherheitsbewertungen | Veraltete oder unsicher eingebundene Skripte (z. B. ohne `integrity`-Attribut oder über HTTP geladen) können Schwachstellen erzeugen und das Vertrauen der Nutzer beeinträchtigen |
Der Crawl-Report ist Dein digitaler Gesundheitscheck für jedes Projekt. Nutze ihn regelmäßig, um Schwachstellen zu identifizieren, technische Fehler zu beheben und die Performance Deiner Website kontinuierlich zu verbessern.