Neues SEO Tool: Bugs & Feature Request

  • Changelog v1.9.0 - Advanced Onpage Analysis

    Neue Features

    Core Web Vitals / CLS-Risiko-Analyse

    • CLS-Risiko-Score (0-100) pro Seite berechnet aus:
      • Bilder ohne width/height-Attribute
      • iFrames ohne Dimensionen
      • Webfonts ohne font-display: swap
      • Render-blockierende Ressourcen im <head>
    • Erkennung von übermäßigem Inline-JavaScript (>50KB)
    • Erkennung von exzessiven Inline-Styles (>50 style-Attribute)

    Content Quality Score

    • Flesch Reading Ease (Deutsch/Amstad-Formel) pro Seite
    • Text-HTML-Verhältnis Berechnung
    • Satz-Analyse (Anzahl, Durchschnittslänge)
    • Content Quality Score (0-100) basierend auf:
      • Wortanzahl, Lesbarkeit, Text-Ratio
      • Satzvariabilität, Überschriften-Struktur
    • Issues: niedrige Text-Ratio, schlechte Lesbarkeit, überlange Sätze

    JSON-LD / Structured Data Validierung

    • Deep Validation gegen Schema.org Pflichtfelder für 16 Schema-Typen:
      • Article, Product, LocalBusiness, Organization, FAQPage, Recipe, Event, JobPosting, etc.
    • Prüfung empfohlener Felder (image, publisher, etc.)
    • Datumsformat-Validierung (ISO 8601)
    • Offer-Validierung (price, priceCurrency)
    • @context-Prüfung
    • Raw JSON-LD Speicherung für spätere Analyse

    Hreflang-Validierung

    • Self-Referencing Check (Seite muss sich selbst referenzieren)
    • Return-Tag Validierung (Zielseite muss zurückverweisen)
    • Sprachcode-Validierung (ISO 639-1)
    • Canonical-Hreflang-Konflikt-Erkennung

    Canonical-Ketten & -Fehler

    • Canonical-Ketten erkennen (A → B → C)
    • Canonical zeigt auf 404/5xx (Critical)
    • Canonical zeigt auf Redirect (Warning)

    Interne Linkstruktur-Analyse

    • Eingehende interne Links pro Seite gezählt
    • Erkennung von Seiten mit nur einem eingehenden Link (fragile Verlinkung)
    • Quellseite wird bei Single-Link-Issues angezeigt

    Neue Issue-Typen (19 neue Checks)

    Performance/CWV

    • cls_high_risk, iframe_no_dimensions, font_no_swap
    • render_blocking, excessive_inline_js, excessive_inline_css

    Content Quality

    • low_text_ratio, poor_readability, long_sentences

    Hreflang

    • hreflang_missing_self, hreflang_missing_return
    • hreflang_invalid_lang, hreflang_canonical_conflict

    JSON-LD

    • jsonld_missing_required, jsonld_invalid_value, jsonld_no_context

    Canonical

    • canonical_chain, canonical_to_4xx, canonical_to_redirect

    Link Structure

    • single_incoming_link

    Datenbank-Änderungen

    • Migration: v1.9.0

    wenn etwas möglich erscheint mach ich das, wenn das nicht klappt gehts ans unmögliche und ansonsten das undenkbare.

    - nun stolz rauchfrei - Ich denke also Bing ich!

    Support 24h Bereitschaft 0173 6107465 - NUR Für Kunden von SEO NW!

  • Changelog v2.0.0

    Datum: 08.02.2026


    📄 PDF-Reports: mPDF Migration

    • Neue PDF-Engine mit deutlich besserer Ausgabequalität
    • Professionelles Report-Layout mit Gradient-Header und Score-Cards
    • Vollständige UTF-8/Umlaut-Unterstützung (DejaVu Sans)
    • Automatische Logo-Einbettung für Whitelabel-Reports
    • Alle Report-Typen unterstützt: Übersicht, Performance, Keywords, Keyword-Tracking, Seiten, Indexierung, SCI, Komplett
    • Farbcodierte Badges, Info-Boxen und saubere Tabellen
    • Korrekte Darstellung von sc-domain: Properties
    • Fallback auf alternative PDF-Engine falls nötig

    🏷️ Automatisches Whitelabel

    • Whitelabel-Branding aktiviert sich automatisch wenn Agency-Einstellungen vorhanden sind
    • Kein manuelles Aktivieren mehr nötig
    • Betrifft alle Reports: GSC-Reports (PDF + HTML) und Onpage-Crawler-Reports
    • Onpage HTML-Report zeigt Branding-Header mit Logo, Agency-Name und Kontaktdaten
    • Deaktivierung über Subscription-Berechtigung weiterhin möglich

    ⚡ Crawler: Parallele Verarbeitung

    • Bis zu 3 Crawl-Jobs gleichzeitig statt bisher nur 1
    • Kunden blockieren sich nicht mehr gegenseitig bei großen Crawls
    • Intelligente Slot-Koordination verhindert doppelte Verarbeitung
    • Automatische Erkennung und Bereinigung verwaister Prozesse
    • Anzahl paralleler Prozesse serverseitig konfigurierbar

    ⏱️ Crawler: Laufzeit-Anzeige

    • Live-Timer im Fortschritts-Dashboard — tickt jede Sekunde in Echtzeit
    • Format: MM:SS oder HH:MM:SS bei längeren Crawls
    • Bisherige Crawls: Neue "Dauer"-Spalte zeigt exakte Crawl-Dauer (z.B. "2m 34s")
    • Laufende Jobs zeigen aktuelle Laufzeit mit ⏱-Icon
    • Dauer auch in der Gecrawlte-Projekte-Übersicht sichtbar

    📁 Gecrawlte Projekte (Neuer Bereich)

    • Neuer Menüpunkt "Gecrawlte Projekte" unter Onpage
    • Übersicht aller durchgeführten Crawls, nach Domain gruppiert
    • Suchfeld mit Live-Filter für schnelles Finden
    • Pro Projekt: Domain, Score, Speicherverbrauch, Crawl-Anzahl, Dauer, Ablauf-Warnung
    • Schnellzugriff: Report anzeigen, PDF herunterladen, neuen Crawl starten
    • Aufklappbare Historie: Alle älteren Crawls einer Domain mit Einzelzugriff

    📊 Maximale Seiten erweitert

    • Crawler unterstützt jetzt bis zu 150.000 Seiten pro Crawl
    • Neue Stufen: 2.000, 5.000, 10.000, 25.000, 50.000, 100.000, 150.000

    💾 Datenbank-Speicheranzeige

    • Neues Feature: Transparente Anzeige des Speicherverbrauchs
    • Properties-Übersicht: Neue Spalte "Speicher" pro Property mit Tooltip (GSC/Onpage aufgeschlüsselt), Gesamtverbrauch unter der Tabelle
    • Gecrawlte Projekte: Speicher-Badge pro Domain und pro einzelnem Crawl
    • Admin-Bereich: Speicherverbrauch pro Kunde in der Subscription-Übersicht, farbcodiert nach Verbrauch

    🔍 Reports: Suchbare Property-Auswahl

    • Property-Dropdown im Report-Bereich durch suchbares Eingabefeld ersetzt
    • Live-Filter mit Treffer-Hervorhebung
    • Besonders hilfreich bei vielen Properties

    wenn etwas möglich erscheint mach ich das, wenn das nicht klappt gehts ans unmögliche und ansonsten das undenkbare.

    - nun stolz rauchfrei - Ich denke also Bing ich!

    Support 24h Bereitschaft 0173 6107465 - NUR Für Kunden von SEO NW!

  • Search-Console.PRO — Changelog


    Version 1.10.0 — 08. Februar 2026

    🔍 Onpage Crawler: 17 neue Checks + Externe Links Analyse + Pagination

    Umfangreiche Erweiterung des Onpage Crawlers um 17 neue Prüfungen in 6 Kategorien, eine vollständige Analyse aller externen Links mit Statuscode-Prüfung und CSV-Export, sowie seitenweise Darstellung (Pagination) für große Crawls.

    Neue Checks — Schnelle Wins (8)

    • Kein Favicon definiert — Google zeigt Favicons prominent in den Suchergebnissen
    • Kein Charset oder falsches Charset — fehlende oder nicht-UTF-8 Zeichenkodierung
    • HTTP-Links auf HTTPS-Seiten — interne Links die auf http:// statt https:// verweisen (Mixed Content)
    • Defekte Bilder — Bild-URLs die auf 404 oder Fehler zeigen (HEAD-Request Prüfung auf bis zu 50 Bilder)
    • Leere Links — Ankerlinks ohne Text, Bild oder aria-label
    • Title und H1 identisch — wenn Title-Tag und H1 exakt gleich sind, ist das eine vertane Optimierungs-Chance
    • Tracking-Parameter in internen Links — UTM-, GCLID-, FBCLID-Parameter in internen Verlinkungen verschmutzen Crawl-Budget und Analytics
    • Pagination ohne rel-Markup — paginierte Seiten ohne rel="next"/rel="prev"

    Neue Checks — Mittlerer Aufwand (9)

    • Lazy Loading auf Above-the-fold Bildern — loading="lazy" auf den ersten sichtbaren Bildern ist ein LCP-Killer
    • Fehlende Security-Headers — Warnung wenn 3 oder mehr wichtige HTTP-Header fehlen (HSTS, X-Frame-Options, CSP, X-Content-Type-Options, Referrer-Policy, Permissions-Policy)
    • Link-Juice-Senken — Seiten die viele eingehende Links erhalten, aber selbst kaum intern verlinken (PageRank-Sackgassen)
    • Link-Juice-Verteiler ohne Eingang — Seiten die viel intern verlinken, aber selbst kaum verlinkt werden
    • robots.txt blockiert indexierbare Seite — erreichbare, indexierbare Seiten die von der robots.txt ausgesperrt werden
    • Indexierbare Seite nicht in Sitemap — die Seite ist auffindbar und indexierbar, aber nicht in der XML-Sitemap gelistet
    • Nicht-indexierbare Seite in Sitemap — noindex-Seiten oder Fehlerseiten die in der Sitemap stehen
    • Sitemap-Parsing inkl. Sitemap-Index — verschachtelte Sitemaps werden bis zu 2 Ebenen tief aufgelöst (max. 5.000 URLs)
    • Externe Link-Prüfung mit Multi-cURL — parallele HEAD-Requests in Batches für bis zu 500 externe URLs

    Externe Links — Komplett neue Ansicht

    Im Linkstruktur-Tab gibt es jetzt eine vollständige Übersicht aller externen Links:

    • Status-Zusammenfassung: OK, Redirects, 4xx-Fehler, 5xx-Fehler, Timeouts und Gesamtzahl auf einen Blick
    • Filter: „Nur Fehler" (Standard) oder „Alle anzeigen"
    • Sortierte Tabelle mit Status, URL, Anzahl Quellseiten, Nofollow-Kennzeichnung und Anchor-Text
    • Quellseiten aufklappbar — zeigt von welchen internen Seiten der externe Link stammt
    • Pagination bei mehr als 100 externen Links
    • CSV-Export: Alle externen Links mit Status, Status-Typ, Nofollow, Anchor-Text und Quellseite (UTF-8, Semikolon-getrennt für Excel)

    Pagination für große Crawls

    Bei Crawls mit vielen tausend Seiten werden Daten jetzt seitenweise geladen statt komplett:

    • Issue-Details (aufklappbare Tabellen): 50 URLs pro Seite mit Seitenzahlen-Navigation
    • Externe Links: 100 Links pro Seite
    • Bestehendes: Alle-Seiten-Tab war bereits paginiert (50/Seite), Link-Graph begrenzt (300 Nodes), Top/Weak Pages (50 max.)

    Score-Gewichtungen

    Alle 17 neuen Issue-Typen fließen gewichtet in die Gesamt-Scores ein:

    • Kritisch: robots.txt blockiert indexierbare Seite (2.0), Mixed Content Links (1.0), LCP Lazy Loading (1.0)
    • Mittel: Defekte Bilder (0.8), Missing Charset (0.8), Empty Links (0.5), UTM in internen Links (0.5)
    • Info: Favicon (0.2), Security Headers (0.2), Pagination (0.2), Nicht in Sitemap (0.3)

    Detail-Anzeige erweitert

    Für alle neuen Issue-Typen gibt es spezifische Fix-Empfehlungen in den aufklappbaren Details. Neue Detail-Felder: fehlende Header-Liste, Bild-URLs bei defekten Bildern, eingehende/ausgehende Linkzahlen bei Juice-Imbalance, Charset-Info, Grund bei Sitemap-Konflikten.

    Version 1.9.1 — 08. Februar 2026

    🔧 Tab-Styling Fixes

    Inkonsistente CSS-Klassen in mehreren Ansichten bereinigt — Tabs werden jetzt überall einheitlich dargestellt.

    • Tab-Styling in der Agentur-Verwaltung korrigiert (falsche CSS-Klassen)
    • Tab-Styling in der Bulk-Inspection-Ansicht korrigiert
    • Tab-Styling in der Keyword-Übersicht korrigiert
    • Tab-Styling in der Keyword-Detail-Ansicht korrigiert
    • Tippfehler in der Performance-Ansicht behoben (doppeltes >> im Länder-Tab)

    wenn etwas möglich erscheint mach ich das, wenn das nicht klappt gehts ans unmögliche und ansonsten das undenkbare.

    - nun stolz rauchfrei - Ich denke also Bing ich!

    Support 24h Bereitschaft 0173 6107465 - NUR Für Kunden von SEO NW!

  • Search-Console.PRO — Changelog


    Version 1.10.1 — 08. Februar 2026

    🔗 Neuer Tab: 404 / Defekte Ressourcen

    Neuer dedizierter Tab im Onpage Crawler, der alle defekten Ressourcen an einem Ort zusammenfasst — defekte Bilder, kaputte interne Links und fehlerhafte externe Links.

    Übersicht

    • Summary-Leiste mit Zählern: Defekte URLs gesamt, 404 Not Found, 403 Forbidden, 5xx Server-Fehler, Timeout/DNS-Fehler, Anzahl betroffener Seiten
    • Daten werden aus drei Quellen zusammengeführt: defekte Bilder, interne Links und externe Links

    Filter & Sortierung

    • Schnellfilter-Buttons: Alle, Bilder, Links, 404, 403, 5xx
    • Sortierung nach Häufigkeit — Ressourcen die auf den meisten Seiten verlinkt sind, stehen oben
    • Defekte URLs sind klickbar, um den Fehler direkt im Browser zu prüfen

    Aufklappbare Quellseiten

    • Jede defekte Ressource lässt sich aufklappen und zeigt alle Seiten, die darauf verlinken
    • Quellseiten mit Titel und klickbarem Link zur schnellen Korrektur

    CSV-Export

    • Export aller defekten Ressourcen mit Status, Typ (Bild/Link) und Quellseite
    • UTF-8 mit Semikolon-Trennung für Excel-Kompatibilität

    🖼 Verbesserte Bild-Erkennung

    Die Erkennung von Bildern im Crawler wurde grundlegend erweitert, insbesondere für WordPress-Seiten.

    WordPress Lazy Loading Support

    • Bilder mit data-lazy-src, data-src und data-original werden jetzt korrekt erkannt
    • Platzhalter-Bilder (transparente Pixel, blank.gif, spacer) werden automatisch übersprungen und stattdessen die echte Bild-URL aus den data-Attributen verwendet

    Responsive Bilder (srcset)

    • srcset- und data-srcset-Attribute werden vollständig geparst
    • Alle Bild-Varianten (z.B. -768x512.jpg, -1054x659.jpg) werden erfasst und auf Erreichbarkeit geprüft
    • <picture><source>-Tags werden ebenfalls ausgewertet
    • <video poster>-Attribute werden als Bild-Ressource erkannt

    Broken-Image-Check verbessert

    • Bild-URLs werden jetzt dedupliziert — identische Bilder auf 50 Seiten werden nur einmal geprüft statt 50-mal
    • Limit von 50 auf 500 unique Bild-URLs erhöht
    • Multi-cURL mit parallelen HEAD-Requests in 10er-Batches statt sequentieller Einzelprüfung
    • Bei einem defekten Bild wird das Problem auf allen Seiten gemeldet, die es verwenden

    🐛 Bugfix: Defekte Bilder ohne Ziel-URL

    In der aufklappbaren Detail-Ansicht von „Defektes Bild"-Issues wurde die Bild-URL (Spalte „Defekter Link") nicht angezeigt. Ursache: Das Feld hieß intern src statt target. Die Spalte zeigt jetzt korrekt die vollständige Bild-URL als klickbaren Link an.


    📄 Pagination für Issue-Details

    Die aufklappbaren Detail-Tabellen bei allen Issue-Typen zeigen jetzt maximal 50 Einträge pro Seite mit Seitenzahlen-Navigation. Vorher wurden bis zu 500 Einträge auf einmal geladen, was bei großen Crawls zu langen Ladezeiten führte.

    wenn etwas möglich erscheint mach ich das, wenn das nicht klappt gehts ans unmögliche und ansonsten das undenkbare.

    - nun stolz rauchfrei - Ich denke also Bing ich!

    Support 24h Bereitschaft 0173 6107465 - NUR Für Kunden von SEO NW!

  • Changelog v1.10.2

    Datum: 08.02.2026


    🔧 Bugfix: Crawler Seitenlimit

    Das interne Limit für maximale Seiten pro Crawl war auf 1.000 gedeckelt, obwohl die Auswahl im Frontend Optionen bis 150.000 anbot. Crawls brachen daher immer bei 1.000 Seiten ab.

    Fix: Internes Limit auf 150.000 angehoben — Auswahl und tatsächliche Verarbeitung stimmen jetzt überein.


    🔍 URL Inspection: Vollständige Google-Daten

    Neue Datenfelder

    Die URL Inspection API liefert deutlich mehr Daten als bisher gespeichert wurden. Folgende Felder werden jetzt vollständig erfasst:

    FeldBeschreibung
    Crawl-AgentMobile oder Desktop
    Fetch-StatusSuccessful, Soft 404, Blocked, etc.
    Google CanonicalVon Google gewählte Canonical-URL
    User CanonicalVom Seitenbetreiber gesetzte Canonical-URL
    Verweisende URLsInterne Verlinkungen, die Google bekannt sind
    Mobile-VerdictMobilfreundlichkeit (bestanden/nicht bestanden)
    Rich ResultsValidierungsstatus strukturierter Daten
    Vollständiges API-ResponseAlle Rohdaten als Backup

    Hinweis: Einige dieser Felder waren bereits in der Datenbank vorbereitet, wurden aber beim Speichern nie befüllt. Dieser Bug ist jetzt behoben — sowohl bei der direkten Prüfung als auch bei der automatischen Queue-Verarbeitung.

    Neue KPI-Karten

    Zwei neue Statistik-Karten in der Übersicht:

    • 📱 Mobile — Anzahl mobilfreundlicher und nicht-mobilfreundlicher URLs
    • ⭐ Rich Results — Anzahl URLs mit gültigen strukturierten Daten

    Erweiterte Tabelle

    Drei neue Kompakt-Spalten in der URL-Übersicht:

    SpalteAnzeige
    Fetch✓ Erfolgreich / ⚠ Soft 404 / ✗ Fehler
    🤖📱 Mobile / 🖥 Desktop (Crawl-Agent)
    📱✓ / ✗ Mobilfreundlichkeit

    Aufklappbare Detail-Zeile

    Klick auf eine URL-Zeile öffnet ein 3-Spalten-Detail-Panel:

    Index Status: Verdict, Coverage-State, Indexierungsstatus, robots.txt, Fetch-Status — jeweils farbcodiert und mit deutschen Labels.

    Crawl Details: Letzter Crawl-Zeitpunkt, Crawl-Agent, Google Canonical vs. User Canonical mit visueller Warnung (≠) wenn diese voneinander abweichen.

    Mobile & Rich Results: Mobile-Verdict, Rich Results Verdict, erkannte Rich-Result-Typen (FAQ, Breadcrumbs, Produkte, etc.), verweisende URLs von Google.

    Zusätzlich steht ein „JSON anzeigen"-Link zur Verfügung, der die vollständige API-Antwort als formatiertes JSON darstellt.


    🧭 Bugfix: Menü klappt nicht mehr ein

    Problem

    Das Seitenmenü erkannte nicht alle Seiten korrekt als „aktiv". Besonders betroffen: URL Management — beim Öffnen der Seite klappte das Menü zusammen, weil kein Menüpunkt als aktiv markiert wurde.

    Lösung

    Die Aktiv-Erkennung im Menü prüft jetzt zusätzlich die URLs aller Haupt- und Untermenüpunkte. Alle Seiten wurden verifiziert und matchen jetzt korrekt — inklusive aller Unterseiten im Admin-Bereich.


    🔗 Crawler: Sidebar-Widget führt direkt zum laufenden Crawl

    Problem

    Das globale Crawler-Status-Widget in der Sidebar verlinkte auf die allgemeine Crawler-Seite. Bei fehlendem oder falschem Kontext wurde nur das leere Startformular angezeigt statt der Fortschrittsanzeige mit Abbrechen-Button.

    Lösung

    • Sidebar-Widget verlinkt jetzt direkt zum aktiven Crawl-Job
    • Automatische Erkennung: Die Crawler-Seite findet laufende Crawls jetzt auch ohne manuelle Auswahl und zeigt sofort Fortschritt und Abbrechen-Button
    • Admins sehen alle laufenden Crawls systemweit

    wenn etwas möglich erscheint mach ich das, wenn das nicht klappt gehts ans unmögliche und ansonsten das undenkbare.

    - nun stolz rauchfrei - Ich denke also Bing ich!

    Support 24h Bereitschaft 0173 6107465 - NUR Für Kunden von SEO NW!