Beiträge von Alex07

    Changelog v1.10.3

    Datum: 09.02.2026


    🔗 Crawler: Sidebar-Widget führt direkt zum laufenden Crawl

    Problem

    Das globale Crawler-Status-Widget in der Sidebar verlinkte auf die allgemeine Crawler-Seite. Bei fehlendem oder falschem Kontext wurde nur das leere Startformular angezeigt statt der Fortschrittsanzeige mit Abbrechen-Button.

    Lösung

    • Sidebar-Widget verlinkt jetzt direkt zum aktiven Crawl-Job
    • Automatische Erkennung: Die Crawler-Seite findet laufende Crawls jetzt auch ohne manuelle Auswahl und zeigt sofort Fortschritt und Abbrechen-Button
    • Admins sehen alle laufenden Crawls systemweit

    🐛 Bugfix: Zombie-Einträge in der Crawl-Queue

    Problem

    Wenn eine URL bereits gecrawlt war, aber erneut in der Queue auftauchte, wurde sie übersprungen — allerdings ohne ihren Queue-Status auf „erledigt" zu setzen. Das führte zu zwei Problemen:

    1. Aufgeblähter Seitenzähler: Übersprungene URLs wurden fälschlich als gecrawlt mitgezählt
    2. Endlose Verarbeitung: Die gleichen Queue-Einträge wurden immer wieder aufgegriffen, ohne dass tatsächlich etwas passierte

    Lösung

    Übersprungene Duplikate werden jetzt korrekt als „erledigt" markiert und nicht mehr zum Seitenzähler addiert.


    📊 Neu: Abschluss-Grund bei Crawls

    Bisher war nicht erkennbar, warum ein Crawl beendet wurde — ob alle Seiten gecrawlt waren oder ob das gesetzte Limit erreicht wurde. Jetzt wird der Grund gespeichert und angezeigt:

    • Queue leer — Alle erreichbaren Seiten wurden gecrawlt
    • Seitenlimit erreicht — Die gewünschte maximale Seitenanzahl wurde erreicht

    In der Crawl-Übersicht wird bei „Queue leer" zusätzlich angezeigt, wie viele Seiten tatsächlich erreichbar waren vs. wie viele gewünscht waren (z.B. „4.000 / 150.000 erreichbar").


    ⚡ Performance: Linkstruktur-Tab massiv beschleunigt

    Problem

    Der Linkstruktur-Tab war bei großen Crawls (10.000+ Seiten) extrem langsam oder lud gar nicht. Bei einem 10k-Crawl mit 2,2 Millionen internen Links kam es regelmäßig zu Timeouts (120+ Sekunden).

    Ursachen

    1. Datenbank: Aggregations-Queries über Millionen von Datensätzen bei jedem Seitenaufruf
    2. Graph-Berechnung im Browser: O(n²)-Algorithmus mit 300 Nodes × 150 Iterationen blockierte den UI-Thread

    Lösung: Vorberechnung beim Crawl-Abschluss

    Alle rechenintensiven Daten werden jetzt einmalig am Ende des Crawls vorberechnet und als Cache gespeichert:

    • Link-Statistiken (Gesamtzahl, Durchschnitt, Verteilung)
    • Linkjuice-Verteilung nach Seitenebene
    • Graph-Nodes (Top 300 Seiten nach eingehenden Links)
    • Graph-Edges (Verbindungen zwischen den Top-Nodes)

    Beim Öffnen des Tabs werden die Daten direkt aus dem Cache geladen — keine Abfragen mehr auf die Links-Tabelle. Die Ladezeit sinkt von 120+ Sekunden auf unter 1 Sekunde.

    Weitere Optimierungen

    • Graph-Rendering: Grid-basierte Abstoßungsberechnung statt O(n²), Map-Lookup statt Array-Suche, Edge-Limit auf 2.000
    • Progressives Laden: KPIs, Charts und Tabellen erscheinen sofort, der Graph wird im Hintergrund berechnet
    • Timeout-Handling: Bei Ladefehlern wird eine Fehlermeldung mit „Erneut versuchen"-Button angezeigt
    • Fallback für alte Crawls: Crawls ohne Cache berechnen die Daten live, wobei Edges nur bei ≤5.000 Seiten live geladen werden

    Migration für bestehende Crawls

    Bestehende abgeschlossene Crawls haben noch keinen Cache. Um die Vorberechnung nachzuholen, einmalig die bereitgestellte Migration ausführen. Danach laden auch alte Crawls den Linkstruktur-Tab in unter 1 Sekunde.


    🗄️ Neue Datenbank-Indexes

    Zwei neue Compound-Indexes für schnellere Abfragen bei großen Crawls. Die Index-Migration sollte nach dem Update erneut ausgeführt werden.

    Changelog v1.10.2

    Datum: 08.02.2026


    🔧 Bugfix: Crawler Seitenlimit

    Das interne Limit für maximale Seiten pro Crawl war auf 1.000 gedeckelt, obwohl die Auswahl im Frontend Optionen bis 150.000 anbot. Crawls brachen daher immer bei 1.000 Seiten ab.

    Fix: Internes Limit auf 150.000 angehoben — Auswahl und tatsächliche Verarbeitung stimmen jetzt überein.


    🔍 URL Inspection: Vollständige Google-Daten

    Neue Datenfelder

    Die URL Inspection API liefert deutlich mehr Daten als bisher gespeichert wurden. Folgende Felder werden jetzt vollständig erfasst:

    FeldBeschreibung
    Crawl-AgentMobile oder Desktop
    Fetch-StatusSuccessful, Soft 404, Blocked, etc.
    Google CanonicalVon Google gewählte Canonical-URL
    User CanonicalVom Seitenbetreiber gesetzte Canonical-URL
    Verweisende URLsInterne Verlinkungen, die Google bekannt sind
    Mobile-VerdictMobilfreundlichkeit (bestanden/nicht bestanden)
    Rich ResultsValidierungsstatus strukturierter Daten
    Vollständiges API-ResponseAlle Rohdaten als Backup

    Hinweis: Einige dieser Felder waren bereits in der Datenbank vorbereitet, wurden aber beim Speichern nie befüllt. Dieser Bug ist jetzt behoben — sowohl bei der direkten Prüfung als auch bei der automatischen Queue-Verarbeitung.

    Neue KPI-Karten

    Zwei neue Statistik-Karten in der Übersicht:

    • 📱 Mobile — Anzahl mobilfreundlicher und nicht-mobilfreundlicher URLs
    • ⭐ Rich Results — Anzahl URLs mit gültigen strukturierten Daten

    Erweiterte Tabelle

    Drei neue Kompakt-Spalten in der URL-Übersicht:

    SpalteAnzeige
    Fetch✓ Erfolgreich / ⚠ Soft 404 / ✗ Fehler
    🤖📱 Mobile / 🖥 Desktop (Crawl-Agent)
    📱✓ / ✗ Mobilfreundlichkeit

    Aufklappbare Detail-Zeile

    Klick auf eine URL-Zeile öffnet ein 3-Spalten-Detail-Panel:

    Index Status: Verdict, Coverage-State, Indexierungsstatus, robots.txt, Fetch-Status — jeweils farbcodiert und mit deutschen Labels.

    Crawl Details: Letzter Crawl-Zeitpunkt, Crawl-Agent, Google Canonical vs. User Canonical mit visueller Warnung (≠) wenn diese voneinander abweichen.

    Mobile & Rich Results: Mobile-Verdict, Rich Results Verdict, erkannte Rich-Result-Typen (FAQ, Breadcrumbs, Produkte, etc.), verweisende URLs von Google.

    Zusätzlich steht ein „JSON anzeigen"-Link zur Verfügung, der die vollständige API-Antwort als formatiertes JSON darstellt.


    🧭 Bugfix: Menü klappt nicht mehr ein

    Problem

    Das Seitenmenü erkannte nicht alle Seiten korrekt als „aktiv". Besonders betroffen: URL Management — beim Öffnen der Seite klappte das Menü zusammen, weil kein Menüpunkt als aktiv markiert wurde.

    Lösung

    Die Aktiv-Erkennung im Menü prüft jetzt zusätzlich die URLs aller Haupt- und Untermenüpunkte. Alle Seiten wurden verifiziert und matchen jetzt korrekt — inklusive aller Unterseiten im Admin-Bereich.


    🔗 Crawler: Sidebar-Widget führt direkt zum laufenden Crawl

    Problem

    Das globale Crawler-Status-Widget in der Sidebar verlinkte auf die allgemeine Crawler-Seite. Bei fehlendem oder falschem Kontext wurde nur das leere Startformular angezeigt statt der Fortschrittsanzeige mit Abbrechen-Button.

    Lösung

    • Sidebar-Widget verlinkt jetzt direkt zum aktiven Crawl-Job
    • Automatische Erkennung: Die Crawler-Seite findet laufende Crawls jetzt auch ohne manuelle Auswahl und zeigt sofort Fortschritt und Abbrechen-Button
    • Admins sehen alle laufenden Crawls systemweit

    Search-Console.PRO — Changelog


    Version 1.10.1 — 08. Februar 2026

    🔗 Neuer Tab: 404 / Defekte Ressourcen

    Neuer dedizierter Tab im Onpage Crawler, der alle defekten Ressourcen an einem Ort zusammenfasst — defekte Bilder, kaputte interne Links und fehlerhafte externe Links.

    Übersicht

    • Summary-Leiste mit Zählern: Defekte URLs gesamt, 404 Not Found, 403 Forbidden, 5xx Server-Fehler, Timeout/DNS-Fehler, Anzahl betroffener Seiten
    • Daten werden aus drei Quellen zusammengeführt: defekte Bilder, interne Links und externe Links

    Filter & Sortierung

    • Schnellfilter-Buttons: Alle, Bilder, Links, 404, 403, 5xx
    • Sortierung nach Häufigkeit — Ressourcen die auf den meisten Seiten verlinkt sind, stehen oben
    • Defekte URLs sind klickbar, um den Fehler direkt im Browser zu prüfen

    Aufklappbare Quellseiten

    • Jede defekte Ressource lässt sich aufklappen und zeigt alle Seiten, die darauf verlinken
    • Quellseiten mit Titel und klickbarem Link zur schnellen Korrektur

    CSV-Export

    • Export aller defekten Ressourcen mit Status, Typ (Bild/Link) und Quellseite
    • UTF-8 mit Semikolon-Trennung für Excel-Kompatibilität

    🖼 Verbesserte Bild-Erkennung

    Die Erkennung von Bildern im Crawler wurde grundlegend erweitert, insbesondere für WordPress-Seiten.

    WordPress Lazy Loading Support

    • Bilder mit data-lazy-src, data-src und data-original werden jetzt korrekt erkannt
    • Platzhalter-Bilder (transparente Pixel, blank.gif, spacer) werden automatisch übersprungen und stattdessen die echte Bild-URL aus den data-Attributen verwendet

    Responsive Bilder (srcset)

    • srcset- und data-srcset-Attribute werden vollständig geparst
    • Alle Bild-Varianten (z.B. -768x512.jpg, -1054x659.jpg) werden erfasst und auf Erreichbarkeit geprüft
    • <picture><source>-Tags werden ebenfalls ausgewertet
    • <video poster>-Attribute werden als Bild-Ressource erkannt

    Broken-Image-Check verbessert

    • Bild-URLs werden jetzt dedupliziert — identische Bilder auf 50 Seiten werden nur einmal geprüft statt 50-mal
    • Limit von 50 auf 500 unique Bild-URLs erhöht
    • Multi-cURL mit parallelen HEAD-Requests in 10er-Batches statt sequentieller Einzelprüfung
    • Bei einem defekten Bild wird das Problem auf allen Seiten gemeldet, die es verwenden

    🐛 Bugfix: Defekte Bilder ohne Ziel-URL

    In der aufklappbaren Detail-Ansicht von „Defektes Bild"-Issues wurde die Bild-URL (Spalte „Defekter Link") nicht angezeigt. Ursache: Das Feld hieß intern src statt target. Die Spalte zeigt jetzt korrekt die vollständige Bild-URL als klickbaren Link an.


    📄 Pagination für Issue-Details

    Die aufklappbaren Detail-Tabellen bei allen Issue-Typen zeigen jetzt maximal 50 Einträge pro Seite mit Seitenzahlen-Navigation. Vorher wurden bis zu 500 Einträge auf einmal geladen, was bei großen Crawls zu langen Ladezeiten führte.

    Search-Console.PRO — Changelog


    Version 1.10.0 — 08. Februar 2026

    🔍 Onpage Crawler: 17 neue Checks + Externe Links Analyse + Pagination

    Umfangreiche Erweiterung des Onpage Crawlers um 17 neue Prüfungen in 6 Kategorien, eine vollständige Analyse aller externen Links mit Statuscode-Prüfung und CSV-Export, sowie seitenweise Darstellung (Pagination) für große Crawls.

    Neue Checks — Schnelle Wins (8)

    • Kein Favicon definiert — Google zeigt Favicons prominent in den Suchergebnissen
    • Kein Charset oder falsches Charset — fehlende oder nicht-UTF-8 Zeichenkodierung
    • HTTP-Links auf HTTPS-Seiten — interne Links die auf http:// statt https:// verweisen (Mixed Content)
    • Defekte Bilder — Bild-URLs die auf 404 oder Fehler zeigen (HEAD-Request Prüfung auf bis zu 50 Bilder)
    • Leere Links — Ankerlinks ohne Text, Bild oder aria-label
    • Title und H1 identisch — wenn Title-Tag und H1 exakt gleich sind, ist das eine vertane Optimierungs-Chance
    • Tracking-Parameter in internen Links — UTM-, GCLID-, FBCLID-Parameter in internen Verlinkungen verschmutzen Crawl-Budget und Analytics
    • Pagination ohne rel-Markup — paginierte Seiten ohne rel="next"/rel="prev"

    Neue Checks — Mittlerer Aufwand (9)

    • Lazy Loading auf Above-the-fold Bildern — loading="lazy" auf den ersten sichtbaren Bildern ist ein LCP-Killer
    • Fehlende Security-Headers — Warnung wenn 3 oder mehr wichtige HTTP-Header fehlen (HSTS, X-Frame-Options, CSP, X-Content-Type-Options, Referrer-Policy, Permissions-Policy)
    • Link-Juice-Senken — Seiten die viele eingehende Links erhalten, aber selbst kaum intern verlinken (PageRank-Sackgassen)
    • Link-Juice-Verteiler ohne Eingang — Seiten die viel intern verlinken, aber selbst kaum verlinkt werden
    • robots.txt blockiert indexierbare Seite — erreichbare, indexierbare Seiten die von der robots.txt ausgesperrt werden
    • Indexierbare Seite nicht in Sitemap — die Seite ist auffindbar und indexierbar, aber nicht in der XML-Sitemap gelistet
    • Nicht-indexierbare Seite in Sitemap — noindex-Seiten oder Fehlerseiten die in der Sitemap stehen
    • Sitemap-Parsing inkl. Sitemap-Index — verschachtelte Sitemaps werden bis zu 2 Ebenen tief aufgelöst (max. 5.000 URLs)
    • Externe Link-Prüfung mit Multi-cURL — parallele HEAD-Requests in Batches für bis zu 500 externe URLs

    Externe Links — Komplett neue Ansicht

    Im Linkstruktur-Tab gibt es jetzt eine vollständige Übersicht aller externen Links:

    • Status-Zusammenfassung: OK, Redirects, 4xx-Fehler, 5xx-Fehler, Timeouts und Gesamtzahl auf einen Blick
    • Filter: „Nur Fehler" (Standard) oder „Alle anzeigen"
    • Sortierte Tabelle mit Status, URL, Anzahl Quellseiten, Nofollow-Kennzeichnung und Anchor-Text
    • Quellseiten aufklappbar — zeigt von welchen internen Seiten der externe Link stammt
    • Pagination bei mehr als 100 externen Links
    • CSV-Export: Alle externen Links mit Status, Status-Typ, Nofollow, Anchor-Text und Quellseite (UTF-8, Semikolon-getrennt für Excel)

    Pagination für große Crawls

    Bei Crawls mit vielen tausend Seiten werden Daten jetzt seitenweise geladen statt komplett:

    • Issue-Details (aufklappbare Tabellen): 50 URLs pro Seite mit Seitenzahlen-Navigation
    • Externe Links: 100 Links pro Seite
    • Bestehendes: Alle-Seiten-Tab war bereits paginiert (50/Seite), Link-Graph begrenzt (300 Nodes), Top/Weak Pages (50 max.)

    Score-Gewichtungen

    Alle 17 neuen Issue-Typen fließen gewichtet in die Gesamt-Scores ein:

    • Kritisch: robots.txt blockiert indexierbare Seite (2.0), Mixed Content Links (1.0), LCP Lazy Loading (1.0)
    • Mittel: Defekte Bilder (0.8), Missing Charset (0.8), Empty Links (0.5), UTM in internen Links (0.5)
    • Info: Favicon (0.2), Security Headers (0.2), Pagination (0.2), Nicht in Sitemap (0.3)

    Detail-Anzeige erweitert

    Für alle neuen Issue-Typen gibt es spezifische Fix-Empfehlungen in den aufklappbaren Details. Neue Detail-Felder: fehlende Header-Liste, Bild-URLs bei defekten Bildern, eingehende/ausgehende Linkzahlen bei Juice-Imbalance, Charset-Info, Grund bei Sitemap-Konflikten.

    Version 1.9.1 — 08. Februar 2026

    🔧 Tab-Styling Fixes

    Inkonsistente CSS-Klassen in mehreren Ansichten bereinigt — Tabs werden jetzt überall einheitlich dargestellt.

    • Tab-Styling in der Agentur-Verwaltung korrigiert (falsche CSS-Klassen)
    • Tab-Styling in der Bulk-Inspection-Ansicht korrigiert
    • Tab-Styling in der Keyword-Übersicht korrigiert
    • Tab-Styling in der Keyword-Detail-Ansicht korrigiert
    • Tippfehler in der Performance-Ansicht behoben (doppeltes >> im Länder-Tab)

    Changelog v2.0.0

    Datum: 08.02.2026


    📄 PDF-Reports: mPDF Migration

    • Neue PDF-Engine mit deutlich besserer Ausgabequalität
    • Professionelles Report-Layout mit Gradient-Header und Score-Cards
    • Vollständige UTF-8/Umlaut-Unterstützung (DejaVu Sans)
    • Automatische Logo-Einbettung für Whitelabel-Reports
    • Alle Report-Typen unterstützt: Übersicht, Performance, Keywords, Keyword-Tracking, Seiten, Indexierung, SCI, Komplett
    • Farbcodierte Badges, Info-Boxen und saubere Tabellen
    • Korrekte Darstellung von sc-domain: Properties
    • Fallback auf alternative PDF-Engine falls nötig

    🏷️ Automatisches Whitelabel

    • Whitelabel-Branding aktiviert sich automatisch wenn Agency-Einstellungen vorhanden sind
    • Kein manuelles Aktivieren mehr nötig
    • Betrifft alle Reports: GSC-Reports (PDF + HTML) und Onpage-Crawler-Reports
    • Onpage HTML-Report zeigt Branding-Header mit Logo, Agency-Name und Kontaktdaten
    • Deaktivierung über Subscription-Berechtigung weiterhin möglich

    ⚡ Crawler: Parallele Verarbeitung

    • Bis zu 3 Crawl-Jobs gleichzeitig statt bisher nur 1
    • Kunden blockieren sich nicht mehr gegenseitig bei großen Crawls
    • Intelligente Slot-Koordination verhindert doppelte Verarbeitung
    • Automatische Erkennung und Bereinigung verwaister Prozesse
    • Anzahl paralleler Prozesse serverseitig konfigurierbar

    ⏱️ Crawler: Laufzeit-Anzeige

    • Live-Timer im Fortschritts-Dashboard — tickt jede Sekunde in Echtzeit
    • Format: MM:SS oder HH:MM:SS bei längeren Crawls
    • Bisherige Crawls: Neue "Dauer"-Spalte zeigt exakte Crawl-Dauer (z.B. "2m 34s")
    • Laufende Jobs zeigen aktuelle Laufzeit mit ⏱-Icon
    • Dauer auch in der Gecrawlte-Projekte-Übersicht sichtbar

    📁 Gecrawlte Projekte (Neuer Bereich)

    • Neuer Menüpunkt "Gecrawlte Projekte" unter Onpage
    • Übersicht aller durchgeführten Crawls, nach Domain gruppiert
    • Suchfeld mit Live-Filter für schnelles Finden
    • Pro Projekt: Domain, Score, Speicherverbrauch, Crawl-Anzahl, Dauer, Ablauf-Warnung
    • Schnellzugriff: Report anzeigen, PDF herunterladen, neuen Crawl starten
    • Aufklappbare Historie: Alle älteren Crawls einer Domain mit Einzelzugriff

    📊 Maximale Seiten erweitert

    • Crawler unterstützt jetzt bis zu 150.000 Seiten pro Crawl
    • Neue Stufen: 2.000, 5.000, 10.000, 25.000, 50.000, 100.000, 150.000

    💾 Datenbank-Speicheranzeige

    • Neues Feature: Transparente Anzeige des Speicherverbrauchs
    • Properties-Übersicht: Neue Spalte "Speicher" pro Property mit Tooltip (GSC/Onpage aufgeschlüsselt), Gesamtverbrauch unter der Tabelle
    • Gecrawlte Projekte: Speicher-Badge pro Domain und pro einzelnem Crawl
    • Admin-Bereich: Speicherverbrauch pro Kunde in der Subscription-Übersicht, farbcodiert nach Verbrauch

    🔍 Reports: Suchbare Property-Auswahl

    • Property-Dropdown im Report-Bereich durch suchbares Eingabefeld ersetzt
    • Live-Filter mit Treffer-Hervorhebung
    • Besonders hilfreich bei vielen Properties

    Changelog v1.9.0 - Advanced Onpage Analysis

    Neue Features

    Core Web Vitals / CLS-Risiko-Analyse

    • CLS-Risiko-Score (0-100) pro Seite berechnet aus:
      • Bilder ohne width/height-Attribute
      • iFrames ohne Dimensionen
      • Webfonts ohne font-display: swap
      • Render-blockierende Ressourcen im <head>
    • Erkennung von übermäßigem Inline-JavaScript (>50KB)
    • Erkennung von exzessiven Inline-Styles (>50 style-Attribute)

    Content Quality Score

    • Flesch Reading Ease (Deutsch/Amstad-Formel) pro Seite
    • Text-HTML-Verhältnis Berechnung
    • Satz-Analyse (Anzahl, Durchschnittslänge)
    • Content Quality Score (0-100) basierend auf:
      • Wortanzahl, Lesbarkeit, Text-Ratio
      • Satzvariabilität, Überschriften-Struktur
    • Issues: niedrige Text-Ratio, schlechte Lesbarkeit, überlange Sätze

    JSON-LD / Structured Data Validierung

    • Deep Validation gegen Schema.org Pflichtfelder für 16 Schema-Typen:
      • Article, Product, LocalBusiness, Organization, FAQPage, Recipe, Event, JobPosting, etc.
    • Prüfung empfohlener Felder (image, publisher, etc.)
    • Datumsformat-Validierung (ISO 8601)
    • Offer-Validierung (price, priceCurrency)
    • @context-Prüfung
    • Raw JSON-LD Speicherung für spätere Analyse

    Hreflang-Validierung

    • Self-Referencing Check (Seite muss sich selbst referenzieren)
    • Return-Tag Validierung (Zielseite muss zurückverweisen)
    • Sprachcode-Validierung (ISO 639-1)
    • Canonical-Hreflang-Konflikt-Erkennung

    Canonical-Ketten & -Fehler

    • Canonical-Ketten erkennen (A → B → C)
    • Canonical zeigt auf 404/5xx (Critical)
    • Canonical zeigt auf Redirect (Warning)

    Interne Linkstruktur-Analyse

    • Eingehende interne Links pro Seite gezählt
    • Erkennung von Seiten mit nur einem eingehenden Link (fragile Verlinkung)
    • Quellseite wird bei Single-Link-Issues angezeigt

    Neue Issue-Typen (19 neue Checks)

    Performance/CWV

    • cls_high_risk, iframe_no_dimensions, font_no_swap
    • render_blocking, excessive_inline_js, excessive_inline_css

    Content Quality

    • low_text_ratio, poor_readability, long_sentences

    Hreflang

    • hreflang_missing_self, hreflang_missing_return
    • hreflang_invalid_lang, hreflang_canonical_conflict

    JSON-LD

    • jsonld_missing_required, jsonld_invalid_value, jsonld_no_context

    Canonical

    • canonical_chain, canonical_to_4xx, canonical_to_redirect

    Link Structure

    • single_incoming_link

    Datenbank-Änderungen

    • Migration: v1.9.0

    Search-Console.PRO — Changelog


    Version 1.8.1 — 07. Februar 2026

    ✨ Neu: Light Mode

    Der lang angekündigte Light Mode ist da! Das Theme kann in den Einstellungen unter Präferenzen umgeschaltet werden und greift sofort als Live-Preview.

    Was sich ändert:

    • Helle Hintergründe, dunkle Texte und dezente Borders im gesamten Tool
    • Sidebar, Navigation und Footer werden vollständig im hellen Design dargestellt
    • Cards, Tabellen, Formularfelder, Badges und Code-Blöcke passen sich an
    • Scrollbar und Text-Selektion sind farblich abgestimmt
    • Weichere Schatten für ein natürliches Erscheinungsbild
    • Das Theme wird serverseitig gespeichert und zusätzlich im Browser gecacht, um Aufblitzen beim Seitenwechsel zu verhindern

    Technische Details:

    • Cache-Busting für CSS und JS Dateien eingeführt — bei Updates wird automatisch die neue Version geladen
    • Status-Farben (Erfolg, Warnung, Fehler) wurden für ausreichend Kontrast auf hellem Hintergrund angepasst

    Bekannte Einschränkung:

    • Chart-Farben (Gitternetzlinien, Achsenbeschriftungen) sind noch nicht themeabhängig — folgt in einem späteren Update

    Search-Console.PRO — Changelog


    Version 1.8.0 — 07. Februar 2026

    ✨ Neu: .htaccess-Schutz beim Onpage-Crawl (HTTP Basic Auth)

    Websites, die mit einem .htaccess-Passwortschutz gesichert sind (z.B. Staging-Umgebungen, Intranets oder Entwicklungsserver), können ab sofort gecrawlt werden.

    So funktioniert's:

    • Im Crawler-Formular gibt es eine neue Option „🔒 .htaccess-Schutz (HTTP Basic Auth)"
    • Nach Aktivierung erscheinen Felder für Benutzername und Passwort
    • Die Zugangsdaten werden bei jedem Request des Crawls automatisch mitgeschickt

    Sicherheit:

    • Zugangsdaten werden AES-256-verschlüsselt in der Datenbank gespeichert — niemals im Klartext
    • Die Credentials werden ausschließlich an die gecrawlte Domain gesendet, nicht an externe Links
    • Nach Abschluss des Crawls (egal ob erfolgreich, abgebrochen oder fehlgeschlagen) werden die Zugangsdaten automatisch und unwiderruflich aus der Datenbank gelöscht

    Search-Console.PRO — Changelog


    Version 1.7.2 — 07. Februar 2026

    🐛 Kritisch: Performance-Daten wurden ~4-5x zu hoch angezeigt

    Ursache: Bei der Berechnung von Klicks, Impressionen, CTR und Position wurden intern alle Dimensions-Ebenen (Keywords, Seiten, Länder) auf die Tagesgesamtwerte draufaddiert, statt nur die eigentlichen Gesamtwerte zu verwenden. Acht Abfragen in vier Modulen waren betroffen.

    Auswirkung: Alle KPI-Anzeigen im Dashboard, auf der Performance-Seite, in generierten Reports und bei der Alert-Erkennung zeigten systematisch zu hohe Werte — je nach Anzahl der rankenden Keywords und Seiten um den Faktor 3-5x.

    Betroffene Bereiche:

    • Dashboard — Performance-Summary und Chart-Verlauf
    • Performance-Seite — Haupt-Statistiken und Chart-Daten inkl. Vergleichszeitraum
    • Report-Generator — Zusammenfassungs-KPIs und Performance-Chart im Export
    • Alert-System — Metrik-Einbruch-Erkennung (Klicks, Impressionen) und CTR-Drop-Check

    Kein Re-Sync erforderlich — die gespeicherten Daten waren korrekt, nur die Abfragen waren fehlerhaft. Nach dem Update werden die richtigen Werte sofort angezeigt.

    Search-Console.PRO — Changelog


    Version 1.7.1 — 07. Februar 2026

    🐛 Crawler-Hotfixes + CSS-Korrektur

    Behebung kritischer Crawler-Abstürze, die das Crawlen vieler Websites verhindert haben, sowie CSS- und URL-Normalisierungs-Verbesserungen.

    Kritische Bugs behoben

    • Crawler-Absturz behoben (TypeError): Der Crawler stürzte beim Zählen der internen/externen Links ab, wenn ein <a href>-Attribut leer war oder auf #/javascript: verwies. PHP 8.2 meldete: isSameDomain(): Argument must be of type string, null given. Betraf alle Websites und verhinderte das Crawlen nach der ersten Seite.
    • Dot-Segment URLs behoben (/./, /../): Websites mit relativen Links wie href="." oder href="./" erzeugten endlose URL-Ketten (/./, /./../, /./././ usw.). URL-Normalisierung löst jetzt Dot-Segmente gemäß RFC 3986 auf.
    • JSON-LD Structured Data Warnung behoben: Websites mit Array-Werten bei @type (z.B. ["Person", "Organization"]) verursachten wiederholte „Array to string conversion"-Warnungen im Log.

    Verbesserungen

    • CSS für Formularfelder ergänzt: Eingabefelder und Dropdowns im Crawler-Formular (und 58 weiteren Stellen) waren unsichtbar, da die CSS-Klasse form-control nicht definiert war. Betraf Start-URL, Maximale Seiten und alle Formularfelder in Agentur- und Bulk-Bereichen.
    • robots.txt Fehlinterpretation verhindert: Wenn ein Server auf /robots.txt eine HTML-Seite ausliefert (z.B. durch Soft-404-Redirect), wird diese jetzt ignoriert statt als Regelwerk geparst.
    • Crawler Debug-Logging: Bei aktiviertem DEBUG_MODE werden jetzt übersprungene URLs mit Begründung (nofollow, robots.txt) im Error-Log protokolliert.
    • Worker-Logging abgesichert: Der Background-Worker gibt keine PHP-Warnings mehr aus, wenn ein Batch durch einen Fehler unterbrochen wird.

    Version 1.7.0 — 06. Februar 2026

    🐛 Bug-Audit: 12 Bugs behoben + 4 Verbesserungen

    Systematische Code-Prüfung des gesamten Projekts auf Fehler, Inkonsistenzen und Verbesserungspotenzial.

    Kritische Bugs behoben

    • Datenbank-Schema Mismatch behoben: Eine OAuth-Token-Tabelle hatte im Schema einen anderen Namen als im gesamten Anwendungscode — die Google-Verbindung konnte bei Neuinstallationen komplett fehlschlagen.
    • OAuth CSRF-Bypass geschlossen: Die Google-Authentifizierung hat bei ungültigem State-Parameter trotzdem fortgefahren, anstatt abzubrechen. Der CSRF-Schutz greift jetzt zuverlässig.
    • Account-Löschung vervollständigt (DSGVO): Beim Löschen eines Accounts wurden 15 Tabellen nicht berücksichtigt (Crawler-Daten, Keywords, Alerts, Login-Tokens, Agentur-Daten, Passwort-Resets). Sowohl die Self-Service-Löschung als auch die Admin-Löschung wurden korrigiert.

    Crawler-Bugs behoben

    • URL Slash-Ketten behoben: Der Crawler erzeugte fehlerhafte URLs wie /, //, /// bei Websites mit leeren oder ungültigen Links. Ursache: Doppelte Slashes wurden fälschlich als Protocol-Relative URLs interpretiert, und mehrfache Slashes im Pfad wurden nie bereinigt. URLs werden jetzt korrekt normalisiert und ungültige URLs vor dem Eintragen in die Queue abgewiesen.
    • Redirect-Ketten werden jetzt erkannt: Der Issue-Typ „Weiterleitungskette" war definiert, wurde aber nie tatsächlich ausgelöst. Der Crawler verfolgt jetzt Redirect-Hops und meldet Ketten mit mehr als einem Hop.
    • PHP 8.2 Kompatibilität: Eine veraltete Encoding-Funktion wurde an drei Stellen durch eine moderne Variante ersetzt. Verhindert Warnungen in PHP 8.2+.
    • Speicherleck im Crawler behoben: DOM-Objekte werden nach jeder Seitenanalyse explizit freigegeben — verhindert hohen Speicherverbrauch bei großen Crawls.
    • 3 weitere SQL-Injections im Crawler behoben: Interne Zähler-Abfragen verwenden jetzt durchgängig Prepared Statements.

    Weitere Bugs behoben

    • Startseite zeigte Demo-Daten: Die Index-Seite enthielt noch hartcodierte Test-Statistiken statt einer Weiterleitung zum echten Dashboard.
    • Login-Redirect funktioniert jetzt: Nach einem erzwungenen Login wird der Nutzer zur ursprünglich angeforderten Seite weitergeleitet, statt immer zum Dashboard.
    • Division by Zero auf der Upgrade-Seite: Die Preisberechnung konnte bei bestimmten Plan-Konfigurationen crashen.
    • Falsche Tabelle bei Account-Löschung: Ein Tabellenname im Lösch-Vorgang war veraltet und stimmte nicht mit der tatsächlichen Datenbank überein.
    • Debug-Logging in Produktion entfernt: Die Google-Authentifizierung schrieb sensible Session-Daten ins Error-Log. Jetzt nur noch im Debug-Modus aktiv.

    Verbesserungen

    • API Rate-Limiting korrigiert: Durch ein Sampling wurde nur jede 10. Anfrage gezählt — das Limit war effektiv 10× höher als eingestellt. Jeder Request wird jetzt korrekt erfasst.
    • Passwort-Validierung zentralisiert: Die Passwort-Zurücksetzen-Funktion nutzt jetzt die gleiche zentrale Validierung wie die Registrierung. Einheitliche Regeln überall.
    • Daten-Löschung vereinheitlicht: Self-Service und Admin-Löschung verwenden jetzt identische, vollständige Tabellenlisten.

    Version 1.6.0 — 06. Februar 2026

    🔒 Security Audit + Session-Fixes

    Umfassendes Sicherheits-Audit des gesamten Projekts mit 19 Findings und Implementierung aller Fixes. Zusätzlich komplette Überarbeitung des Session- und Remember-Me-Systems.

    Security Audit — 19 Findings gefixt

    • 2× Kritisch: SQL-Injection in einer API behoben (Prepared Statements), SSRF-Schutz im Crawler implementiert (Zugriffe auf interne Netzwerke, Cloud-Metadata-Endpoints und private IP-Bereiche werden blockiert)
    • 5× Hoch: Rate-Limiting für Registrierung (max. 3 pro Stunde/IP), verstärktes Rate-Limiting für Passwort-Reset (max. 5 pro 24h/E-Mail), API Rate-Limiting Middleware für alle Endpoints, fehlende Session-Flags nach Registrierung ergänzt, Debug-Modus in Produktion deaktiviert
    • 7× Mittel: Fehlermeldungen in 5 API-Endpoints bereinigt (keine internen Details mehr sichtbar), CSRF-Schutz auf Registrierung erweitert, Download-Dateinamen gegen Header-Injection geschützt, Cookies mit allen Sicherheits-Flags versehen, Installations-Assistent gegen SQL-Injection geschützt, Passwort-Anforderungen vereinheitlicht, Content-Security-Policy verschärft
    • 5× Niedrig: CLI-Schutz für Hintergrund-Jobs, Zugangsdaten über Umgebungsvariablen konfigurierbar, Installations-Sperre nach erfolgreicher Einrichtung, verbesserte Fehler-Referenzen für Support-Anfragen

    Session-Management komplett überarbeitet

    • Problem gelöst: Automatischer Logout trotz „Angemeldet bleiben"
    • Ursachen identifiziert: Session-Dateien wurden alle 30 Minuten gelöscht, alte Session-IDs nach Erneuerung verworfen, widersprüchliche Cookie-Einstellungen zwischen Konfiguration und Authentifizierung
    • Token-basiertes Remember-Me: Sichere Login-Tokens mit SHA-256 Hashing, automatische Token-Rotation bei jedem Auto-Login, max. 5 Tokens pro Nutzer, 30 Tage Gültigkeit
    • Session-Einstellungen vereinheitlicht: Konsistente Cookie-Konfiguration, verlängerte Sitzungsdauer, saubere Garbage-Collection

    Neue Sicherheits-Features

    • Allgemeines Rate-Limiting System (DB-basiert, konfigurierbare Zeitfenster)
    • Zentrale Passwort-Validierung (min. 8 Zeichen, Groß-/Kleinbuchstabe, Zahl)
    • API Rate-Limiting Middleware für alle Schnittstellen
    • SSRF-Schutz mit DNS-Auflösung und IP-Bereichs-Filterung
    • Request-IDs für Fehler-Korrelation im Log

    Search-Console.PRO — Changelog


    Version 1.5.0 — 06. Februar 2026

    🆕 NEU: Onpage SEO Crawler

    Kompletter serverseitiger Website-Crawler mit Live-Fortschritt, umfassender Analyse und PDF-Reporting.

    Crawl-Engine

    • Serverseitiger PHP-Crawler mit cURL und Queue-System in der Datenbank
    • Crawlt bis zu 1.000 Seiten pro Job
    • Über 40 SEO-, Technik- und Content-Checks pro Seite
    • robots.txt wird vollständig geparst und beachtet (Wildcard- und $-Support)
    • Konfigurierbar: Max. Seitenanzahl, Crawl-Tiefe, Bildanalyse, externe Links, robots.txt
    • Intelligentes URL-Handling mit Normalisierung, Fragment-Entfernung und Duplikat-Erkennung
    • Überspringt automatisch Binärdateien (PDFs, Bilder, Archive — über 40 Dateitypen)

    Background Worker & Globale Queue

    • Crawl läuft komplett im Hintergrund per Cron-Job — Browser kann geschlossen werden
    • Report steht nach Abschluss bereit, auch wenn der Nutzer offline ist
    • Globale Queue: Nur ein Crawl gleichzeitig (FIFO-Reihenfolge)
    • Lockfile-Mechanismus verhindert parallele Worker-Instanzen
    • Queue-Position wird in der Fortschrittsanzeige angezeigt
    • Max. 5 Minuten Laufzeit pro Worker-Aufruf, setzt beim nächsten Cron nahtlos fort

    Live-Fortschrittsanzeige

    • Animierter Fortschrittsbalken mit Shimmer-Effekt
    • Echtzeit-Counter: Gecrawlt, in Queue, Fehler, Warnungen
    • Hinweis: „Sie können diese Seite verlassen — der Report steht nach Abschluss bereit"
    • Abbrechen-Button für laufende Crawls
    • Queue-Position bei wartenden Jobs (gelber Balken)

    Ergebnis-Dashboard mit 7 Tabs

    • Issues — Alle Issues gruppiert nach Typ, klickbar mit expandierbaren Detail-Rows
    • Inhalt — Content-Issues: Title-Länge, Meta Description, H1-Duplikate, Thin Content
    • SEO — Canonical, Noindex, defekte Links, Orphan Pages, URL-Probleme
    • Technik & Performance — Antwortzeiten-Verteilung, HTTP-Status-Übersicht, Kompression
    • Bilder — Alt-Texte, Dateigröße, Dimensionen, moderne Formate (WebP/AVIF)
    • Alle Seiten — Paginierte Tabelle aller gecrawlten Seiten, sortier- und filterbar
    • Document Outline — Überschriften-Hierarchie (H1–H6) als visueller Baum pro Seite

    Issue-Details mit Quell-URLs

    • Jedes Issue zeigt die betroffenen URLs als klickbare Links
    • Bei defekten Links: Quell-Seite → Ziel-URL mit HTTP-Statuscode
    • Detail-Informationen je nach Typ: Zeichenlänge, Wortanzahl, Ladezeit, Tiefe, Duplikat-Wert
    • Funktioniert in allen Tabs (Issues, Inhalt, SEO, Technik, Bilder)

    Document Outline

    • Zeigt H1–H6 Hierarchie als eingerückten, farbkodierten Baum
    • Erkennt Fehler: Ebenen-Sprünge (H1→H3), erste Überschrift kein H1, mehrfache H1
    • Filter-Buttons: Alle Seiten / Nur Fehler / Nur OK
    • Summary-Banner mit Gesamt-, Fehler- und OK-Zähler
    • Fehlerhafte Heading-Zeilen werden rot hinterlegt

    Score-System

    • 4 Scores: Gesamt, Inhalt (30%), SEO (40%), Technik (30%)
    • Prozentbasierte Berechnung auf Basis betroffener Seiten
    • Jeder Issue-Typ hat ein individuelles Gewicht
    • Separate Penalty für HTTP 4xx/5xx Fehlerseiten

    Geprüfte Issue-Typen (Auswahl)

    • Content: Fehlender/zu langer/zu kurzer Title, fehlende/doppelte Meta Description, fehlende/mehrfache H1, Thin Content, fehlende Open Graph Tags
    • SEO: Fehlender Canonical, Canonical-Mismatch, Noindex, defekte interne/externe Links, Orphan Pages, tiefe Seiten (>4 Klicks), URL zu lang/Großbuchstaben
    • Technik: HTTP 4xx/5xx, langsame Antwortzeit (>1s), langsamer TTFB (>600ms), große Seiten (>500KB), fehlende Kompression, kein Viewport
    • Bilder: Fehlende Alt-Texte, zu große Bilder (>200KB), fehlende Dimensionen (CLS-Risiko), kein modernes Format
    • Heading Outline: Ebenen-Sprung, erste Überschrift kein H1, flache Struktur

    PDF-Report

    • Professioneller A4-Report mit allen Scores, Quick Stats und HTTP-Status-Verteilung
    • Issues nach Kategorie mit farbiger Seitenleiste je Severity
    • Betroffene URLs unter jedem Issue aufgelistet (max. 20 pro Typ)
    • Bei defekten Links: Quell-Seite → Ziel mit HTTP-Status
    • Korrekter Domain-Name (auch bei sc-domain: Format)
    • Footer mit Branding und Kontaktdaten

    Menü-Integration

    • Neuer Menüpunkt „Onpage Crawler" mit Badge „Neu"
    • Untermenü: Crawler starten

    Bisherige Crawls

    • Übersichtstabelle mit Domain-Name, Datum, Seitenanzahl, Score, Fehlerzahl, Status
    • Aktionen: Ansehen, PDF herunterladen, Löschen

    Version 1.4.0 — 06. Februar 2026

    🔧 CSV-Export: Property-Sicherheit

    • Export validiert jetzt Property-Zugehörigkeit und aktives Abonnement
    • Fehler behoben: Export-Script hat gültige Property-IDs abgelehnt (fehlender Parameter in URL)

    Version 1.3.0 — 06. Februar 2026

    📊 Performance Analytics: Vergleichsmodus

    Keyword-Detail-Vergleich

    • Neuer Vergleichsmodus in der Keyword-Detailansicht
    • KPI-Änderungsindikatoren (Pfeile mit prozentualer Änderung)
    • Chart.js-Integration mit gestrichelten Overlay-Linien für den Vergleichszeitraum
    • Vergleichsdaten werden per AJAX nachgeladen

    Performance-Charts

    • 4-Metrik-Vergleichscharts mit zeitbasierter Filterung
    • Vergleichszeitraum wird als gestrichelte Linie überlagert
    • Verbesserte Achsenbeschriftungen und Tooltip-Formatierung

    Version 1.2.0 — 06. Februar 2026

    🔍 Keyword Discovery: Filter & Schwellenwerte

    • SQL-Platzhalter für INTERVAL-Filterung korrigiert
    • Dynamische Schwellenwerte für kleine Websites (angepasste Grenzwerte bei wenig Daten)
    • Tab-Styling überarbeitet (aktiver Tab visuell hervorgehoben)
    • Zeitbasierte Filter funktionieren jetzt korrekt (7, 14, 28, 90 Tage)

    Version 1.1.0 — 06. Februar 2026

    🔐 Passwort-Reset

    • Sicheres Passwort-Zurücksetzen implementiert
    • Token-basiert mit Ablaufzeit
    • E-Mail-Versand mit Reset-Link
    • Design konsistent mit dem Login-Bereich
    • Brute-Force-Schutz durch Rate Limiting

    Version 1.0.4 — 11. Januar 2026

    📱 Mobile Optimierung & SCI-Verbesserungen

    Mobile Fixes

    • Property-Dropdown auf Android jetzt bedienbar (natives Select-Element auf Touch-Geräten)
    • Burger-Menü lässt sich durch erneuten Klick wieder schließen
    • Letzte Property-Auswahl wird per Cookie gespeichert (überlebt Logout)

    Remember Me

    • Session-Management komplett überarbeitet
    • Cookies und Session-Lifetimes werden korrekt vor session_start() gesetzt

    SCI-Index Anzeige

    • Prozentuale Änderungen werden jetzt sauber formatiert (keine 12-stelligen Dezimalzahlen mehr)
    • Vergleich mit Werten von genau 7 Tagen zuvor (statt letztem Eintrag)
    • Neue Methode getComponentChanges() zeigt echte Woche-über-Woche-Änderungen
    • Korrektur: Angezeigte Werte sind jetzt tatsächliche Änderungen, nicht Beitrags-Prozente

    SCI-History Dashboard

    • Haupt-SCI-Trendchart
    • Komponenten-Chart mit umschaltbaren Linien (Impressions, Klicks, CTR, Position, Diversität, Trend)
    • Periodenvergleich: Aktuelle 28 Tage vs. vorherige 28 Tage mit echten Performance-Daten

    Lokale Ressourcen

    • Favicons werden lokal gecacht (Proxy-System mit Fallback-Icon)
    • Google Fonts durch lokale Font-Dateien ersetzt (Inter Font-Family)
    • Keine externen Abhängigkeiten mehr im Frontend

    Version 1.0.3 — 10. Januar 2026

    📝 Marketing & Content Launch


    Version 1.0.2 — 08. Januar 2026

    🌐 Website Launch (search-console.pro)


    Version 1.0.1 — 08. Januar 2026

    📄 Pressemitteilung & Firmenportrait


    Version 1.0.0 — Launch

    🚀 Erstveröffentlichung

    • Unbegrenzte Datenspeicherung aus Google Search Console
    • Täglicher Sync (Klicks, Impressions, CTR, Position)
    • Historischer Import aller 16 Monate von Google
    • Multi-Property Management
    • SCI Index (6 Faktoren: Impressions 25%, Klicks 25%, CTR 15%, Position 20%, Keyword-Diversität 10%, Trend 5%)
    • URL Inspection & One-Click Indexierung via Google API
    • Bulk-Indexierung
    • Automatische Alerts
    • REST-API (ab Agency-Plan)
    • Preise: Starter 10€, Pro 30€, Agency 65€, Business 119€

    Behobene Bugs

    1. Property-Dropdown auf Mobile nicht auswählbar

    Problem: Auf Android (und iOS) konnte das Property-Dropdown im Dashboard nicht bedient werden.

    Lösung: Auf mobilen Geräten wird jetzt ein natives <select>-Element angezeigt, das den Standard-Picker des Betriebssystems nutzt. Auf Desktop bleibt das gewohnte Custom-Dropdown mit Suchfunktion erhalten.

    2. Letzte Property wird nach Logout nicht gemerkt

    Problem: Nach dem Ausloggen und erneutem Einloggen wurde immer die erste Property (alphabetisch) angezeigt statt der zuletzt verwendeten.

    Lösung: Die ausgewählte Property wird jetzt zusätzlich in einem Cookie gespeichert (1 Jahr gültig). Nach dem Login wird automatisch die zuletzt verwendete Property geladen.

    3. "Eingeloggt bleiben" funktionierte nicht richtig

    Problem: Trotz aktivierter Checkbox wurde man nach wenigen Stunden ausgeloggt.

    Ursache: Die PHP Session-Einstellungen (gc_maxlifetime) wurden nicht korrekt gesetzt, wodurch der Server die Session-Daten vorzeitig löschte.

    Lösung:

    • Session-Lifetime wird jetzt korrekt auf 30 Tage gesetzt wenn "Eingeloggt bleiben" aktiviert ist
    • Separates Remember-Me Cookie steuert die Verlängerung
    • Beim Logout wird das Cookie ordnungsgemäß gelöscht

    4. Burgermenü nicht schließbar durch erneuten Klick

    Problem: Das mobile Menü ließ sich nur über das X oder den Overlay schließen, nicht durch erneutes Klicken auf den Burger-Button.

    Lösung: Der Burger-Button funktioniert jetzt als Toggle - ein Klick öffnet das Menü, ein erneuter Klick schließt es.

    Allgemeine Mobile-Verbesserungen

    Zusätzlich zu den Bugfixes wurde das gesamte Tool für mobile Geräte optimiert:

    • Responsive Design für alle Seiten
    • Touch-optimierte Bedienelemente (min. 44px Tap-Targets)
    • Horizontales Scrollen für Tabellen
    • Angepasste Layouts für verschiedene Bildschirmgrößen

    Todo: Weil viele am Anfang nicht klarkommen und Fragen hatten, werde ich kleine Videos erstellen. Da erkläre ich dann das Tool nochmals ausführlich.

    Allerdings: Egal ob Kunde (Free Account) oder jemand der das Tool bucht. Es wird immer Support und persönliche Einweisung geben.

    Hab gestern noch bis knapp 21h supportet. Auch sind mir bestimmte Sachen aufgefallen, die man vereinfachen könnte. zB eine geführte Einrichtung. Das kann allerdings diese Woche nicht mehr umgesetzt werden, das ist einfach zuviel Arbeit - Zeit, die ich nun einteilen muss. Ich denke aber nächste Woche habe ich das soweit mit einem Guided Property Installer, inkl Sitemap, empfohlenen Einstellungen usw.. Das ist ein Feature, etwas aufwändiger, aber für welche die das Tool nicht kennen, einfach wichtig.

    Es kommen immer die gleichen Fragen :) und Einstellungsprobleme.