Beiträge von schmidl

    Synonym,

    danke für den Tipp, das macht Sinn!

    Zitat von guppy;47612

    @syno, in der Größenordnung weiß ich es nicht, aber wenn die komplette Domain1 auf eine Seite von Domain 2 weitergeleitet werden, verschwinden die 404 für Domain1 und die Meldung für Domain1 kommt"der Bot hatte keinen Zugriff". Die lässt sich bestimmt auch umgehen in dem die index nicht umgeleitet wird, aber das habe ich noch nicht probiert.

    Aber ich habe eh meine Zweifel, dass das was mit den Serps zu tun hat, weil das rankingproblem, soweit ich es verstanden habe, ja den hauptkey betrifft. Da stellt sich noch die Frage ob es eine keyworddomain betrifft.

    es betrifft alle Keys, einige wenige sind noch unter den Top 40 allerdings keines unter den ersten 10, das Hauptkey ist komplett verschwunden

    Ok danke erstmal für eure Antworten,

    ich habe nun das canonical tag für alle Seiten in Verwendung und die Sitemap nicht nur auf die wichtigsten Seiten sondern auf alle Unterseiten erweitert (statt 13.00 nun 260.000 seiten) und es wurden bereits sehr viele davon indexiert.

    [ATTACH=CONFIG]820[/ATTACH]

    Es ist leider so das unser Hauptkey komplett verschwunden ist. Nach dem Relaunch war es 2 Woche wieder auf Seite 14 zu finden (immerhin) und nun wieder verschwunden und die Sichtbarkeit sinkt von Woche zu Woche, langsam aber stetig.

    Unsere bisherigen Gegenmaßnahmen: Mehr Content auf der Startseite und wichtigen Unterseiten der aber zugleich auch irgendwo nützlich für den User ist, z.B. Kaufvertrags-Vorlagen zum downloaden als pdf und momentan Verlinkungen zu den FAQ wo Fragen auftauchen könnten (wurde bisher nicht gemacht). Einfach gesagt Usability und Keyworddichte erhöht.

    Ich habe den Eindruck ein äußerer Faktor belastet unsere Seite. Wie gehe ich am besten vor oder habt ihr dennoch Vorschläge für die Seite selbst?

    lg

    danke erstmal für die Antwort,

    also die links sind und bleiben dauerhaft entfernt da sie ja wie gesagt von diesen klondomains kommen, mir bleibt wohl nichts anderes übrig als die 404 meldung als korrigiert zu markieren, blöderweise kann man nur max 1000 täglich makieren

    und hast du auch Erfahrungen bezüglich wie Google darauf reagiert wenn eine Seite plötzlich extrem viele 404 bekommt?
    Kann mir gut vorstellen das die Suchmaschine das als unnatürliches verhalten einstuft, aber ich vermute das ich sowieso in einer Penalty hänge es sollte eigentlich helfen und nicht schlechter werden.

    Hallo,
    nach einem stätigen abfallen in den google serps haben wir im Zuge eines Websiterelaunch die URL Struktur geändert und 301 Umleitungen eingebaut.


    Der Grund für den Relaunch waren heute massiv illegale Maßnahmen zur Beeinflussung des Rankings, das alles geschah vor meiner Zeit in der Firma von einem externen der uns schon lange nicht mehr betreut. Ich dachte mit dem Relaunch sind wir was Onsite betrifft auf der sicheren Seite.


    Im SI gab es 2 Wochen nach dem Relaunch auch eine kleine aber steile Kurve nach oben!
    Doch eine Woche später ging es bis heute nurnoch langsam aber stetig bergab also suchten wir neue Anhaltspunkte.
    Als ich mir die Anzahl der indexierten Seiten angesehen habe und diese mit der Konkurrenz verglich ist mir aufgefallen das wir ca. 8 mal so viele indexierte Seiten haben obwohl die Website vergleichsweise kleiner ist (weniger angebot).
    da sind wir darauf gekommen das es tatsächlich 7 verschiedene Domains mit geklontem Inhalt gibt die alle samt auf unsere Hauptdomain geroutet waren, und zwar so das jeder link von diesen Klondomains einen extra Parameter an die URL der Hauptdomain anhängte und sich somit die seiten vervielfachten! Müsste dann also Pinguin (linkspam) und Panda (doubled content) gegriffen haben, es viel von Anfang an sehr schwer festzustellen welche Penalty uns erwischt hat, ich nenne es bei uns intern Panduin *** Link veraltet ***


    Leider haben wir das erst vor 2 Wochen erkannt, auf so eine Idee muss man erstmal kommen. Darauf haben wir alle Umleitungen sofort entfernt und die Klondomains deaktivert. Jetzt werfen mir die wmt momentan 1,7 Mio. 404 seiten. Immerhin stimmt nun das Verhältnis der indexierten Seiten!


    Mit dem Ranking geht es nach wie vor abwärts, können also so viele 404 das Ranking auch negativ beeinflussen? oder braucht es noch seine Zeit bis sich der “Panduin” löst? Möglichweise gibt es noch andere verborgene Faktoren
    über eine Antwort würde ich mich freuen,

    hier die Domain:
    *** URL-Filter ****

    lg