wmt sehr viele 404 schlecht?

  • Hallo,
    nach einem stätigen abfallen in den google serps haben wir im Zuge eines Websiterelaunch die URL Struktur geändert und 301 Umleitungen eingebaut.


    Der Grund für den Relaunch waren heute massiv illegale Maßnahmen zur Beeinflussung des Rankings, das alles geschah vor meiner Zeit in der Firma von einem externen der uns schon lange nicht mehr betreut. Ich dachte mit dem Relaunch sind wir was Onsite betrifft auf der sicheren Seite.


    Im SI gab es 2 Wochen nach dem Relaunch auch eine kleine aber steile Kurve nach oben!
    Doch eine Woche später ging es bis heute nurnoch langsam aber stetig bergab also suchten wir neue Anhaltspunkte.
    Als ich mir die Anzahl der indexierten Seiten angesehen habe und diese mit der Konkurrenz verglich ist mir aufgefallen das wir ca. 8 mal so viele indexierte Seiten haben obwohl die Website vergleichsweise kleiner ist (weniger angebot).
    da sind wir darauf gekommen das es tatsächlich 7 verschiedene Domains mit geklontem Inhalt gibt die alle samt auf unsere Hauptdomain geroutet waren, und zwar so das jeder link von diesen Klondomains einen extra Parameter an die URL der Hauptdomain anhängte und sich somit die seiten vervielfachten! Müsste dann also Pinguin (linkspam) und Panda (doubled content) gegriffen haben, es viel von Anfang an sehr schwer festzustellen welche Penalty uns erwischt hat, ich nenne es bei uns intern Panduin *** Link veraltet ***


    Leider haben wir das erst vor 2 Wochen erkannt, auf so eine Idee muss man erstmal kommen. Darauf haben wir alle Umleitungen sofort entfernt und die Klondomains deaktivert. Jetzt werfen mir die wmt momentan 1,7 Mio. 404 seiten. Immerhin stimmt nun das Verhältnis der indexierten Seiten!


    Mit dem Ranking geht es nach wie vor abwärts, können also so viele 404 das Ranking auch negativ beeinflussen? oder braucht es noch seine Zeit bis sich der “Panduin” löst? Möglichweise gibt es noch andere verborgene Faktoren
    über eine Antwort würde ich mich freuen,

    hier die Domain:
    *** URL-Filter ****

    lg

  • Wenn die Links zu den nicht mehr existenten URLs nicht mehr vorhanden sind, kann man nur noch in den WMTs melden das der Fehler behoben ist. Dann heißt es zu diesem Arbeitsbereich nur noch warten.

    Der sprunghafte Anstieg wird durch die "neuen" Inhalte gekommen sein, die wertet Google anfänglich etwas besser. Hatte ich auch mal mit einem Preisvergleich. 150'000 Seiten in den Index geblasen, 3 Wochen 1000 Besucher pro Tag - war nett. Seitdem ist aber Ruhe im Karton. Halt keine Inhalte und immernoch keine Inhalte.

    Fehler beseitigen, den Prozess in den WMTs melden. Evtl. noch die nicht mehr existierenden Unterseiten aus dem Index über die WMTs löschen lassen.

  • danke erstmal für die Antwort,

    also die links sind und bleiben dauerhaft entfernt da sie ja wie gesagt von diesen klondomains kommen, mir bleibt wohl nichts anderes übrig als die 404 meldung als korrigiert zu markieren, blöderweise kann man nur max 1000 täglich makieren

    und hast du auch Erfahrungen bezüglich wie Google darauf reagiert wenn eine Seite plötzlich extrem viele 404 bekommt?
    Kann mir gut vorstellen das die Suchmaschine das als unnatürliches verhalten einstuft, aber ich vermute das ich sowieso in einer Penalty hänge es sollte eigentlich helfen und nicht schlechter werden.

  • 1.7 MIO 404er sind ja mal ne stramme Ansage :yes:

    Die dürften sich aber doch recht bald mal in Luft auflösen, wenn Du ne neue Sitemap hast und dafür sorgst, das auch keine anderen Websiten mehr mit seltsamen Parametern auf die "richtige" Site linken.
    Ansonsten könntest Du vielleicht die Hauptmasse per .htaccess abfangen, indem Du die per 301-Header sauber auf eine Fehler-Seite weiterleitest?

    Wer zuerst "Datenschutz" sagt, hat verloren.

  • nee das wäre nicht empfehlenswert. geht aber. statt 404 ein 301 auf hauptseite bspw.
    eher dachte ich an redirect von alte auf neue seite. bei so einer masse müssen das rules machen.
    dsa geht bei unterschiedlichen domains ganz gut, aber auch anders.
    klondomains sollten kein problem sein, habe ich auch gehabt. ( absichtlich ;) )

    wenn etwas möglich erscheint mach ich das, wenn das nicht klappt gehts ans unmögliche und ansonsten das undenkbare.

    - nun stolz rauchfrei - Ich denke also Bing ich!

    Support 24h Bereitschaft 0173 6107465 - NUR Für Kunden von SEO NW!

  • Ok danke erstmal für eure Antworten,

    ich habe nun das canonical tag für alle Seiten in Verwendung und die Sitemap nicht nur auf die wichtigsten Seiten sondern auf alle Unterseiten erweitert (statt 13.00 nun 260.000 seiten) und es wurden bereits sehr viele davon indexiert.

    [ATTACH=CONFIG]820[/ATTACH]

    Es ist leider so das unser Hauptkey komplett verschwunden ist. Nach dem Relaunch war es 2 Woche wieder auf Seite 14 zu finden (immerhin) und nun wieder verschwunden und die Sichtbarkeit sinkt von Woche zu Woche, langsam aber stetig.

    Unsere bisherigen Gegenmaßnahmen: Mehr Content auf der Startseite und wichtigen Unterseiten der aber zugleich auch irgendwo nützlich für den User ist, z.B. Kaufvertrags-Vorlagen zum downloaden als pdf und momentan Verlinkungen zu den FAQ wo Fragen auftauchen könnten (wurde bisher nicht gemacht). Einfach gesagt Usability und Keyworddichte erhöht.

    Ich habe den Eindruck ein äußerer Faktor belastet unsere Seite. Wie gehe ich am besten vor oder habt ihr dennoch Vorschläge für die Seite selbst?

    lg

  • Zitat

    da sind wir darauf gekommen das es tatsächlich 7 verschiedene Domains mit geklontem Inhalt gibt die alle samt auf unsere Hauptdomain geroutet waren, und zwar so das jeder link von diesen Klondomains einen extra Parameter an die URL der Hauptdomain anhängte und sich somit die seiten vervielfachten!

    Würde ich erst einmal nicht als so dramatisch ansehen - nicht schön, aber kein KO Kriterium.

    Zitat

    Darauf haben wir alle Umleitungen sofort entfernt und die Klondomains deaktivert.


    Hier würde ich den Fehler sehen - deaktivieren bedeutet, dass alle Besucher von dort wegfallen. Alle auf die Startseite der Hauptdomain umleiten oder die Startseiten dieser Domains neu gestalten und mit dem Hinweis und Link versehen, dass sie unsere Angebote unter .... finden, wäre vermutlich mein Weg gewesen.
    Vielleicht wäre es auch günstiger gewesen einen der Klones als Hauptdomain zu plazieren.

    Aber das ist alles so ein bissel im Kaffeesatz lesen ohne die Historie und die Domain selber genau zu kennen. Wenn ich aber lese, dass das Hauptkey verschwunden ist, longtail aber nicht, dann suche die Ursache in der Verlinkung - soweit ich das Beurteilen kann, hat Schnipsel da nachweisbare Erfolge in der Penaltybekämpfung.
    Tipp, er telefoniert gerne ;)

    Frei nach Dieter Nuhr
    Das Internet ist zum Lebensraum der Dauerbeleidigten geworden, die immer einen Grund finden, anderen irgendetwas vorzuwerfen, um sich selbst moralisch zu erhöhen.

  • Muss mich hier auch mal zu Wort melden, da meine Sache damals ja ziemlich identisch war bzw. teilweise noch ist.

    Folgendes: 1.7 Mio Links bei den "404", was tun damit. Da stand ich auch, aber nicht mit 1.7 Mio, sondern "nur" mit 1.3 ;)

    Das ist einfach zu viel und das bekommt man nicht mehr wirklich geregelt. Man muss hier also Prioritäten setzen und unterscheiden zwischen "Google" und "Besucher".

    Alles auf die Startseite weiterleiten: mache es nicht!

    Lösungsansatz, der aus mehreren Teilen besteht:
    Leite alte URLs an neue Ziele weiter, wenn das möglich ist. Aber Achtung: Leite nur eine URL an ein Ziel weiter. Also nicht 10 alte URLs an eine neue. Die Folge hier wäre nur, dass die zwar aus den "404-Fehlern" verschwinden, aber später dann in den "Soft-404-Fehlern" erscheinen.

    Also, wenn weiterleiten, dann immer 1 zu 1. Das machst Du mit den wichtigsten Seiten, wenn es möglich ist.

    Das war jetzt für Google und für Besucher.

    Die restlichen Links, also alle, die nicht 1 zu 1 weitergeleitet werden, die bleiben als 404 stehen und werden auch entsprechend als 404 beantwortet. Lass Dir hier nicht einfallen, die auf die Startseite zu leiten, auf eine andere Seite oder gar einen 200 zu senden. Die bleiben einfach 404.

    Das ist das beste, was Du für Google machen kannst! Für Besucher kannst Du hier allerdings noch etwas tun, indem Du nicht diese normale doofe 404-Seite hast, sondern was spezielles für Besucher, so dass die auch direkt wieder weiter kommen und direkt wissen was wo zu finden ist. Noch besser wäre es, wenn Du das dynamisch lösen könntest und quasi die 404-Seite dynamisch auslieferst. So könntest Du bei jedem fehlerhaften Zugriff direkt drauf reagieren und entsprechende Verweise einbinden, denen der Nutzer dann direkt folgen kann. Somit wäre das für den nur ein einziger Klick mehr und Google wäre auch "zufrieden". Hier würde es auch keine Rolle spielen, wenn der Ziellink mehrfach ist, da es eben nur ein Link auf einer 404-Seite ist und keine Weiterleitung.

    Canonical: Ist auch nicht unbedingt eine gute Lösung. Es ist ohnehin schon so, dass die Nutzung freiwillig ist und oft nicht funktioniert. Bei mir zeigte sich jedoch, dass je mehr Canonical auf eine Seite verweisen, der jeweilige Canonical immer seltener beachtet wird.

    Anmerkung zu 404-Fehler und Soft-404:

    Die Soft-404-Fehler verschwinden nicht von alleine aus der Liste. Die verschwinden nur, wenn daraus ein echter 404 gemacht wird.

    Die 404 hingegen verschwinden von selbst, wenn es ansonsten keine Verlinkungen mehr auf die Seiten gibt. Das dauert aber und kann schon im Bereich 3 Wochen bis 6 Monaten liegen. Nachhelfen kannst Du nur, indem Du die Fehler als "korrigiert" markierst, wobei das aber auf 1000 pro Tag limitiert ist. Und ja, bei 1.7 Mio Links und 1000 möglichen Markierungen am Tag, wobei Google ja auch bereits markierte teilweise wieder finden wird, ich weiß wie lange das dauert - wie gesagt, hatte das gleiche Spiel.

    Wenn ein Mensch nicht um dich kämpft, hat er nur gewartet, dass du gehst. ;(

  • @syno, in der Größenordnung weiß ich es nicht, aber wenn die komplette Domain1 auf eine Seite von Domain 2 weitergeleitet werden, verschwinden die 404 für Domain1 und die Meldung für Domain1 kommt"der Bot hatte keinen Zugriff". Die lässt sich bestimmt auch umgehen in dem die index nicht umgeleitet wird, aber das habe ich noch nicht probiert.

    Aber ich habe eh meine Zweifel, dass das was mit den Serps zu tun hat, weil das rankingproblem, soweit ich es verstanden habe, ja den hauptkey betrifft. Da stellt sich noch die Frage ob es eine keyworddomain betrifft.

    Frei nach Dieter Nuhr
    Das Internet ist zum Lebensraum der Dauerbeleidigten geworden, die immer einen Grund finden, anderen irgendetwas vorzuwerfen, um sich selbst moralisch zu erhöhen.

  • Synonym,

    danke für den Tipp, das macht Sinn!

    Zitat von guppy;47612

    @syno, in der Größenordnung weiß ich es nicht, aber wenn die komplette Domain1 auf eine Seite von Domain 2 weitergeleitet werden, verschwinden die 404 für Domain1 und die Meldung für Domain1 kommt"der Bot hatte keinen Zugriff". Die lässt sich bestimmt auch umgehen in dem die index nicht umgeleitet wird, aber das habe ich noch nicht probiert.

    Aber ich habe eh meine Zweifel, dass das was mit den Serps zu tun hat, weil das rankingproblem, soweit ich es verstanden habe, ja den hauptkey betrifft. Da stellt sich noch die Frage ob es eine keyworddomain betrifft.

    es betrifft alle Keys, einige wenige sind noch unter den Top 40 allerdings keines unter den ersten 10, das Hauptkey ist komplett verschwunden