• Phantom Update und ich hab auf einer Seite ein kleines Pandaproblem :wall:.... Text, Fotos und Videos drauf alles unique und wech ist sie. Andere Unterseite 50 Wörter und rankt wie sau... :fluch: Ups gleich noch mal ergänzen li Spam kommt nicht so gut :grins:

    Hast zu der Li-Sache noch ein paar mehr Infos? Warum ich frage? Da ich genau das erst die letzten Monate fast alles auf <ul> umgestellt habe. Also die Listenansichten der Unterkünfte, die Ausstattungsmerkmale der einzelnen Objekte oder eben die Seitenzahlen (Pagination). Das waren vorher alles floatende <div>. <ul> kam mir aber logischer vor.

    Und Du meinst nun Phantom-Update?

    Wie schauts denn mit der These "onpage" aus? Ich für meine Fall müsste das nämlich leider komplett verneinen bzw. sehe auf allen Seiten genau das Gegenteil. Die Detailseiten sind teilweise 10fach im Netz, die ranken. Die Unterkunftslisten gibt es bis 5fach, die ranken auch. Und mit ranken meine ich, die steigen. Andere Domänen, Rosen, Geranien, Kalender, Halloween, die komplett unique sind, die fallen.

    Habe heute auch mal spaßeshalber bei einer Unterkunftsliste, wo nur die Liste war, kein eigener Text, einen Text zu geschrieben. Mit meiner Wunsch-Kombi stand ich seit Monaten auf P7. Kaum hatte Google den neuen Text erfasst und einen neuen Cache gebildet war ich auf P10. Habe das eben noch mal gemacht, gleiche Domain, Kombi wieder P7 bisher und stabil. Mal sehen, was jetzt passiert. Muss aber sagen, dass ich in den letzten Monaten bei der Domain schon mehrfach Texte hinzugefügt hatte. Gardasee, Schwarzwald, Erzgebirge, Nordfriesland, Rügen, Bodensee, Harz etc... Und alle Positionen sind zwischen 2 bis 3 gefallen. Die waren vorher alle in den Top5, jetzt zwischen 5-10 und der Einbruch kam in der Regel direkt wenige Tage nach dem Text.

    Wenn ein Mensch nicht um dich kämpft, hat er nur gewartet, dass du gehst. ;(

  • https://seo-nw.de/forum/geschlos…-extended-query :yes:

    Ich verstehe das leider auch nicht, aber es funktioniert. Vielleicht ist das sogar logisch.

    Wegen UL/LI das setze ich auch ein ( gerne ) da kann ich aber nix zu sagen weiter. Gehört einfach zu HTML Strukturierung dazu..

    wenn etwas möglich erscheint mach ich das, wenn das nicht klappt gehts ans unmögliche und ansonsten das undenkbare.

    - nun stolz rauchfrei - Ich denke also Bing ich!

    Support 24h Bereitschaft 0173 6107465 - NUR Für Kunden von SEO NW!

  • Ja, so dachte ich es mir mit eigentlich auch. Eine Liste an Unterkünften ist eine Liste, also <ul> und keine Anreihung von <div>. Oder Ausstattungen in der Küche. Alles was da kommt ist eine Aufzählung, also ein Liste. Daher die Frage an Wabse.

    Wenn ein Mensch nicht um dich kämpft, hat er nur gewartet, dass du gehst. ;(

  • Phantom-Update geht auch eher auf onpage sachen.

    Doppelte inhalte ranken auch nur nicht unique Texte die sind 1-2 Seiten weiter hinten zu finden.
    Mag google keine einzigartige Texte? So kommt es mir vor.

    Ich hatte bezüglich den ul/li zuviel !
    Also fast nur die Auszeichnung li verwendet.
    Da muss ich nun mal umbauen und in div, p, ol, ul, li also alles was das Herz öhm google begehrt :grins:

  • Also irgendwie kann ich das bestätigen, aber irgendwie auch nicht, oder es ist noch was anderes bei mir am laufen.

    Meine Hunde-Seite fällt ständig, langsam, aber fällt. Und mit ständig meine ich einen Trend von über einem Jahr. Also, Gegenangriff, denn DC ist in den Listen ja in der Tat genug vorhanden. Neue Texte rein, unterschiedlich aufgebaut. Manche mit Bildern, manche ohne. Bilder mal als reines <img> in nem Div, dann mal als <figure>, mal mit und mal ohne Beschreibung im Sinne von <hx> oder eben <figcaption>. Manche Texte länger, manche kürzer und das alles miteinander kombiniert.

    Was soll ich sagen? ALLE Seiten, die neue Texte haben vielen plötzlich noch stärker, also im Sinne von P4 auf P13. Da sind die nun aber schon seit Wochen. Die ohne Texte fallen in der Regel "nur" um einen Platz, schleichend eben.

    Gleichzeitig sehe ich eine Seite, die z.B. weit vor mir zu einer Kombi rankt, die auf der Unterseite aber nur DC hat und das sogar noch als Quelle xy benennt. Die eigentliche Quelle befindet sich aber weit hinter mir.

    So langsam glaube ich auch, dass Google ein Problem mit unique hat. So im Sinne von, zu viel Neues, kann ich nicht einordnen. Kopien sind einfacher, die lassen sich leichter "strukturieren".

    Wenn ein Mensch nicht um dich kämpft, hat er nur gewartet, dass du gehst. ;(

  • Zitat

    Was soll ich sagen? ALLE Seiten, die neue Texte haben vielen plötzlich noch stärker, also im Sinne von P4 auf P13.

    Mir ist aufgefallen, dass es ganz wichtig ist in den ersten 100 Wörtern seine Keys, Keykombies drin zu haben. So grob, die ersten 400 Wörter werden mit Keys ausgewertet, danach (so finde ich) ist der Content wichtig den User zu halten / zu einer Reaktion (intern weiter klicken / kaufen / Video anschauen / Bildergalerien anzusehen) zu bewegen. Webseiten mit einem sehr häufigem Absprung nach Ansicht einer Seite, verlieren bei mir merklich an Boden. Seitenansichten von 4-10 im Schnitt halten sich. Mit dem langsamen Verlust habe ich auch teilweise, führe es jedoch auf den Linkaufbau der anderen Webseitenbetreiber zurück.

    Auf die Wortanzahl komme ich durch meine Foren, die haben ja teilweise einen SeitenWortanschlag von 10`000 Wörtern. Und alles was nicht zu Beginn wörtlich ausgedrückt wurde, kann ich in den Googlesuchergebnissen nicht vorfinden.

    Baue mittlerweile auch massiv Content auf.. Podcasts fehlen mir noch. :D

    Generell wenn Content schon rankt, tausche ich ihn eigentlich nicht aus, sondern bereinige ihn von Fehlern und erweitere ihn lieber.
    Bin auch davon abgekommen, z.B. Bildergalerien vor dem Content anzuzeigen. Vor den Bildern, mit denen man interagieren kann stehen mittlerweile so 100-200 Wörter, wenn es auf die Galerien gehen soll ansonsten wie es eben Sinn macht.

  • Auch so, das ist dann wohl was anderes oder falsch rüber gekommen. Wie meinst Du das denn mit den 400 Wörtern? Klar, die Keys so weit oben wie es geht, aber der neue Text steht am Ende der Seite. Oben sind die Unterkünfte, der eigentliche Inhalt der Seite (Produktliste). Der Text darunter soll das dann auflockern. Austauschen tue ich auch keinen. Die sind neu dazu gekommen.

    z.B der Text hier unten: *** Link veraltet ***
    Seit dem 8 Plätze zurück

    oder der hier: *** Link veraltet ***
    Einer ohne Bilder, Zwischenüberschriften oder sonst was. 9 Platze zurück.

    oder *** Link veraltet ***
    5 Plätze zurück

    oder
    *** Link veraltet ***
    von 2 auf 4

    *** Link veraltet ***
    von 2 auf 6

    Wenn ein Mensch nicht um dich kämpft, hat er nur gewartet, dass du gehst. ;(

  • Ja genauso meine ich den Aufbau einer einzelnen Seite. Seite 2 hat bei dir halt immernoch den Einstiegstext, was ich nicht gut finde.

    Hast du einen Zeitraum, wann du den Text geändert hast bis quasi jetzt? Wenn ich einen Text merklich erweiterte, hatte ich auch schon einmal einen Verlust von 9 Plätzen. Nach spätestens 3-4 Wochen war die Seite wieder auf dem alten Platz - aber rankte bisher nie besser.

    Alle Sätze nach den grob 400 Wörtern kann ich kopieren und bei Google in den Suchschlitz reinkopieren - Google gibt kein Ergebnis aus. Diese Wortanzahl variiert nach Domainstärke (denke ich), manchmal fand er auch Textpassagen nach 750 Wörtern oder auch 1000. Ich führe es auf die eingehende Linkstärke zurück, wieviel Relevanz Google den einzelnen Texten zuweist.

  • Einen Zeitraum habe ich für jeden Text. Aber wie gesagt, nicht geändert, hinzugefügt. Unter den Listen ist sonst nichts. Die ersten Texte sind gut 3 Wochen alt. Ich beobachte das dann alle 30 Minuten, im Schnitt. Sobald Google den neuen Cache gebildet hat geht es abwärts. Erst mal einen Schritt und dann 2-3 Tage später einen weiteren. Die Verluste sind also alle aus "vor 3 Wochen" oder "gestern". Und es betrifft alle Kombis einer Region, also nicht nur das eigentlich angedachte. Zu "Bodensee" habe ich an die 30 in Erfassung und alle vielen, die anderen ebenso. Die durchschnittliche Position laut WMT ist ebenso eingebrochen.

    Das mit den Wörtern ist interessant... Google hat ein Limit, ab wann es Texte nicht mehr aufnimmt, aber das liegt viel viel höher. Habe ich aber auch teilweise überschritten. Ein Text, etwa 1600 Wörter, der wird gefunden.

    *** Link veraltet ***

    Seite: *** Link veraltet ***

    Aber ja, es gibt ein Limit, das habe ich schon bemerkt und wurde ja auch irgendwo bestätigt.

    Zitat

    Seite 2 hat bei dir halt immernoch den Einstiegstext, was ich nicht gut finde


    Genau hier habe ich nun ein Problem bzw. weiß nicht, was ich machen soll, kann, darf. Auf allen anderen Domänen arbeite ich mit rel "prev next", bei hund-und-herrchen nicht. Da änderte ich nichts, nur Layout und SSL und eben jetzt die neuen Texte und Artikel. An hund-und-herrchen was wirklich zu ändern ist wie eine Operation am offenen Herzen. Die Domain hält mich über Wasser, aber sie fällt eben immer weiter. Hm, kann mich also irgendwie entscheiden, langsam schwimmen und dann absaufen oder gleich ertrinken.

    Ich konnte aber auf den anderen Seiten mit "prev next" auch keine Besserung feststellen, obwohl das teilweise schon Jahre oder eben erst Wochen zurück liegt. An hund-und-herrchen was zu testen, ist ein NoGo. Aber ja, es macht mir auch Gedanken, Es ist interner DC. "prev next" soll das eigentlich verhindern, aber ich habe genug Beispiele, wo dem nicht so ist. Und bei hund-und-.herrchen sind viele Einstiege, die auf Seite 3 oder X erfolgen. Wären die auch nicht, wenn ich "prev next" einsetze?

    Wenn ein Mensch nicht um dich kämpft, hat er nur gewartet, dass du gehst. ;(

  • "Das mit den Wörtern ist interessant... Google hat ein Limit, ab wann es Texte nicht mehr aufnimmt, aber das liegt viel viel höher. Habe ich aber auch teilweise überschritten. Ein Text, etwa 1600 Wörter, der wird gefunden."
    Wie gesagt, das war bei meinen Foren so, als ich mich damit beschäftigte. Ich seh zu das die Keys drin sind und ab 400 Wörtern mache ich mir über Keyworddichte / Verhältnisse überhaupt keine Gedanken mehr, sondern sehe zu einen Mehrwert zu bieten. Vom Textaufbau sehe ich mir immer gern Welt / Spiegel etc an, dieser Aufbau ist m.M.n. optimal.

    Prev next verstehe ich nicht schaue ich mir morgen an, hatte ich bisher bewusst aber nie eingesetzt?!

    Ja mit dem NoGo ist verständlich. :) Deswegen hatte ich ja z.B. auch den Shop hochgezogen, welchen ich hier vorstellte, um zu testen, testen, testen und dann auf den alten Shop anzuwenden.

  • Prev Next ist eigentlich für Produktlisten gedacht, die pageniert sind, also im Grunde immer gleich sind und eben nur aus Listen bestehen. Angeblich würde Google mit "Prev Next" so die "Serie" leichter erkennen und die Unterseiten samt deren Inhalte der ersten Seite zuordnen und eben nicht jede einzeln betrachten.

    Seite1:
    next -> seite2

    Seite2:
    prev -> seite1
    next -> seite3

    usw.

    Sehe gerade, hier im Forum ist es auch drinnen.

    Code
    <link rel="prev" href="[URL="https://seo-nw.de/view-source:https://seo-nw.de/forum/suchmaschinenoptimierung/google-forum/109238-google-serp-update/page4"]https://seo-nw.de/forum/suchmaschinenoptimierung/google-forum/109238-google-serp-update/page4[/URL]" />

    Wird auch oft in Artikelverzeichnissen verwendet im Sinne von vorheriger bzw. nächster Artikel. Dort ist es aber dann falsch eingesetzt, denn die Artikel können ja ganz unterschiedlich sein.

    Wenn ein Mensch nicht um dich kämpft, hat er nur gewartet, dass du gehst. ;(