Bei Google braut sich was zusammen

  • Ich glaube bei Google steht das nächste große Update an. Seit Tagen gibt es kaum Ranking Veränderungen. Das wird sich vielleicht bald ändern:


    Zitat

    Eingeschränkte Funktionalität: Wir nehmen in den nächsten Tagen einige Aktualisierungen vor. In dieser Zeit kannst du keine neuen Überprüfungsanforderungen einreichen.

    Da bin ich mal gespannt...

    wenn etwas möglich erscheint mach ich das, wenn das nicht klappt gehts ans unmögliche und ansonsten das undenkbare.

    - nun stolz rauchfrei - Ich denke also Bing ich!


    Support 24h Bereitschaft 0163 2161604 - NUR Für Kunden von SEO NW!

  • Na dann, sei mal gespannt. Hat nämlich nix mit einem Algo-Update oder so zu tun, nur mit Änderungen in der SC.


    Genauer gesagt damit:


    Angekündigt im Juni 2022. Und nun am 1.8. bestätigt, dass die Anpassung nun stattfinden:


    "We're preparing to migrate all Search Console properties to the updated item classification in approximately 2 weeks. In order to do it smoothly, we are going to disable task validation of index coverage issues until we finish the migration. Thanks for your understanding."


    Externer Inhalt twitter.com
    Inhalte von externen Seiten werden ohne deine Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklärst du dich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.

  • Naja, eben die beiden verlinkten Seiten zwischendurch mal lesen und die anderen 3 oder 4 bekannten auch, dann hat man eigentlich alles an Infos, was man braucht.


    Und in den letzten zwei Tagen war es alles andere als still. Davor mal eine Woche, endlich, nach gefühlt 4 Monaten Dauersturm. Zuletzt kamen die Updates für die Product Reviews. Neue Webmaster-Richtlinien gibt es auch, dort vor allem neu, wie Google Überschriften interpretiert und erkennt. Und mit Überschriften mein Google nun NICHT MEHR H1-H6. Das kann nun alles im Text sein, in den Richtlinien einfach als "headings" bezeichnet. Kann auch ein stink normaler Text sein, irgendwo auf der Seite, wenn dessen Layout aus der Seite hervorsticht. In dem Fall sieht Google dann den Text / Satz als "heading" an und nicht die eventuell vorhandene H1 oder H2.


    Und es gab Updates in Sachen strukturierte Daten, EAT und YMYL. Und und und... Mist, wenn ich darüber nachdenke, dann war zwar in den Serps weniger Bewegung, Updates gab es aber quasi jeden Tag.


    In Sachen Product Reviews, also alle Seiten mit Produktbewertungen / Vorstellungen, wurden die strukturierten Daten geändert. Auch die Bedingungen, was genau so eine "Bewertung", ein Review, enthalten muss. So werden z.B. Seiten, die Tests suggerieren, aber keine eigenen Tests enthalten, mit allen Punkten, die die Richtlinien vorgeben, abgewertet (sollen es zumindest). Zu den "muss es haben"-Dingen zählen unter anderem: Man muss den Gegenstand selbst besitzen. Eigene Fotos nutzen. Vergleiche mit anderen, ähnlichen Produkten anstellen etc. Das reine Kopieren von Herstellerdaten oder einfache Schreiben von irgendwelchen Texten, ohne irgendeinen Nachweis, dass man das Produkt auch besitzt, wird nicht mehr akzeptiert. Zum "Nachweis" zählen unter anderem eben eigene Fotos und Videos, die quasi zeigen, dass man das vorgestellte Produkt auch überhaupt besitzt oder zumindest hatte, um dazu einen Test zu schreiben.


    Dazu gehören auch "Pros and cons", wobei hier nun anders veranlagt, denn die haben ein extra "Update". Diese müssen nicht mehr unbedingt ausgezeichnet werden (aber sollten), denn Google macht das nun scheinbar von alleine, auch wenn keine ausgezeichnet sind und stellt das in den Suchergebnissen mit dar.


    Edit: Es gab auch Änderungen bei der Suche nach "quoted Strings"... Das ging ja eine Zeit lang nicht oder nur sehr fragwürdig. Viel besser ist es nicht, aber Google machte eine Änderung bekannt.


    How we're improving search results when you use quotes
    How snippets in Google’s search results are being improved by forming them around where quoted words or phrases occur in a web document.
    blog.google


    Upps.... Noch eine andere Seite....


    Neue Quality Rater Guidelines gibt es auch: https://static.googleuserconte…tyevaluatorguidelines.pdf


    Und auch neue Anweisungen, wie die zu handhaben sind: https://services.google.com/fh/files/misc/hsw-sqrg.pdf

  • Achso, gestern vergessen.... Bei Seiten wie https://developers.google.com/search/blog immer die Sprache auf Englisch umstellen, zumindest zeitweise. Der Artikel zu den "Pros und Cons" befindet sich nämlich im "Archiv" für "August 2022". Auf der deutschen Version gibt es das aber gar nicht, da hört es im Juli 2022 auf. Selbst auf der Blog-Startseite mit den "neuesten Artikeln" sind solche Beiträge nicht zu finden, wenn man die deutsche Sprache nutzt. Man bekommt sie also noch nicht mal als "in anderer Sprache" vorgeschlagen. Die erscheinen erst viel später, wenn sie übersetzt wurden. Manche auch gar nicht, wenn es nie eine Übersetzung gab.


    Direktlinks zu solchen Artikel gehen immer. Nur dann wird es wirr. Dann ist der Artikel in Englisch, alles andere inkl. Navi auch, aber die Spachauswahl ist dennoch auf Deutsch eingestellt. Klickt man dann was anderes an, dann wechselt der Artikel, auch die Sprache in der Ansicht, also dann richtigerweise auf Deutsch, aber dann ist der Artikel verschwunden, den man vorher noch in Englisch hatte.


    Deutsch:


    Englisch:


    Startseite:



  • Neue Webmaster-Richtlinien gibt es auch, dort vor allem neu, wie Google Überschriften interpretiert und erkennt. Und mit Überschriften mein Google nun NICHT MEHR H1-H6. Das kann nun alles im Text sein, in den Richtlinien einfach als "headings" bezeichnet. Kann auch ein stink normaler Text sein, irgendwo auf der Seite, wenn dessen Layout aus der Seite hervorsticht. In dem Fall sieht Google dann den Text / Satz als "heading" an und nicht die eventuell vorhandene H1 oder H2.

    Da werden jetzt einige Leute ziemlich hektisch werden :)

    Wer zuerst "Datenschutz" sagt, hat verloren.

  • So, die Meldung in der GSC ist weg und die Prüfung geht wieder.


    Google hat hier auch gleich was zu meckern, eben Mail erhalten.


    In der Mail steht drei mal: *Wichtigste kritische Probleme*


    Aha... In der GSC steht aber: "Das ist ein nicht kritisches Problem. Elemente mit diesem Problem sind gültig."


    Aha, was denn nun? Kritisch oder nicht?


    Dann steht in der Mail noch:


    ... wurden die folgenden kritischen Probleme gefunden: * Fehlerhafter Aufbau: "," oder "]" fehlt in Array-Beschreibung


    Aha noch mal... Nachgugg. Da fehlt weder ein , noch ein ], da fehlt gar nichts.


    Fehlerbeschreibung in der GSC: Ungültige URL in Feld "id" (in „itemListElement.item“)


    Aha aha, nochmal aha.... Ungültige URL im Feld "id" also. Zeigt es mir in der Übersicht auch an "ID (optional): Fehler". Super gemacht Google. In meinem Markup kommt überhaupt keine ID vor ?!?!!?


    Genau genommen steht da:


    <script type="application/ld+json">

    {

    "@context": "https://schema.org",

    "@type": "BreadcrumbList",

    "itemListElement": [

    {

    "@type": "ListItem",

    "position": 1,

    "name": "Alle über Weihnachten",

    "item": "domain/feiertage/weihnachten/thema_mit_Hund/seite_1_1.html"

    },

    {

    "@type": "ListItem",

    "position": 2,

    "name": "Nordsee",

    "item": "domain/feiertage/weihnachten/region_Nordsee/seite_1_1.html"

    }

    ]

    }

    </script>


    Also weder ein fehlendes Zeichen, noch ein falsch befülltes Feld "id". Warum Google die URL von Item einem nicht vorhandenem "ID" zuordnet, das weiß wohl nur Google.


    Live-Test der Site? Geht nicht. Wird fehlerfrei abgerufen und dann kommt: "Keine Elemente erkannt. Keine Rich-Suchergebnisse in dieser URL erkannt."


    Hm.... Wie können "Keine Elemente" so wirre Fehler verursachen?


    Achso, es wurde ja mal wieder was verbessert am System. Vielleicht kann mir ja einer erklären, wie in so wenig Text da oben so viele Fehler und Widersprüche sein können.

  • Bist Du Dir sicher? Quelle?


    Den Ausschlag beim Sensor würde ich nicht so ernst nehmen, denn es heißt, das sei aktuell nur ein Problem mit der Suche. Und der Grund dafür unter anderem das gleiche wie die gestrigen Ausfälle mehrerer Dienste: Eine Explosion in einem Datencenter in Iowa mit anschließendem Ausfall und Umrouten von Diensten auf andere Center.


    Ist mir heute Morgen aber irgendwie auch aufgefallen und da dachte ich noch, na super, was das für ein Mist. Bei mir hier schaut das aus, als ob die aktuellen Daten / Suchergebnisse schon mehrere Wochen alt sind.


    Explosion at Google injures three, disrupts services
    Search, Maps and YouTube later suffer brief outages - nothing as concerning as the injuries suffered by workers
    www.theregister.com

  • Google scheint sich wieder eingependelt zu haben. Deine Handy war auch mal wieder "kurz" auf 5 und ist nun wieder auf 8. Ich sehe hier bei mir auch wieder das, was vor drei Tagen war. Also auch so was wie, fehlende Startseite, immer wieder fehlende andere Seiten und Unterschiede bei der Site-Abfrage mit oder ohne www mit oder ohne SSL.


    Vorher und jetzt:




    Nach dem Ausfall:



    Anzumerken ist hier, dass die Ansicht bei "nach dem Ausfall" witzigerweise schon seit ca. 1,5 Jahren so nicht mehr war. Also die Startseite und auch die anderen markierten Seiten fehlten da schon sehr lange. Jetzt waren sie wieder da, für ca. 24 Stunden. Ebenso waren nun für 24 Stunden alle Site-Abfragen gleich.

  • Interessant ist das aber allgemein, werde daraus nur nicht schlau....


    z.B. bei der Geranien-Seite gibt es die "schneiden". Laut GSC steht die seit 4 Jahren auf "noindex", was aber nicht stimmt. Ist auch im Index. Gestern war sie verschwunden, heute wieder da. Die "kaufen", die schon immer irgendwie weg und wieder da war, war gestern auch weg. Das war die einzigen beiden Änderungen an der Domain.


    Bei der Silvester-Seite schaut es ähnlich aus, auch wenn etwas wirrer. Alle Keys und Kombis zu "Countdown" waren weg. Die Zielseite countown.html nicht mehr auffindbar. Gleichzeitig gab es aber zu allen Keys und Kombis mit "Bilder" einen URL-Wechsel mit deutlichen Platzverschlechterungen. Zu Bilder und Co. rankte die countdown.html, und die bilder.html war weg.


    Wie oben bei der HuH. Seiten, die dort schon ewig fehlen, waren plötzlich wieder da, jetzt wieder weg.


    Bei der Bodensee waren die Positionen gestern wesentlich besser. Aber nicht einfach besser, weil andere Seiten rausfielen, sondern besser, weil mal die richtige Seite rankte. z.B. "Ferienwohnung Bodensee". Gestern war es die Startseite, so wie es eigentlich auch sein soll. Deren Position war aber 20 Plätze besser als die jetzige wieder, die eigentlich nicht die richtige Zielseite ist.


    Und das sehe ich bei einigen Domänen, gerade auch bei "Duplikaten" wie Ort Butjadingen und Region Butjadingen. Kann da machen was ich will, Google rankt die falsche Seite. Gestern war es erstmalig seit Jahren die richtige Zielseite und die Positionen waren auch da besser. Das mit Ort / Region war nun nur ein Beispiel, habe da etliche, hunderte solcher Seiten, wo Google sich das falsche Ziel nimmt.


    Hatte ich ja schon mehrfach erwähnt, dass Google da immer gefilterte Seiten nimmt und nicht die eigentlichen Hauptseiten. So auch mit dem Münsterland. Bisher immer die Seite https://www.ferien-netzwerk.de…Cnsterland/seite_1_1.html , was falsch ist. Das ist eine Filterung nach "Ferienwohnung". Die Hauptseite der Region hat alle Objekte, auch wenn nur eines mehr und einen Text dazu. Google nimmt aber immer die gefilterte Seite. Bis gestern, da war plötzlich die https://www.ferien-netzwerk.de…Cnsterland/seite_1_1.html als Treffer da. Heute wieder nicht mehr.


    Das scheint also nicht nur ein alter Datenbestand zu sein, sondern gänzlich was anderes, nur was? Werde nicht schlau draus.

  • Alex, beachte mal Deine automatisch generierten Texte, die Google da zuordnet. Kurz gesagt, da stimmt gar nichts:



    Ist mir bei meinen Kalendern auch schon aufgefallen, wobei dort problemlos. Aber Google handhabt Iframes nun seit einiger Zeit ganz anders. Da wird mal eine geframte Seite aufgerufen, geparst, dann hat die einen Inhalt. In Deinem Fall ist die Seite dann wo anders eingebunden, ebenfalls als Iframe, Google spidert die aber gar nicht neu (nur zwischendurch mal) und nimmt einfach die, die es schon kennt. Daher die falschen Domain-Namen in den Texten.

  • Na, da bin ich ja mal gespannt. Nun kommt wirklich ein Update. Laut eigenen Angaben eines der größten der letzten 10 Jahre.


    Google is about to launch a new and large search algorithm update, called the helpful content update.


    The helpful content update will target websites that have a relatively high amount of unsatisfying or unhelpful content, where the content has been written for search engines rather than humans.


    Google’s new algorithm aims to downgrade those types of websites while promoting more helpful websites, designed for humans, above search engines.


    Google said this is an “ongoing effort to reduce low-quality content and make it easier to find content that feels authentic and useful in search.”


    Unlike many Google algorithms that get applied on a page-by-page basis, this new helpful content update will be sitewide. This will not just impact individual pages or sections of your site, but rather, it will impact the whole site. Again, if you have helpful pages but a relatively high amount of your content is unhelpful, even your helpful content or sections of your site will be hit by this update.


    Ah, hätte erst alles lesen sollen, dann tippen....


    This update will initially launch for English-language searches globally.


    Der Rest weltweit kommt später.


    Google-Blog: https://blog.google/products/s…ple-for-people-in-search/


    Quelle der Texte oben:


    Google's new helpful content update targets sites creating content for search engines first
    Google will soon rollout a change to its search ranking algorithm that may prove be one of the most significant changes in over a decade.
    searchengineland.com

  • Hab oben editiert, das "wichtigste" stand zuletzt im Artikel. Erst mal nur englische Seiten, andere kommen später.


    Was man da aber so ließt, passt mit dem überein, was schon vorher teilweise geändert wurde oder "neu" war. Betrifft vor allem Produkte, Anleitungen, Technik-Branche etc. Auch eben sehr wichtig, Expertise und dass man das Produkt / Dinge, keine Ahnung, über das geschrieben wurde, auch wirklich besitzt / genutzt hat. Ob man Erfahrungen mit etwas hat, oder nur etwas "neues schreibt", weil dessen Topic gerade "im Trend" ist oder es Werbeeinnahmen verspricht. Und eben auch, dass die Herabstufungen über die Quality Rater bestätigt werden sollen. Die Richtlinien wurden ja erst vor wenigen Wochen geändert und das gerade auch in den Bereichen.


    Und es betrifft eben die ganze Seite. Wenn ein interner Schwellenwert an unnützem Content überschritten ist, dann fliegt die ganze Domain nach hinten.

  • Und es betrifft eben die ganze Seite. Wenn ein interner Schwellenwert an unnützem Content überschritten ist, dann fliegt die ganze Domain nach hinten.

    Das ist wirklich interessant. Aber wenigstens tut sich mal wieder was. Teilweise ist die Suche fürn A****.

    Ob das dann auch Qualität hat, wird sich zeigen.

    wenn etwas möglich erscheint mach ich das, wenn das nicht klappt gehts ans unmögliche und ansonsten das undenkbare.

    - nun stolz rauchfrei - Ich denke also Bing ich!


    Support 24h Bereitschaft 0163 2161604 - NUR Für Kunden von SEO NW!

  • Naja, Qualität liegt im Auge des Betrachters. Das soll ja eine neue KI machen, eben unterstützt und angelernt von den Ratern. Allerdings kenne ich verdammt viele Seiten, wo ich mich echt frage, was sollen die in den Top10, die haben in den Top1000 nichts zu suchen.


    Ich frage mich da aber schon, wie das mit den Ratern ist. Die bekommen ja nicht alles vorgesetzt, sondern nur das, was die KI vorher ermittelt hat. Wenn also von der KI etwas völlig übersehen wird, dann bekommt das auch kein "Mensch" zur Prüfung. Und das ist eigentlich das, was ich schon die ganze Zeit beobachte. Zeug, das schlecht aber dennoch zumindest zu 20% brauchbar ist, verschwindet immer mehr. Zeug das völlig unnütz ist bleibt da und steigt auch noch auf. Also das "halbwegs" brauchbare scheint erfasst und dann noch geprüft zu werden. Das komplett sinnlose fällt irgendwie durchs Raster. Die Ergebnisse entwickeln sich weiß, grau, schwarz hin zu weiß und schwarz, wobei schwarz der größte Mist ist.


    Da gibt es Seiten aus dem Lastminute Bereich, in den Top10, die werben ausdrücklich mit Angeboten in 2020 und 2021. Ist das das neue Lastminute, also Angebote der letzten Jahre? Da gibt es eine Handy-Seite, die wirbt mit den besten Tarifen in 2021. Da gibt es eine Silvester-App, die meine Texte klaute, das alles in eine App packte und in die App-Beschreibung, dazu noch die Jahreszahlen 2019 und 2020 (Zeitpunkt des Kopierens) und damit auch noch rankt.


    Würde da wirklich mal einer drüber sehen, dann müsste man merken, dass das alles nicht passt. Oder noch eine Handy-Seite, die mit 5G bei Lidl-Connect wirbt. Naja, gab es noch nie und gibt es nicht. Aber das ist dann wieder der Punkt der KI. Was selektiert die überhaupt vorab, das dann in die Prüfung geht?


    Natürlich kann einer nicht alles wissen, nicht jedes Thema kennen, aber es gibt ja genug andere Seiten. Da könnte man ja mal nachsehen, ob z.B. 5G vorhanden ist, oder der Schreiber da einfach nur Mist erzählt. Oder ganz einfach, dass bei Lastminute keine Angebote in den Top10 sind, die von 2020 sind.

  • was sollen die in den Top10, die haben in den Top1000 nichts zu suchen.

    Ja KI hin oder her. Mal sehen ob der Index aufgeräumt wird. Wenn sich was ändert, müssen wir uns halt anpassen. Da ist aber wirklich teilweise Schrott drin, würde ja schon reichen, wenn dieser entfernt werden würde.


    Mir ist das so gut wie Latte, hauptsache es bewegt sich mal was. Dann kann man immer noch schauen, ob etwas geändert werden muss.

    Ich habe vielleicht etwas für dich. Mehr aber später. Bin erst beim 3. Kaffee.

    wenn etwas möglich erscheint mach ich das, wenn das nicht klappt gehts ans unmögliche und ansonsten das undenkbare.

    - nun stolz rauchfrei - Ich denke also Bing ich!


    Support 24h Bereitschaft 0163 2161604 - NUR Für Kunden von SEO NW!

  • "But if a site gets hit by this helpful content update, it can take several months for the site to recover."


    Je größer eine Seite ist, desto länger wird es dauern, denn es muss alles neu berechnet werden. Erst wenn der Schwellenwert unterschritten wird, wird die Domain wieder freigegeben. Und da ist dann schon das Problem. Was genau ist es überhaupt? Was muss geändert werden? Bei der Berechnung kann es ausreichen, nur eine Seite zu ändern, es können aber auch tausende sein.


    Das ist quasi wie "Linkabbau". Da könnte man abbauen wie mal wollte, wenn es die falschen waren oder die neue Prüfung noch nicht da, dann hatte man Pech.