Core Web Vitals LCP FID CLS 2021 - Seiten experience neuer Google Ranking Faktor

  • Die Core Web Vitals 2020 werden sich zu 2021 ändern. Für 2020 gab es bei Google drei spezifische Schwerpunkte:

    • Ladezeit,
    • Interaktivität,
    • Visuelle Stabilität.

    Diese Schwerpunkte entsprechen 2021 dann drei neuen Metriken:

    • LCP oder Largest Contentful Paint: Diese Metrik gibt an, wie lange es dauert, bis das größte Inhaltselement das im Browser ist, geladen ist.
    • FID oder First Input Delay: Die FID gibt an, wie lange es dauert, bis ein Browser auf eine Interaktion reagiert, die zuerst vom Benutzer ausgelöst wurde (z. B. Klicken auf eine Schaltfläche).
    • CLS oder Cumulative Layout Shift: Diese neue Metrik misst den Prozentsatz des Bildschirms, der von Bewegungen betroffen ist - d. H. Springt etwas auf dem Bildschirm herum?

    Zu testen in den Lighthouse Daten und natürlich bei Pagespeed Insights

    wenn etwas möglich erscheint mach ich das, wenn das nicht klappt gehts ans unmögliche und ansonsten das undenkbare.

    Ich denke, also BING ich!


    Support 24h Bereitschaft 0163 2161604 - NUR Für Kunden von SEO NW!

  • Hm, hatte ich dazu nicht auch einen umfangreichen Post oder habe ich vergessen, den abzuschicken? An dem Thema bin ich nun schon seit fast einer Woche dran, vor allem am CLS.


    Aber jein. Die bisherigen Web-Vitals bleiben erhalten, neu hinzu kommen die Core-Web-Vitals bzw. werden teilweise in die übernommen oder eben teilweise neu.


    Und der CLS macht echt Probleme. Ich weiß nicht, was Google da vor hat, aber letztendlich ist fast alles, was man an modernen Techniken nutzen kann, schlecht für den CLS. Ich sage nur passives Lazy Load, das wird gerade ausgerollt und bedarf eben keinem externen Javascript mehr. Man muss ein height:auto per CSS setzen, damit die Bilder responsive sind, schon immer. Das bedeutet aber auch, dass das Layout, "shifted", denn die Bilder kommen erst gefühlt 200ms später. Da es aber "lazy loading" ist, ist als Platzhalter in der Regel ein 1x1 Pixel hinterlegt, sonst ist das ganze nicht mehr valide. Da es aber 1x1 ist, entspricht es nicht mehr der "Aspect Ratio" vom Bild, das nachgeladen wird. Die Seite "zuckt" also.


    Dazu gehören auch Web-Fonts, denn auch die kommen erst wenige Bruchteile später. Durch eine andere Font ändern sich aber Abstände / Laufweiten der Schrift und es "zuckt". Nun könnte man sagen, ok, Inhalte erst darstellen, wenn die Web-Font geladen ist, aber dann erhöht das den FID enorm.


    Auf den "Cumulative Layout Shift" bin ich also echt gespannt. Deine Webseiten Alex, die versagen fast alle. Bei mir an die 70%. Und nein, die Tools als Direkttest helfen da leider nicht. Ich sage nur Cookiehinweis. Da der nicht bestätigt ist, werden Inhalte, Ads, Fonts und Co gar nicht geladen. Die Core-Web-Vitals kommen aber von echten Nutzern, die den Cookiebanner möglicherweise bestätigt haben. Die haben dann also ganz andere "Vitals" als der Test, der nicht bestätigt.

    Don't judge a book by its cover @ Jadyn Rylee
    "Sogar ein Mann mit reinstem Gemüt, der Gebete sagt jede Nacht, kann zum Wolf werden, wenn die Wolfsblume blüht unter des Mondes goldener Pracht"

    Einmal editiert, zuletzt von Synonym ()

  • Nachtrag: Der LCP ist irreführend und bei Dir auch falsch erklärt. Es geht hier nicht um das größte Element an sich, also Dateigröße, sondern das größte im Sinne von, wann es gerendert werden konnte. Laut Spezifikation kann das auch ein Text-Element in einem Block-Level sein, also ein doofes <p>Text</p>. Weiß gerade nicht welche Seite, aber bei einer schlägt er genau da bei mir an. Das P sitzt zu tief im Dom und da es Blocklevel ist, muss der Browser warten, bis alles gerendert wurde.

    Don't judge a book by its cover @ Jadyn Rylee
    "Sogar ein Mann mit reinstem Gemüt, der Gebete sagt jede Nacht, kann zum Wolf werden, wenn die Wolfsblume blüht unter des Mondes goldener Pracht"

  • Der wievielte Rankingfaktor ist das denn jetzt, an dem G wieder bastelt? Der 1000ste, der 10000ste? Und spiegelt sich das dann auch in der Serps wider? Hat es sich je widergespiegelt? Welchen Sinn machen derartige Basteleien, wenn gefühlt 99% der Sites in den Serps diese Kriterien nicht umsetzen, die Webmaster sie nicht umsetzen können oder wollen?


    Wer hat schon die Zeit dauernd alles umbauen zu können, wer das Geld jemanden zu beschäftigen, der sich ständig damit beschäftigt? Wenn ich mir meine Ecke ansehe: So gut wie keiner. Und wenn ich mir in meiner Ecke die Serps ansehe und hätte das Geld, würde ich es angesichts der beschissenen Ergebnisse die G liefert, als zum Fenster hinausgeworfenes Geld sehen jemanden zu bezahlen, der sich dauernd mit den wechselnden Kritierien von G beschäftigt.


    Und wenn diese Spirenzien was bringen sollten, wenn auch nur wenig, wem nutzen sie dann, wenn normale Webmaster / Sitebetreiber nicht mehr mithalten können? Und geht das Anwenden dieser Spirenzien nicht letztendlich auf Kosten der tatsächlichen inhaltlichen Qualität einer Site?


    Ich verstehe ja noch halbwegs an was da gebastelt werden soll, nur; daran basteln könnte ich nicht und ich frage mich auch, wieviele das wirklich können.

    Die zehn Gebote sind deswegen so kurz und logisch, weil sie ohne Mitwirkung von Juristen zustande gekommen sind. > Charles de Gaulle

  • Und geht das Anwenden dieser Spirenzien nicht letztendlich auf Kosten der tatsächlichen inhaltlichen Qualität einer Site?

    Natürlich. Hatte ich vorhin erst mit Alex am Telefon aber vorher auch schon so für mich selbst. Das was Google will ist entgegen allen dem, was man eigentlich macht, damit eine Seite schnell, übersichtlich und verständlich ist. Alleine schon so was wie TF-IDF, also Wörter und verwandte Wörter, die andere haben, man selbst aber nicht. Das kann man bei sich reinbasteln, aber denn wird der Text halt irgendwie Mist.


    Der Rest ist hoher zeitlicher Aufwand, der dem User auch nicht unbedingt was bringt. Wobei das Verhältnis hier nun ja umgedreht ist. Die Core-Vitals werden nicht von "Google bestimmt", sondern vom User, egal mit was der an Hardware unterwegs ist. Google bekommt nur die Zahlen und agiert nach denen.


    Ich frage mich fast jeden Tag, wenn Meldungen aus der GSC (Google Search Console) reinkommen, ob die mich eigentlich verarschen wollen oder ob das eine Beschäftigungstherapie werden soll. Heute alleine für das Ferien-Netzwerk 74 Fehlermeldungen bekommen. Für Standards, die 10 Jahre funktionierten. Nun anscheinend nicht mehr.

    Don't judge a book by its cover @ Jadyn Rylee
    "Sogar ein Mann mit reinstem Gemüt, der Gebete sagt jede Nacht, kann zum Wolf werden, wenn die Wolfsblume blüht unter des Mondes goldener Pracht"

  • Neuer Manager, neue Standards so läuft es in der Welt.

    Um Untätigkeit zu kaschieren werden lieber schnell ein paar Fehlermeldungen rausgeschickt, das lenkt ab und die Leute kümmern sich mehr um ihre Seiten.

  • So könnte man das leider fast wirklich bezeichnen. Wenn ich mal so zurück denke, dann mache ich 80% eigentlich nur irgendwas, damit irgendwelche Fehlermeldungen verschwinden, die penetrant einem vor die Nase gehalten werden. Der Sinn dahinter? Noch nie verstanden oder auch nur reproduzieren können. Alles andere dauert bei Google ewig, aber ein angeblicher Fehler, den bekommt man im Stundentakt per Mail, periodisch natürlich. Also das geht nicht in Echtzeit, aber dann eben gleich für alle.

    Don't judge a book by its cover @ Jadyn Rylee
    "Sogar ein Mann mit reinstem Gemüt, der Gebete sagt jede Nacht, kann zum Wolf werden, wenn die Wolfsblume blüht unter des Mondes goldener Pracht"