E-A-T und YMYL - Google Qualitäts Richtilinien

  • Ich habe mir die Google Quality Rater Guidelines durchgelesen. Ok ok, da kann ich wieder raus. E-A-T und YMYL, von diesen beiden bin ich betroffen, wie auch einige andere hier.

    Das einfachste erstmal ist eine "About Us" Seite zu machen. Auch sollte der Author kontaktierbar sein, die Daten stimmen und auch leicht zu finden.

    Ein Beispiel habe ich mal hier: vertrag - kuendigen . com / links

    Das ... war meine Adsense Kuh ;) - nun habe ich wesentlich mehr Bing Traffik als von Google. Das rettet mir grade auch den Arsch. Gut Google will es so, muss ich was machen.

    Doch was wird für ein gutes Quality Rating benötigt?

    • Hohes E-A-T
    • Qualitativ hochwertiger Hauptinhalt
    • Kontaktinfo - siehe Beispiel oben!
    • einen guter Ruf - zB Bewertungen etc

    Auf keinen Fall darf sowas drin sein:

    • Falsche Informationen
    • schwer lesbar, einsehbar, nutzbar
    • interne bzw externe Verlinkungen funktionieren nicht
    • Kopien von anderen Webseiten - das kann ich leider nicht so bestätigen...
    • generierter Content, zb auch automatisch - sollte klar sein, allerdings gibt es da NOCH Ausnahmen!
    • Keine Kontaktinfo! siehe Oben!
    • Aktualität des Inhalts - bitte einfach regelmässig aktualisieren und auf den neusten Stand bringen : Seid einfach ein Google Sklave!
    • Hass, negative Reputation, Fake
    • Fake Webseiten - hatten wir hier irgendwo schon im Forum, IGEL? Also Seiten zB die nach Löschung wieder aufgebaut werden auch mit Fake Impressum

    Wir sind alle Google Sklaven, ich merke es am Geldbeutel. Das sieht mal so richtig nach Arbeit aus.


    Welche Maßnahmen habe ich schon ergriffen?

    • Überprüfung Onpage nach toten Links ( intern, extern )
    • Onpage Aktualisiert ( bin da leider nicht durch.... das dauert noch Wochen! )
    • Adsense ( MfA ) entfernt, wo ich es für richtig hielt.
    • Hier und da mal Kontakt und Author hinzugefügt - das dauert auch noch ein Weilchen, bin da nicht durch
    • Minimal Template und Optimierung nach Pagespeed - wird erstmal nix bringen, wichtig aber vielleicht für später
    • Meisten externen Links Nofollow gesetzt
    • Content gelöscht der nicht relevant war / ist

    Es ist leider so viel Arbeit, meine Nerven sind aktuell auch nicht die besten. Meine Arbeit ist etwas "vergiftet".

    Hier die Google Qualitätsrichtlinien zum Nachlesen
    https://beispiel.rocks/static.googleu…rguidelines.pdf

    Diese ist natürlich sehr viel Umfangreicher. Hier wollte ich aber nur auf E-A-T und YMYL eingehen.
    Zusammengefasst müsst ihr ein "Experte" sein, Erreichbar und Verifizierbar. Onpage wie Offpage zB durch Bewertungen.

    wenn etwas möglich erscheint mach ich das, wenn das nicht klappt gehts ans unmögliche und ansonsten das undenkbare.

    - nun stolz rauchfrei - Ich denke also Bing ich!

    Support 24h Bereitschaft 0173 6107465 - NUR Für Kunden von SEO NW!

  • Weißt du was mir richtig aufn Piss geht?
    Du (ich erzähle seit JAHREN, seit verfickt vielen JAHREN) das Content und vor allem sinniger Content Pflicht, gerade auch beim Linkbuilding, ist.. DU (ja wirklich du) schriebst einen regelmäßig an, hey gibt mir Texte, du bekommst Links. Ich setze mich insgesamt mehr als 30h hin, um passenden Content für die jeweilige Webseite zu schreiben und da auch lange passendeTexte dir geben zu können. Du mit deinen 3-4 Zeilern Hey, ihr habs ja noch nicht gewusst, ich hab ne neue Webseite in 100facher Ausführung dazwischen, was ich auch seit Jahren kritisiere. Und jetzt schau ich mal rum und alles ist weg?

    Das ist einfach Zeitverschwendung im großen Stil. Ganz ehrlich. Finger. Aber mal so richtig Finger. Ich wünsche ein schönes Jahr.
    Ich verstehe nicht wie man so sein kann.

  • Das ist einfach Zeitverschwendung im großen Stil. Ganz ehrlich. Finger. Aber mal so richtig Finger. Ich wünsche ein schönes Jahr.
    Ich verstehe nicht wie man so sein kann.

    Harte Worte, gehört aber eher in den internen Bereich?
    Hatte übrigens mal eine eigene Kategorie zu der Thematik https://beispiel.rocks/beispiel.rocks/www.faulig.de/archives/catego...ktauschpartner

    Frei nach Dieter Nuhr
    Das Internet ist zum Lebensraum der Dauerbeleidigten geworden, die immer einen Grund finden, anderen irgendetwas vorzuwerfen, um sich selbst moralisch zu erhöhen.

  • Das mit diesen ganzen Punkten sehe ich etwas anders.
    Natürlich will Google das so, aber ist Google auch in der Lage, dass richtig auslesen zu können?
    Ich denke nicht. Die labern viel, aber bekommen es doch nicht auf die Reihe.

    Content ist King ist seit Jahren ja schon, aber hier stimmt es nicht immer.
    Schaut man sich die Zeitungsseiten an, die ja durch die dpa Kopien mit Werbung drumherum, oft Doppelcontent haben, dennoch vorne gelistet sind, wird es Prioritätslisten geben bei Google, welche Seite vertrauenswürdig ist oder nicht.

    Auch bei anderen Themen sind meist die Seiten vorne, die man aus anderen Kommunikationswegen bzw. Medien kennt.

    Anders gesagt, Google wird immer diese Seiten vorne listen und vielleicht mal als Alibi ( dass sie noch eine Suchmachine sind ) ein oder zwei andere Seiten dazwischen schieben.

    Vertrauenswürdig ist schon ein Autor und noch besser, wenn auch sonst im Internet über ihm geredet wird.
    Nur wer vertraut wen und was ist Propaganda?

    Nur weil es eine große Zeitung schreibt, muss es nicht stimmen.
    Manche sind regierungskonform und schieben die Fakten so, dass sie in eine Sichtweise passen.
    Andere machen das auch, aber wollen eine andere Sichtweise.
    Wen vertraut man da nun und wen vertraut Google?
    Ist Google auch regierungsabhängig und listet so, wie es die Politik in den USA will?

    Auch bei der Aktualität kommt Google nicht hinterher.
    Habe letztens mal was gesucht zu Versicherungsverträgen und musste extra den Zeitfilter bemühen, weil nur Mist aus früheren Jahren gelistet wurde, was gar nicht mehr aktuell war.

    Google labert viel, wollen es so rüberbringen, wie es sein sollte, aber bekommen es nicht hin.

    Können sie auch gar nicht mehr hinbekommen. Jedes Thema wird mittlerweile 1000 fach behandelt, aber es gibt nur 10 Serps.

  • Meiner Meinung nach hat sich eine einfache Suchmaschine überlebt.
    Es müssen andere Dinge kommen, die es auch teilweise schon gibt.
    Zum Beispiel die Apps, wo man sich Dinge suchen kann oder auch die Preisvergleiche.

    Google und andere SM werden bald überflüssig sein

  • >> Google Qualitäts Richtilinien _

    Ich frage mich ja schon immer, warum G so maches überhaupt öffentlich macht, was dahintersteckt. Wenn man sich die Serps ansieht stimmt von dem, was da in den Richtlinien beschrieben ist, einiges. So einiges ist aber derart, dass gefragt werden kann, wie sich das mit ihren Qualitätsrichtlinien verträgt. Ist es also reiner Zufall, wenn man da Übereinstimmungen mit den Qualitätsrichtlinien findet? Meine Denke geht in die Richtung das bejahen.

    Meine Denke habe ich hier ja mehrmals kundgetan. Ich nehme G nicht ab, dass sie die Serps neutral behandeln, dass da nicht die Denke dahintersteht auch die Serps so zu gestalten, dass sie ihnen zum finanziellen Vorteil gereichen. Oder anders, dass sie nicht manipuliert sind.

    Ich denke schon, dass jede Site bei G ihre Flagge hat: a) schadet unserem finanziellen Planungen, b) beantwortet Fragen, die wir selbst beantworten wollen, c) kommt vom Kontent her nicht als Werbekunde infrage, schadet uns aber auch nicht, d) bringt uns Vorteile durch z. B. Schaltung von Adwords, also sollen sie auch genug einnehmen, um sich diese Adwords weiterhin leisten zu können. Schaltung von Adsense, ohne das gleich erkennbar ist, dass die Site nur deswegen erstellt wurde.

    Die Liste könnte noch um einige Punkte erweitert werden, aber ich denke, dass es generell in diese Richtung läuft, so, oder so ähnlich.

    G und der Glaube daran, dass sie "nicht böse" sind, nur weil sie uns empfohlen nicht böse zu sein. Das konnten sie uns in den Anfangsjahren vorgaukeln: "Alles was wir machen, machen wir nur für die Nutzer und das kostenlos". Richtig ist, dass es für Nutzer mit keinen finanziellen Kosten verbunden war und auch das war reines Kalkül, wie wir mittlerweile wissen. Da wurde keineswegs für die Nutzer investiert, das folgte einem längerfristig angelegten Strategieplan der späteren Kapitalisierung. Was dann ja auch wunderbar funktioniert hat.

    Und das soll mit den Serps anders sein?

    Warum also das ganze Theater rund um die angebliche "Qualitätssicherung"? Für mich: Reine Ablenkung, Blendwerk, einerseits, um sich wie gehabt auf die Priviligien der angeblichen Neutralität der Suma berufen zu können, andererseits, um die Kapitalisierung der Serps durch ständige Veränderungen zu verschleiern.

    Und wie auch schon gesagt: Es gibt da immer noch ein paar Ecken, die G i. M. noch vernachlässigbar erscheinen, vielleicht haben sie für verschiedene Ecken noch kein Konzept (oder keine Werbekunden), aber auch das wird sich im Laufe der "Aufarbeitung" irgendwann ändern. Der allgemeine Algo wirkt sich aber auch heute auf diese Ecken aus.

    „Arme Kinder sind genauso schlau und so talentiert wie weiße Kinder.“ :thumbup:

    US-Präsident Biden 2019 in einer Rede in Iowa,


  • Ich denke schon, dass jede Site bei G ihre Flagge hat: a) schadet unserem finanziellen Planungen, b) beantwortet Fragen, die wir selbst beantworten wollen, c) kommt vom Kontent her nicht als Werbekunde infrage, schadet uns aber auch nicht, d) bringt uns Vorteile durch z. B. Schaltung von Adwords, also sollen sie auch genug einnehmen, um sich diese Adwords weiterhin leisten zu können. Schaltung von Adsense, ohne das gleich erkennbar ist, dass die Site nur deswegen erstellt wurde.

    Die Liste könnte noch um einige Punkte erweitert werden,

    Ein Punkt definitiv - verlinkt auf umsatzstarke Adsensseiten. Ich vermute es wird auch ermittelt wie hoch der Prozentsatz derer ist, die dann den link zur Adsenseseite nutzen.

    Frei nach Dieter Nuhr
    Das Internet ist zum Lebensraum der Dauerbeleidigten geworden, die immer einen Grund finden, anderen irgendetwas vorzuwerfen, um sich selbst moralisch zu erhöhen.

  • "Ich frage mich ja schon immer, warum G so maches überhaupt öffentlich macht, was dahintersteckt. Wenn man sich die Serps ansieht stimmt von dem, was da in den Richtlinien beschrieben ist, einiges. So einiges ist aber derart, dass gefragt werden kann, wie sich das mit ihren Qualitätsrichtlinien verträgt. Ist es also reiner Zufall, wenn man da Übereinstimmungen mit den Qualitätsrichtlinien findet? Meine Denke geht in die Richtung das bejahen."

    Die Richtlinien sind nicht offiziell öffentlich. Die sind für die Rater, nur die sickern halt immer wieder durch.

    Und ja, die Serps müssen das nicht zwangsläufig widerspiegeln, denn wie gesagt, das ist für die Rater. Die Rater sollen eine Seite danach beurteilen und somit wird der Algo langsam aber stetig angefüttert. In den Serps ist nicht ersichtlich, welche Seite von einem Rater beurteilt wurde und welche nicht.

    Wenn ein Mensch nicht um dich kämpft, hat er nur gewartet, dass du gehst. ;(

  • >> Die Richtlinien sind nicht offiziell öffentlich. Die sind für die Rater, nur die sickern halt immer wieder durch.

    Sicherlich könnten die verhindern, dass da was durchsickert. In anderen Bereichen klappt das ja auch. Ich bin also gar nicht so sicher, ob dieses "Durchsickern" nicht gewollt ist, schliesslich orientieren sich ja viele, im vorauseilenden Kadavergehorsam, an diesen Richtlinien.

    Wenn es sie denn tatsächlich geben sollte, schaffen diese Rater, solange nicht wirklich ALLES erfasst wird, lediglich Ungerechtigkeiten. Und was ich mich auch schon immer frage ist, warum es z. B. für neue Sites, ab einer bestimmten Grösse, keine Rater gibt? Das würde sichern, dass viel Dreck erst gar nicht in den Index kommt und würde die Berechnung des Algos erheblich erleichtern und dem User viele unnötige Sucherei ersparen.

    „Arme Kinder sind genauso schlau und so talentiert wie weiße Kinder.“ :thumbup:

    US-Präsident Biden 2019 in einer Rede in Iowa,