​Webmaster Richtlinien - ja ich verstoße dagegen​

  • Aber ich will es mit euch teilen. Syno hat ein Problem und ich wollte dem mal auf den Grund gehen. Auch dieser Artikel verstößt gegen Bing und Google Webmaster Richtlinien, ich will den aber nicht vorenthalten:

    Google und Bing SEO : Die Webmaster Richtlinien
    Google und Bing SEO : Für Webmaster, die jeder SEO verstehen sollte - Richtlinien auf Suchmaschinenoptimierung.Rocks
    suchmaschinenoptimierung.rocks


    Was wir entdeckt haben, geht aber unter keiner Kuhhaut. Teilweise Sachen, die seit Jahren nicht im Index sind, per 301 leiten sind wieder da. Teilweise auch ohne SSL.


    Ich kann bei sowas nur einen Rat geben: Draus lernen!


    Die Richtlinien oben im Artikel sind die von Bing und Google, ähneln sich sehr und sind miserabel übersetzt, jedenfalls der von Bing. Es kann aber eine Hilfe sein, deswegen stelle ich es hier mal ein.


    Die Quellen sind auch verlinkt, schaut einfach mal rein, wenn ihr das Original auch sucht.


    Selber sehe ich mich als Greyhat, es funktioniert besser mit weniger Aufwand. Nur mal so als Information, ja es funktioniert.

    wenn etwas möglich erscheint mach ich das, wenn das nicht klappt gehts ans unmögliche und ansonsten das undenkbare.

    Ich denke, also BING ich!


    Support 24h Bereitschaft 0163 2161604 - NUR Für Kunden von SEO NW!

  • Wozu braucht ne Suma, wie Bing, die sich ihre Serps zusammenklaut eigentlich Webmasterrichtlinien?


    Der Spruch "Wer für Google optimiert optimiert auch gleichzeitig für Bing" geistert ja schon seit Jahren umher.

    Eat the rich giants.

  • Das ist wieder ne andere Sache cura

    Diese Webmasterrichtlinien sind für Webmaster gedacht. Daran sollte man sich nach Möglichkeit halten.


    Ich habe es schon lange aufgegeben den Suchmaschinen in den Arsch zu kriechen. Aber jeder Punkt da, kann eine Abstrafung zur Folge haben. Wir sind hier kein "Advanced Black Hat" SEO Forum. Ich meine nur das man viel "beugen" kann.


    Und wenn ich dann Syno sehe, der alles selber Programmiert, sich beim Content extrem bemüht, kopiert wird und jetzt auch noch falsche Seiten im Index hat - ja das macht mich richtig richtig sauer.


    Ich bin auch kein "Engel" was SEO betrifft. Wie gesagt, damals ... wurde ich auch "gef***"

    Seitdem mache ich das anders. Bin mehr Greyhat als Whitehat SEO. Auf keinen Fall Blackhat, also auch das meiste, was da in den Richtlinien beschrieben wird, daran halte ich mich


    Ja und ich kann Syno verstehen, zB mit seiner Geranien Seite. 1000fach kopiert. Auch ich bin einer der "Daten zieht". zB der Artikel ist soweit von den Originalen eben NICHT zu unterscheiden. Gut andere Titles und Desc, hier und da anders. Aber im Grunde was von den offiziellen Webseiten eben aktueller und besser ist.


    Das regt mich wirklich auf. Ich hatte vor ein paar Jahren mal gedacht, dass Originale besser bewertet werden. Es ist überhaupt nicht so.


    Sind, wie zuvor erwähnt, mehrere Themen, die in mir hochkochen aktuell.


    Könnte nur noch kotzen. <X<X<X

    wenn etwas möglich erscheint mach ich das, wenn das nicht klappt gehts ans unmögliche und ansonsten das undenkbare.

    Ich denke, also BING ich!


    Support 24h Bereitschaft 0163 2161604 - NUR Für Kunden von SEO NW!

  • Ich kann bei sowas nur einen Rat geben: Draus lernen!

    Super Alex. Den Rat hast Du mir schon per Whatsapp gegeben und es hilft gleich null.


    Was soll man draus lernen, wenn Google eine Seite Y im Index hat und behauptet, diese URL auf Seite X gefunden zu haben. Seite X gibt es seit 7 Jahren nicht mehr und die angeblich dort verlinkte Seite Y gab es NIE, also nicht zu dem Zeitpunkt, als Seite X da war (gab es vor 3-4 Jahren). Ist gar nicht möglich. Und Google dann auch noch meint, nee, ich ignoriere einfach mal den Canonical, ich ignoriere 301 zu "www" und SSL sowieso, also nehme ich als selbst auserwählt eine Seite Z, die es definitiv noch nie gab. Nämlich neue URL-Struktur in Verbindung mit "ohne www" und ohne SSL.


    Die "neue URL-Struktur" gab es aber immer nur mit www und mit SSL.


    Und was soll ich dazu sagen, dass am 17.11. ein Core-Update war und die Probleme just am 17.11. angefangen haben. Soll ich was dazu schreiben, dass das Ranking gefährdet ist, weil SSL teilweise "nicht da ist", Google das meldet, aber in der Hilfe dazu schreibt, dass sie aus technischen Gründen keine Liste mit den Seiten ohne SSL anzeigen können? Aha, können sie nicht? Was unterscheidet so eine Liste von einer anderen?


    Muss ich was dazu sagen, dass auch just seitdem die Probleme sind bzw. seit dem 19.11., die Webmastertools keine neuen, brauchbaren Daten mehr liefern? Heute schon wieder, aber zwischen 19.11. und gestern fehlt alles. Oder, dass man über jeden Scheiß im Sekundentakt von Google informiert wird, aber über so was, dass plötzlich angeblich kein SSL mehr da sein soll, da kommt keine einzige Mail, nicht binnen 6 Tagen?


    Muss ich verstehen, warum eine andere Domain angeblich "leere Seiten" ausliefert? Also Fehlermeldung "Seite ohne Inhalt"? Muss ich erwähnen, dass es sich dabei um statische HTML-Seiten handelt, die entweder gar nicht da sind oder mit Inhalt gefüllt? Leer gibt es die überhaupt nicht.


    Sagte ich schon, dass das kein Bug in den WMT ist? Nein? Dann jetzt. Denn alles, was Google hier als Fehler bemängelt ist im Index bzw. eben alle Webseiten-Versionen, die Google da meint nutzen zu wollen / gefunden zu haben. Also Domain mit www und SSL, ohne WWW, ohne SSL, ohne beides. Alle Versionen sind im Index und das gefühlt 40 Plätze weiter hinten als vorher.


    Oder sagen, dass es technisch gar nicht möglich ist, eine Seite ohne SSL abzurufen? Selbst wenn da was falsch laufen sollte, dann würde halt eine default-Seite mit falschem SSL-Zertifikat kommen, aber es kommt immer SSL, denn selbst der Default-Host leitet weiter, ausgenommen ist da nur Certbot.


    So, also daraus lernen. Lernen kann man durch Fragen, also frage ich mal. Wie schafft es Google, am 24.11. eine Seite abzurufen, mit aktuellen Daten, aber ohne SSL, ohne www und alte Ordner-Struktur. Also Inhalt von vorgestern, aktuelle Layout, aber technische Umsetzung von Mitte 2014. Also ich meine mit "schafft es abzurufen", dass Google das behauptet und eben auch die Caches dieses Datum tragen. Einen Zugriff im Server-Logfile kann ich keinen einzigen finden.


    Achso, sagte ich schon, dass auch wieder "Partnerwebseiten", also so Linklisten, wie es früher üblich war, wieder im Index sind? Seltsam, die sind seit 2013 gelöscht, die gibt es nicht mal mehr auf dem Server.


    Und was mir so ganz nebenbei aufgefallen ist, ist aber ein anderes Thema. Seit wann sendet der Google-Bot denn einen Referrer?


    Code
    66.249.65.224 - - [25/Nov/2021:15:22:14 +0100] "GET /addons/leaflet-osm/ajaxdata/osm-map-data-20210104.php?v=0.1&objekt=1 HTTP/1.1" 200 6049 "https://www.hund-und-herrchen.de/unterkuenfte/art-Ferienwohnungen/" "Mozilla/5.0 AppleWebKit/537.36 (KHTML, like Gecko; compatible; Googlebot/2.1; +http://www.google.com/bot.html) Safari/537.36"


    Code
    66.249.65.224 - - [25/Nov/2021:17:29:25 +0100] "GET /addons/leaflet-osm/ajaxdata/osm-map-data-20210104.php?v=0.1&id=2827&typ=100300000 HTTP/1.1" 200 15852 "https://www.hund-und-herrchen.de/unterkuenfte/land-Deutschland/bundeslan
    d-Bayern/" "Mozilla/5.0 AppleWebKit/537.36 (KHTML, like Gecko; compatible; Googlebot/2.1; +http://www.google.com/bot.html) Safari/537.36"


    Interessant auch, dass der Referrer vollständig ist, also inkl. Domain und ebenso, dass es nur bei diesen Files ist. An sich ja nicht schlecht, aber genau so war die Erkennung, um den Bot von diversen Dingen fernzuhalten.


    P.S. Habe ich erwähnt, dass eine der Domänen HSTS-zertifiziert ist. Also nicht nur den Header einbindet, sondern hardcoded in den Browsern ist? Ein Aufruf der Seite ist ohne SSL gar nicht möglich. Also sollte auch der Evergreen-Google-Bot wissen, dass es die ohne SSL nicht gibt und wenn es sie doch geben sollte, er nicht zugreifen darf.


    Erwähnte ich, dass Google bzw. Chrome erst kürzlich, genaues Datum weiß ich nicht, einen neuen Header eingeführt hat, der genau das HSTS abwickelt?

  • Klar, für wen sollten Webmasterrichtlinien schon gedacht sein, wenn nicht für Webmaster? :)


    Ich habs ja schon vor einiger Zeit geschrieben, Bing hat sich als Suma selbst schon lange aufgegeben. Denen geht es nur noch darum ADs zu verkaufen und auch das mit mehr als zweifelhaften Methoden. Ich nenne die Bingads schlicht Betrug.


    Wozu braucht ne Suma, in diesem Fall Bing, welche die Serps anderer kopiert, also keinen eigenen Algo hat, dann Webmasterrichtlinien?


    Und weil Du Syno sagst: Ja, der reisst dich den Arsch auf und ist am Ende der Depp, was er aber, so mein Gefühl, immer noch teilweise auf eigene Unzulänglichkeit zurückführt.


    Ich hab ja schon lange nichts mehr mit diesem "Kurzzeitseo" am Hut, wenn ich mir vorstelle in den Webmastertools vertreten zu sein und mich dauernd von den grossteils schwachsinnigen Benachrichtigungen von Google verrückt machen zu lassen, wäre ich wahrscheinlich schon ein Fall für die Klappse.


    Google ist halt nunmal nicht halb so gut, wie sie es verstanden haben den Usern als gegeben zu verkaufen. Google manipuliert und bevorzugt die Meistzahlenden oder die, an denen sich am meisten verdienen lässt. Google ist unvollständig, zensiert ohne Sinn und Verstand nach Gutdünken. Die Sprecher Googles lassen Sprechblasen in Sinne von "Kräht der Hahn auf dem Mist..." ab, aber alles lauscht ihren Worten und versucht in diesem Unsinn einen Sinn zu finden.


    Der verblendete User kann es nicht wissen und solange die Webmaster die Klappe halten und alles unwidersprochen hinnehmen wird sich auch nichts ändern. Im Gegenteil, irgendwann ist Google so weit, dass es sie alle ausbooten kann und Google wird sie ausbooten.


    Zusammen wären sie stark, wenn sie nicht so dumm egoistisch wären, der Spatz in der Hand...


    Es sind die Webmaster, die sich öffentlichkeitswirksam gegen Google auflehnen müssen, denn viel wenig macht am Ende auch viel.

    Eat the rich giants.

  • >> ist am Ende der Depp, was er aber, so mein Gefühl, immer noch teilweise auf eigene Unzulänglichkeit zurückführt.


    Muss ich fast schon zurücknehmen, nachdem ich seinen Beitrag oben gelesen habe. Er klingt heute so ganz anders als noch z. B. vor einem Jahr.


    Gefühlt das Millionste Update in 20 Jahren und fast nichts ist wirklich besser geworden.

    Eat the rich giants.

  • Und was mir so ganz nebenbei aufgefallen ist, ist aber ein anderes Thema. Seit wann sendet der Google-Bot denn einen Referrer?

    Das ist mir auch neu.


    Mal ein kleiner Hinweis.. es gibt ja im nicht öffentlichen Bereich schon einen bestimmten Fred. Syno ist kein Hosting Kunde von mir, hat aber seine Domains umgezogen.


    Wir überlegen schon seit ein paar Tagen, was es nun sein kann, was da seit dem Update läuft. - und da läuft was gewaltig in die Hose!


    Es sind Sachen drin, die nicht sein KÖNNEN! Andere Sachen sind absolutes Neuland, auch für mich. zB das Google sagt : Domain B hat den bevorzugten canonical von Domain A.


    Das ist zB absolut neu. Also wenn ihr ein paar Tools habt, ich meine nicht nur Search Console von Google oder Bing Webmaster Tools, schmeißt die jetzt an. Seht auch in den Logs.


    Es tut sich was, aber es ist gar nicht gut für den normalen Webmaster.

    Übrigens: Meine SupertollenAffiliateSeiten die ranken. Da gibt es keine negativen Auswirkungen. Auch nicht mit was Syno schrieb, das konnte ich nicht reproduzieren bzw nachvollziehen!


    Jede Hilfe ist Willkommen. Egal wie skurill es sein sollte!

    wenn etwas möglich erscheint mach ich das, wenn das nicht klappt gehts ans unmögliche und ansonsten das undenkbare.

    Ich denke, also BING ich!


    Support 24h Bereitschaft 0163 2161604 - NUR Für Kunden von SEO NW!

  • Alex, wegen Hilfe mache ich schon noch einen neuen Thread auf. Ich schrieb hier nur wegen Deinem "daraus lernen". Ich kann daraus gar nix lernen. Es geht mir nicht in den Kopf, wie Google einen Cache oder Suchergebnisse zusammenbastelt, mit technischem Stand von 2014, URL-Struktur von 2016 und Inhalten von 2021 und dann auch noch behauptet, er hätte es jetzt gerade eben auf Seite X gefunden. Und genau diese Seite X eben auch seit 2014 nicht mehr existiert. Und eben nicht in den Kopf, dass diese alten und falschn Seiten eben alle richtig weiterleiten, dass es keine Nachweise für einen Botzugriff darauf gibt, dass andere wie Archive.org genau das bestätigen etc. Nur Google behauptet es mit der Folge, dass der Traffik von heute auf morgen um 80% gefallen ist. Und schön natürlich, warum ist der nun gefallen? Wegen dem Core-Update? Wegen dem "Fehler"? Wegen Corona-Maßnahmen? Ist ja quasi alles +-2 Tage zusammen. Und eben just die Daten aus genau dem Zeitraum in den Webmastertools fehlen.


    Fakt ist nur, die Fehler sind da, sind im Index und ich habe weniger Traffik als letztes Jahr im kompletten Lockdown.


  • Ich korrigiere mich wegen dem Referrer. Das ist doch nicht nur die eine spezielle Datei, das sind alle. Sogar mit zeitlichem Ablauf, also nicht wie sonst, eine URL, dann später irgendwann eine andere. Nee. Zugriff auf eine Seite, dort direkt Zugriff auf Piwik und auf die Maps von OSM.


    Code
    66.249.74.64 - - [25/Nov/2021:18:13:15 +0100] "GET /unterkuenfte/art-Ferienh%C3%A4user/land-Niederlande/ HTTP/1.1" 200 8714 "-" "Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)"
    
    
    66.249.74.64 - - [25/Nov/2021:18:13:18 +0100] "GET /addons/piwik/piwik.php HTTP/1.1" 200 20850 "https://www.hund-und-herrchen.de/unterkuenfte/art-Ferienh%C3%A4user/land-Niederlande/" "Mozilla/5.0 AppleWebKit/537.36 (KHTML, like
    Gecko; compatible; Googlebot/2.1; +http://www.google.com/bot.html) Safari/537.36"
    
    
    66.249.74.64 - - [25/Nov/2021:18:13:19 +0100] "GET /addons/leaflet-osm/ajaxdata/osm-map-data-20210104.php?v=0.1&id=20392&typ=100200000&objekt=5 HTTP/1.1" 200 5327 "https://www.hund-und-herrchen.de/unterkuenfte/art-Ferienh%C3%A4u
    ser/land-Niederlande/" "Mozilla/5.0 AppleWebKit/537.36 (KHTML, like Gecko; compatible; Googlebot/2.1; +http://www.google.com/bot.html) Safari/537.36"


    Die Zugriffe 2 und 3 scheinen der Renderer zu sein.

  • >> Und genau diese Seite X eben auch seit 2014 nicht mehr existiert.


    Das kann ja eigentlich nur bedeuten, dass sie sich aus dem eigenen, alten Archivierten bedienen.

    Eat the rich giants.

  • Das kann ja eigentlich nur bedeuten, dass sie sich aus dem eigenen, alten Archivierten bedienen.

    Leider ja. Ich sehe es so an, es gibt da keine andere Erklärung. Wir haben auch andere Sachen untersucht. Alles sauber 301 oder schon sehr lange weg. Auch die Ketten haben wir nachverfolgt. Also www/ohne_www, ssl mit und ohne. Auch anderen Krams wie Landingpages, die schon lange nicht existieren.

    wenn etwas möglich erscheint mach ich das, wenn das nicht klappt gehts ans unmögliche und ansonsten das undenkbare.

    Ich denke, also BING ich!


    Support 24h Bereitschaft 0163 2161604 - NUR Für Kunden von SEO NW!

  • Das kann ja eigentlich nur bedeuten, dass sie sich aus dem eigenen, alten Archivierten bedienen.

    Genau diese Vermutung habe ich gerade, dass die sich was selbst zusammenbauen, aus alt und neu und halt einfach z.B. beim Cache ein Datum setzen, wenn das passierte. Daher oben das mit "wenn Google behauptet, was gefunden zu haben".


    So nach dem Motto: Verkaufe original Neuwagen BJ 2021, ist aber ein VW Käfer von 1965 mit einem Radio von 2000.


    Musste grad mal schauen. SSL gibt es seit Juli 2015, damals noch ein gekauftes von Comodo. Ohne www gab es noch nie, wenn, dann nur durch einen Serverfehler. Wird aber immer weitergeleitet. Die alten URL-Struktur gab es letztmalig im Oktober 2014. Und im Index ist seit dem Problem eine Mischung aus allem. Also nicht nur Unterschiede bei den einzelnen Seiten, sondern auch bei den Kombinationen einer Seite selbst, z.B. hat SSL, aber kein www oder alte URL-Struktur. Und die Struktur lässt sich einfach erkennen, denn es wechselte z.B. "_" auf "-" oder sowas wie "/seite-1" einfach zu "/", also "Pagination" für Seite 1 entfernt etc. Ist alles wieder da und im Index ;)


    Und das ist ja noch nicht alles. Gibt ja noch mehr, was in den Zeitraum fällt.

  • Mir geht es hier auf die Nerven Cura, wenn du wieder mit immer der gleichen Grundsatzfrage kommst. "Wozu Google und Bing bedienen?" Ja, gleich kommt die Erläuterung und ich hab es falsch verstanden. Lass es einfach bitte. Das zerstört das ganze Thema. Es ist belanglos -deine Lösung - dagegen sein - Gut, schön für dich. Es ist bekannt, es ändert nichts. Lass sie doch ihr Problem beackern. Musst du doch selbst merken? Die Jungs sind frustriert und du reist das Thema mit einem Schwall aus Selbstbeweihräucherung an dich.

    Sag ich was dazu, haust du wieder dagegen, ziehst auch Zeug aus dem Internen raus. Du hast zu diesem Thema einfach mal nicht recht. Du denkst doch, ich sage Nein, hast du nicht. Die Frage, die jetzt käme, erspare ich dir. Lass es doch bitte, bei solchen Themen. Einfach lassen. Danke. Kein Bock ein technisches Problem emotional mit einer gefühlten Wahrheit zu beackern, ich hab da keine Nerven drauf. Lass es beim technischen, wenn da nichts kommt, komplett zu dem Thema lassen. Es geht mir einfach sowas von auf die Nüsse. Alles Andere gern, den Käse mit Bing und Google ist doof in einem Suchmaschinenforum einfach lassen. (Das schreibe ich dir mittlerweile zum 7-mal in diesem Forum.) Ich könnt da echt bekloppt werden und kann absolut nicht nachvollziehen, wie man immer und immer wieder mit der gleichen Leier kommt und sich selbst dann noch ernst nimmt.

    Lösungen habe ich genug gezeigt, die funktionieren, die Geld bringen. Wenn die nicht akzeptiert oder umgesetzt werden - ist nicht mein Problem. Bein Syno ist das ein Spezialfall, der ist hier komplett raus aus meinem Rant. Es regt mich so auf, wie man das Thema wieder für sich vereinnahmen kann.


    Was du jetzt genau willst Alex, besonders in Bezug auf die Webmasterrichtlinien habe ich aber leider auch nicht verstanden. Der Link zu deiner Webseite, was genau soll ich da lesen? Wo soll ich hinschauen, wenn es schlecht geschrieben ist, warum soll ich es lesen? Du suggerierst mir hier irgendwie die große Lösung, etwas Mystisches im ersten Post - verstehen, worauf du hinaus willst tue ich aber nicht. Geht es um eine Lösung? Oder nur erstmal um die Definition des Problem? White Gray What? Oder ging es nur um den Linkeinbau? Ich verstehe es nicht.

  • Was du jetzt genau willst Alex, besonders in Bezug auf die Webmasterrichtlinien habe ich aber leider auch nicht verstanden. Der Link zu deiner Webseite, was genau soll ich da lesen? Wo soll ich hinschauen, wenn es schlecht geschrieben ist, warum soll ich es lesen? Du suggerierst mir hier irgendwie die große Lösung, etwas Mystisches im ersten Post - verstehen, worauf du hinaus willst tue ich aber nicht.

    Ich habe mir den Mist durchgelesen, mal wieder. Ich hatte 10 Minuten Zeit das zu machen, natürlich gegen die Regel verstoßen, dieser Mist wird aber irgendwann besser ranken als, wenn man sich noch Mühe macht.


    Es sind mehrere Sachen die hier hochkochen.

    Ich kann zB das mit dem Googlebot nicht verstehen. Wir sind da seit ein paar Tagen dran, aber es bringt nix. Den einzigen Rat dem ich am Schluss an Syno gegeben hatte war wie im Eingangspost:


    Draus lernen!

    ja und das ist auch korrekt. Denn Bugusing kann ich ;)

    Wenn Google scheisse ist, weil die das nicht raffen, ist das wieder ne andere Sache. Denn die Benutzer bleiben aus.. Siehe Synos Bild. Die Benutzer nehmen leider ab.


    Da verstehe ich keinen Spass!


    Denn das was ich mache ist Grenzwertig ( Grey ), was da geschieht ist ne ganz andere Sache und kann Existenzen zerstören. Es ist technischer Natur und absolut!!! nicht nachvollziehbar was da geschieht.

    wenn etwas möglich erscheint mach ich das, wenn das nicht klappt gehts ans unmögliche und ansonsten das undenkbare.

    Ich denke, also BING ich!


    Support 24h Bereitschaft 0163 2161604 - NUR Für Kunden von SEO NW!

  • >> und du reist das Thema mit einem Schwall aus Selbstbeweihräucherung an dich.

    >> ziehst auch Zeug aus dem Internen raus.

    >> wie man immer und immer wieder mit der gleichen Leier kommt und sich selbst dann noch ernst nimmt.


    Darf ich dann auch mal persönlich werden Lunte, ohne das Du gleich wieder ausflippst?


    Denn dazu neigst Du in der letzten Zeit und Du wirst immer extremer und mir gefällt so manches was Du an Extremen in der letzten Zeit ablässt auch nicht so besonders, ist mir unverständlich. Aber ich lasse Dich machen. Das nennt man, wie Du selbst weisst, Toleranz und die geht Dir immer mehr verloren. In vielen Beziehungen.


    Selbstbeweihräucherung?


    Das empfinde ich schon hart am Rande der Beleidigung und Anmassung. Das mag Dir so vorkommen. Wenn es anderen auch so erscheint: Bitte mir zur Kenntnis bringen, ich gehöre nicht zu denen, die sich zur Meinung anderer keine Gedanken machen, ich sehe sowas auch durchaus selbstkritisch. Vielleicht drücke ich mich schicht falsch aus. Selbstbeweihräucherung hat viel mit Selbstlob zu tun, auch indirektem. Ich mag so manche negative Eigenschaft haben, Selbstbeweihräucherung gehört nicht dazu. Allein schon, weil es mir nichts bringt mich selbst zu loben. Und was andere von mir halten ist mir eh egal.


    Und ja, Du hast vieles beigetragen was unter Seo fällt. Funktioniert aber leider meist nur noch in kleinen, wenig umkäpften Nischen. Und ich werde nicht aufhören immer wieder daran zu erinnern was falsch läuft, auch wenn es nur meine Meinung ist und so gut wie nicht beweisbar, also muss der Anschein reichen. Man muss akzeptieren wie es ist, man muss aktzeptieren wie Google tickt? Nee, muss man nicht. Für aktuelles arbeiten ja, dafür wie es weitergeht und weitergehen soll Nein. Also mach ich halt weiter den Rufer in der Wüste, auch wenn es DIR nicht passt. Vielleich kommt ja noch der ein oder andere dazu, der Google nicht gottgleich sieht und wenn es dann mal mehr werden sollten.. Du bist ja nicht der Einzige der hier liest.


    >> ziehst auch Zeug aus dem Internen raus.


    Keine Ahnung was Du jetzt damt so wirklich sagen willst. Was hab ich denn auch dem Internen herausgezogen, was nicht herausgezogen werden sollte? So interpretiere ich das, auch und vielleicht weil ich Deine Aussage nicht so wirklich verstehe. Versuchs halt mal mit einem Beispiel.


    >> wieder mit der gleichen Leier kommt und sich selbst dann noch ernst nimmt.


    Gleiche Leier? Und sich trotzdem ernst nehmen?


    Sorry, dazu sag ich jetzt mal nichts, das würde zu persönlich und wahrscheinlich wärst Du für den Rest Deines Lebens sauer.


    Und nochwas, ich hab mich nicht in einem fortgeschrittenen Fred eingeklinkt, ich war der erste, der auf das von Alex Geschriebene reagiert hat und da war so gar nicht klar, worauf er mit seinem Vortrag hinauswollte.

    Eat the rich giants.

    Einmal editiert, zuletzt von cura ()

  • was er aber, so mein Gefühl, immer noch teilweise auf eigene Unzulänglichkeit zurückführt

    Da stimme ich Dir sogar zu, wenn es Dinge sind, wo viel zusammen kommt und nicht klar ist, was nun was ist. Hatte ja einen Serverausfall, dann einen Serverwechsel, auch wechsel von Apache auf Nginx, dann DNS-Provider-Wechsel (Prosite) und dann gab es da noch die Google-Updates. Also sehr viel auf einmal und mehr oder weniger alles binnen einer Woche.


    Seit 10 Tagen suche ich nun schon nach einem Problem. Ja, ich dachte das liegt an mir bzw. meinem neuen Server. Ein Bild zum angucken.



    Der erste Knick nach unten war der Serverwechsel von Apache auf Nginx. Dann kam plötzlich ein ganz komisch niedriger Wert. Am Ende dann wieder "normal". Nee, nicht normal, denn das ist genauso langsam wie vor dem Serverwechsel, das kann nicht sein.


    Andere Sub, gleicher Server:



    Auch hier. Erst normal, dann Wechsel auf Nginx. Plötzlich auch hier alles sehr langsam. Natürlich macht man sich dann Gedanken, ob da was am Server falsch ist oder falsch läuft. Also suchen, suchen und noch mal suchen. Dabei merken, dass gar kein Status 304 ausgeliefert wird. Warum nur?


    Als Erklärung zwischendurch. Es werden hier statische Dateien abgerufen, Bilder. Und die Bilder sind die gleichen, die laufen nur über verschiedene Subs. Es ist also die gleiche Zieldatei, der gleiche Zielserver, die gleiche Config. Unterschied ist nur, dass einmal per img0.domain.tld und einmal mit img0.anderedomain.tld abgerufen wird.


    Die WMT bestätigen es, kein 304:



    Seit dem 1.11. oder 2.11. erfolgt kein einziger Status-Code 304 mehr. Also laut Google. Nicht nur bei der Domain, auch noch bei anderen, aber NICHT ALLEN.


    Also einen anderen Server genommen, der von den ganzen technischen Umstellungen nicht betroffen war. Dort erst mal alles gut, bis heute morgen. Ich dachte ich verschluck gleich die Kaffeetasse....



    Ok, auch heute wieder den ganzen Tag bisher gesucht und gemacht und getan, dann finde ich zufällig dieses Bild hier bei Twitter.....


    Quelle:

    Externer Inhalt twitter.com
    Inhalte von externen Seiten werden ohne deine Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklärst du dich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.


    Schaut irgendwie sehr ähnlich aus, wie bei mir. Also weiter gesucht und dann den Artikel hier gefunden: https://www.searchenginejourna…ling-reduced-data/427238/


    Was soll ich sagen? Ich kann alles was da drinnen steht bestätigen, nur teilweise mit anderen Daten, also Tendenz eher ein paar Tage früher oder eben, wie das vorletzte Bild, jetzt erst.

  • >> Bing kündigte im Oktober ein Open-Source-Indizierungsprotokoll namens IndexNow an, dessen Ziel es ist, die Häufigkeit des Crawlings von Webseiten zu reduzieren, um den Energieverbrauch in den Datenzentren für das Crawling und auf den Servern für die Bereitstellung von Webseiten zu verringern. Das neue Protokoll kommt den Herausgebern zugute, weil es den Prozess der Benachrichtigung von Suchmaschinen bei der Aktualisierung oder Erstellung von Seiten beschleunigt, was zu einer schnelleren Indizierung hochwertiger Webseiten führt.


    Jo, da haben wir sie wieder, die "hochwertigen" Websites. Was aber unter "hochwertig" zu verstehen ist, verbirgt sich hinter einer Nebelwand.

    Eat the rich giants.