"Abruf wie durch Google" kaputt?

  • "Der google Bot hat bei mir in den letzten Tagen täglich abnormale 400% der Seitenanzahl gecrawled"

    Das Verhalten habe ich witzigerweise auch. Wobei ich mir da auch nicht sicher bin, ob das stimmt. Da werden viel mehr Seiten angeblich abgerufen, als es überhaupt gibt. z:b. eine winzige Seite, 689 Abrufe laut Google am 8.9, aber die Domain besteht inkl. Favicon und Robots.txt nur aus 21 Dateien.

    Vielleicht bestehen die Probleme aber auch nur darin, dass die nun die neue Search-Console "ausbauen". Gibt da nun ja einiges neue.

    Wenn Dein Provider allerdings den Bot sperrt, dann gibt es nur eine Lösung -> wechseln

    Aber rufe doch mal die Dateien ab, die angeblich nicht erreichbar waren. Geht ja, musst ja keine Webseite vom Bot abrufen lassen, kann ja auch ein CSS oder Bild sein. Bei mir geht das dann komischerweise fehlerfrei.

    Wenn ein Mensch nicht um dich kämpft, hat er nur gewartet, dass du gehst. ;(

  • Rufe ich mein Seite von vorher wieder ab, dann kommt das hier:

    [ATTACH=JSON]{"data-align":"none","data-size":"full","title":"g-abruf-1.jpg","data-attachmentid":117398}[/ATTACH]

    Also CSS nicht gefunden. Rufe ich das aber direkt ab, dann kommt das:

    [ATTACH=JSON]{"data-align":"none","data-size":"full","title":"g-abruf-2.jpg","data-attachmentid":117399}[/ATTACH]

    Funktionierte also....

  • Dann ist das bisher die heißeste Spur.
    Dein Provider wird einen ähnlichen Algorithmus haben wie meiner, und die Bot-Zugriffe regulieren.
    Bei 689 Bot-Anfragen am Tag mit sagen wir 40 angefragten Ressourcen pro Seitenanfrage, löst das 27.560 Bot-Interaktionen am Server aus.
    mein Provider hat bestätigt, dass dann ihr Algorithmus eingreift, und die Anfragen/h limitiert (DDOS-Protection), da der Anfragentakt auf dem Server anorganisch fremd jeden Maßes ansteigt.

    Deswegen ist der Fehler auch nicht immer gleich, und niemals 1:1 reproduzierbar.

    Lösung: Crawling in der robots.txt auf 1x/d runterregulieren, sodass die Crawlingaktivitäten auf dem Server max. 100%/Seitenanzahl/Tag entspricht.
    Das ist quasi bei jedem Provider noch in der Normofrequenz, und wird nicht abreguliert.

    Ich würde an deiner Stelle deinen Provider mal anschreiben und genau das erfragen. Sollte er das bestätigen, dann haben wir den Fehler gefunden, und können das in den anderen Foren kundtun, und für die Zukunft auf die Checkliste setzen.

    Weitere Indizien dafür sind abnormal lange Renderingzeiten bei „Abruf wie durch google“.
    Dass Pagespeed Insights problemlos funktioniert, scheint damkt zu tun haben, dass dieser Bot eine andere IP hat.

  • Mein Provider reguliert da gar nichts. Sind eigene Server und bis 10 TB am Tag kann ich machen was ich will. Er hat mich nur einmal "reguliert", als ich einen DNS-Fehler hatte, der am Tag an die 4 Mio Zugriffe auf deren DNS-Server verursachte. Da kam aber sofort eine Meldung der Abuse-Abteilung. Zudem, wie gesagt, einer der ersten Bilder. Die Abfragen, die Google da angeblich nicht kann, die kommen von 3 verschiedenen Servern. Also teilt sich das ohnehin auf. Und 40 oder habe ich eh nicht, wenn dann unter 10 und das eben auf 3 Server verteilt, also nix ;)

    Zudem spricht noch viel mehr dagegen. Rendern geht nicht, nur Abrufen aber schon. Wenn der Provider sperren würde, dann könnte der das nicht unterscheiden.

    Wenn Dein Provider aber bestätigt hat, dass er Dich mit nicht mal 30.000 Zugriffen sperrt, dann suche Dir einen anderen Anbieter. Geht ja gar nicht. Ich habe hier Domänen, die bestehen aus fast 600.000 Unterseiten / Bildern!!!

    Wenn ein Mensch nicht um dich kämpft, hat er nur gewartet, dass du gehst. ;(

  • Hoppla, ja das ist sogar sehr logisch. Also .. wenn ressourcen nur teilweise geladen werden.

    Ich glaube aber nicht an ein Hosting Problem, eher ist es ein Google Bug.

    wenn etwas möglich erscheint mach ich das, wenn das nicht klappt gehts ans unmögliche und ansonsten das undenkbare.

    - nun stolz rauchfrei - Ich denke also Bing ich!

    Support 24h Bereitschaft 0173 6107465 - NUR Für Kunden von SEO NW!

  • Wie meinst Du das? Bezogen auf wen. Nur als Info. Ich habe ja noch den Auth vom seo-nw. Auch bei dem bekomme ich die gleichen Fehler wie bei mir. Wenn es am Provider liegt, dann auch an Deiner noch derzeitigen.

    Wenn ein Mensch nicht um dich kämpft, hat er nur gewartet, dass du gehst. ;(

  • hmm komisch. hab jetzt auch 2 Ressourcen. CSS ist aber da. sind nur 2 Bilder
    [ATTACH=JSON]{"data-align":"none","data-size":"full","title":"seonwgoogle.png","data-attachmentid":117427}[/ATTACH]

  • vorrübergehend nicht erreichbar scheint dann ein grösseres Problem zu sein
    https://seo-nw.de/sprite.php?sty…g&ts=1533131527
    Hier werden die Sprites geladen, das andere ist Matomo.

    Komisch ist das ich das auch nutze, bisher aber keine Probleme hatte. Klar, evtl mal robots.txt, aber das ist eindeutig was anderes.

    wenn etwas möglich erscheint mach ich das, wenn das nicht klappt gehts ans unmögliche und ansonsten das undenkbare.

    - nun stolz rauchfrei - Ich denke also Bing ich!

    Support 24h Bereitschaft 0173 6107465 - NUR Für Kunden von SEO NW!

  • nochmal mit der gleichen Ressource getestet. Es ist bei mir so ähnlich. Aber nicht so krass wie bei euch. Am Hosting liegt es nicht. Es muss ein Google Problem sein.
    [ATTACH=JSON]{"data-align":"none","data-size":"full","title":"seonwgoogle.png","data-attachmentid":117431}[/ATTACH]

  • Glaube ich nicht....
    Denn sonst wäre die Seite gar nicht im Index.

    Was ich denke ist das Google ein Daten Problem hat. Die Migration wird sicherlich Probleme bereiten von den Google Webmaster Tools zur neuen Search Console.

    Ich finde da eher weniger drüber Infos. Deswegen kann ich es nur vermuten.

    Das ist manchmal wie das was mir heute passiert ist, einfach sowas ausgeblendet. Bei Google als Konzern wird es noch etwas komplizierter sein. Da gibt es Abhängigkeiten und anderes. Du kannst nicht mal eben so ne Zeile ändern. Dann muss das durch die Prüfung und du siehst was vielleicht raus kommt.

    Es geht hier nicht um Millionen - eher Milliarden oder Billionen.
    rofl:pieks:

    wenn etwas möglich erscheint mach ich das, wenn das nicht klappt gehts ans unmögliche und ansonsten das undenkbare.

    - nun stolz rauchfrei - Ich denke also Bing ich!

    Support 24h Bereitschaft 0173 6107465 - NUR Für Kunden von SEO NW!

  • Mein Host hat mir mitgeteilt, dass sie eingreifen wenn über ein und dieselbe IP der Faktor Seitenanzahl/Serverinteraktionen anorganisch und plötzlich ansteigt.
    Dadurch soll DDOS-Attacken der Treibstoff abgesogen werden.
    Die Crawling-Aktivität des Google-Bot sei seit dem vorletzten Update auffällig, in der Nacht von 07. auf den 08.09. sei diese derart brutal angestiegen, dass deren DDOS-Sperre überhaupt das erste Mal in den Google-Bot eingegriffen habe.

    Das wiederlegt werde meine, noch deine These.
    Es stimmt was nicht in der Search Console/Bot.

  • Nee, das widerlegt es nicht, denn weder bei mir noch bei Alex greift der Hoster ein (verschiedene Hoster). Es stimmt was nicht bei Google, das ist richtig. Dass Dein Hoster einschreitet stimmt aber auch nicht, also nicht im Sinne von "Faktor Seitenanzahl/Serverinteraktionen". Das mag stimmen, was der da sagt, aber die Umsetzung ist quatsch mit Soße. Bei DDoS reden wir nicht von solchen zahlen, sondern von tausenden Zugriffen pro Minute oder Sekunde. Alles andere muss deren Netzwerk aushalten können.

    Was ich sagen will, wegen Bots. Google geht da noch sehr harmlos vor, auch wenn es teilweise sehr viel ist. Da gibt es ganz andere Bots, die 10-20 Seiten pro Sekunde abrufen. Das macht Google nicht.

    Selbst die 700 bei mir, was zu viel ist für die Seite, sind letztendlich nur 3 Zugriffe pro Minute.

    Und habe mich ein wenig umgehört, wegen den Zahlenangaben bei Google bezüglich abgerufenen Seiten. Das ist irreführend, denn die Angabe bezieht sich nicht auf "Seiten", sondern "Zugriffe." Also eine Webseite mit ein HTML, ein CSS, ein JS und ein Bild sind in der Statistik 4 "Aufrufe". Also ein Seitenabruf, der aus 4 Requests besteht.

    Wenn ein Mensch nicht um dich kämpft, hat er nur gewartet, dass du gehst. ;(

  • Gibt es nicht sowas wie "Abruf wie durch Bing" zum Gegenscheken?

    Die Systeme dürften sich ja kaum unterscheiden.

    „Arme Kinder sind genauso schlau und so talentiert wie weiße Kinder.“ :thumbup:

    US-Präsident Biden 2019 in einer Rede in Iowa,