Beiträge von Blerry

    Das ist so nicht ganz richtig.

    Ihr könnt fast jeden Browser als verschiedene Devices agieren lassen.
    So ist Instagram auch aus dem Browser vom Desktop verwendbar.

    Wenn ihr eine junge Zielgruppe ansprecht ist Instagram ein powervolles Tool um User zu binden.
    Massiver Nachteil ist, dass keine Links unter Posts gesetzt werden können.

    Ich würde Instagram deshalb nur dann empfehlen, wenn ihr bei jungen Nutzern eine Markenbindung erzeugen möchtet, oder ständig neuen Content produziert und dafür Reichweite generieren möchtet.

    Mein Host hat mir mitgeteilt, dass sie eingreifen wenn über ein und dieselbe IP der Faktor Seitenanzahl/Serverinteraktionen anorganisch und plötzlich ansteigt.
    Dadurch soll DDOS-Attacken der Treibstoff abgesogen werden.
    Die Crawling-Aktivität des Google-Bot sei seit dem vorletzten Update auffällig, in der Nacht von 07. auf den 08.09. sei diese derart brutal angestiegen, dass deren DDOS-Sperre überhaupt das erste Mal in den Google-Bot eingegriffen habe.

    Das wiederlegt werde meine, noch deine These.
    Es stimmt was nicht in der Search Console/Bot.

    Dann ist das bisher die heißeste Spur.
    Dein Provider wird einen ähnlichen Algorithmus haben wie meiner, und die Bot-Zugriffe regulieren.
    Bei 689 Bot-Anfragen am Tag mit sagen wir 40 angefragten Ressourcen pro Seitenanfrage, löst das 27.560 Bot-Interaktionen am Server aus.
    mein Provider hat bestätigt, dass dann ihr Algorithmus eingreift, und die Anfragen/h limitiert (DDOS-Protection), da der Anfragentakt auf dem Server anorganisch fremd jeden Maßes ansteigt.

    Deswegen ist der Fehler auch nicht immer gleich, und niemals 1:1 reproduzierbar.

    Lösung: Crawling in der robots.txt auf 1x/d runterregulieren, sodass die Crawlingaktivitäten auf dem Server max. 100%/Seitenanzahl/Tag entspricht.
    Das ist quasi bei jedem Provider noch in der Normofrequenz, und wird nicht abreguliert.

    Ich würde an deiner Stelle deinen Provider mal anschreiben und genau das erfragen. Sollte er das bestätigen, dann haben wir den Fehler gefunden, und können das in den anderen Foren kundtun, und für die Zukunft auf die Checkliste setzen.

    Weitere Indizien dafür sind abnormal lange Renderingzeiten bei „Abruf wie durch google“.
    Dass Pagespeed Insights problemlos funktioniert, scheint damkt zu tun haben, dass dieser Bot eine andere IP hat.

    Hi zusammen,

    Dann ist die SSL-Spur auch tot...

    Was bei mir auffällig ist, ist ein immenser Anstieg der Crawling-Aktivitäten seit einiger Zeit (also seit die Meldung gehäuft auftritt).
    Der google Bot hat bei mir in den letzten Tagen täglich abnormale 400% der Seitenanzahl gecrawled, was einen Eingriff des Regulierungs-Algorithmus` seitens des Hosters ausgelöst haben könnte.
    Ich habe bisher googles Crawling-Besuche nicht per robots.txt reguliert.
    Sollte sich diese Kausalkette bewahrheiten, und der Index-Absturz tatsächlich mit der Problematik zusammenhängen, dass mein Hoster es dem Bot untersagt wichtige Daten fürs Rendern abzurufen, dann wird mir das für die Zukunft eine Lehre sein.

    Hi,

    Die https-Version wird per 301 Weiterleitung in der .htaccess erzwungen.
    Somit gibt es eigentlich nur eine einzige Möglichkeit bzw. Version der Seite, und Ressourcen sind nur darüber zu erreichen.

    Ich sehe allerdings trotzdem einen Zusammenhang von Umstellung auf https und den erwähnten Problemen, da die Console erst seit diesem Zeitpunkt Probleme macht.
    Auffällig ist auch, dass das Problem wohl viele betrifft, zu unterschiedlichen Zeitpunkten eintraf, aber seitdem nonstop vorhanden ist.
    Deshalb meine Frage an alle Betroffenen, wann auf SSL umgestellt wurde.

    Wenn ich in der Search Console 3x hintereinander die selbe URL rendern lasse, bemängelt GSC 3x unterschiedliche Ressourcen, die angeblich nicht erreichbar wären.

    Die Problematik geht jetzt mittlerweile seit Wochen so, ohne irgendeine Lösung in Sichtweite zu haben...

    Hallo zusammen,

    Ich habe das exakt gleiche Problem.
    Desweiteren tritt das Problem wohl derzeit gehäuft auf.
    Wie ich dort ebenfalls schon schrieb, hat das (durch Google bestätigt) massive Auswirkungen auf meinen Pagerank, ich habe mit immensem Trafficverlust zu kämpfen.
    Google verweist auf Anfrage auf die ausgegebene Fehlermeldung, diese sind allerdings nicht nachvollziehbar da nicht reproduzierbar.
    Ausserdem sind alle Resourcen einwandfrei abrufbar.

    Ich habe nun bereits mehrere hundert Stunden reingesteckt und deshalb hier eine vermutende Frage:
    Hast du in den letzten Monaten auf https umgestellt?
    Wenn ja, wann hast du zuletzt die Search Console rendern lassen? (ist das das erste Rendering nach https-Umstellung?)