Der Googlebot hat keinen Zugriff auf Ihre Website

  • nein. Eine .com bei Strato (Domain und Hosting), die andere bei Prosite (Domain). Die .org ist bei United-Domains.

    Wo hat denn UnitedDomains seine Server stehen? Mein von Strato und Prosite sind in Berlin. Die von Margin auch.

    Ok, United-Domains ist Starnberg.

    Wenn ein Mensch nicht um dich kämpft, hat er nur gewartet, dass du gehst. ;(

  • Äehm ... die von Margin auch? Unser Rootserver steht irgendwo bei Straßburg jenseits der Grenze. Wo die anderen alle sind ... weiß der Geier. Da müsste ich erstmal die Hoster alle zusammenkramen ^^

    Er war Jurist und auch sonst von mäßigem Verstand.

    (Volker Pispers)

  • Dann wäre unser der einzige (?) der nicht mit umgezogen ist ins "Grüne-Center" ^^
    Aber wie gesagt, nicht meine Baustelle. Da müsste "Who-Must-Not-Be-Named" ran ... *** Link veraltet ***

    Er war Jurist und auch sonst von mäßigem Verstand.

    (Volker Pispers)

  • Ich glaube nicht, dass das was mit uns zu tun hat oder dass wir da einen Einfluss drauf hätten. Verschiedene Orte, verschiedene Provider, verschiedene Hoster..... Gleicher Fehler.

    Wenn ein Mensch nicht um dich kämpft, hat er nur gewartet, dass du gehst. ;(

  • Also ich glaube, ich bin hier nun einen Schritt weiter, aber einen Sinn macht mir das dennoch nicht. Ich habe irgendwie das Gefühlt, dass diese DNS-Fehler in den WMT angezeigt werden, wenn Google auf eine Subdomain zugreift, die es nicht gibt oder direkt auf auf die IP.

    Ich habe nämlich seit genau diesen ca. 3 Wochen auch solche Meldungen im error.log

    Code
    [Wed Apr 10 08:32:57 2013] [error] [client 66.249.75.165] client denied by server configuration: /var/www/robots.txt
    [Wed Apr 10 08:32:57 2013] [error] [client 66.249.75.165] client denied by server configuration: /var/www/

    Beim Zugriff auf so eine nicht vorhandene Sub bzw. IP reagiert mein Server mit einem 403 Forbidden. Aber wie gesagt, verstehen tue ich es nicht und es ist nur eine Vermutung, denn in den WMT gibt es ja einen extra Punkt für "Zugriff verweigert" und die besagte Meldung bezieht sich ja ausdrücklich auf DNS.

    Wobei mir hier auch eines stutzig macht, auch wenn das nun was anderes ist. Ich hatte das eben selbst probiert mit fiktiven Subs und der IP. Direkt nach jedem Zugriff war der G-Bot auch da (z.B. Wed Apr 10 08:32:57 2013). Wie zum Geier kann das denn sein? Das kenne ich nur von Adsense und Toolbar, aber doch nicht auf einer leeren Seite mit 403 Status ?!?! Oder war das nun nur Zufall?

    Edit... Nächster Schritt...

    Zitat

    DNS
    Der Googlebot hat Ihre URL nicht gecrawlt, weil keine Kommunikation mit dem DNS-Server möglich war oder weil auf Ihrem Server kein Eintrag für Ihre Website vorhanden war.


    Was heißt hier "kein Eintrag"? DNS oder vHost oder was? Also das vHost bedeuten soll. Das ist er in dem Fall auch wirklich nicht. Nur das ist dann ja kein DNS-Fehler... Was soll denn die irreführende Meldung?

    Zitat

    Websites können so konfiguriert werden, dass sie auf alle Anfragen der Sub-Domains reagieren. Beispielsweise kann die Website unter example.com so konfiguriert werden, dass sie auf Anfragen von foo.example.com, made-up-name.example.com und sämtlichen anderen Sub-Domains reagiert. Bei einigen Websites ist das sinnvoll, zum Beispiel wenn eine Website mit von Nutzern erstellten Inhalten jedem Konto eine eigene Domain zuweisen möchte (*** Link veraltet ***). In anderen Fällen kann eine solche Konfiguration jedoch zu einer unnötigen Duplizierung der Inhalte zwischen verschiedenen Hostnamen führen und sich darüber hinaus auf das Googlebot-Crawling auswirken


    Wildcard-Eintrag also. Ja, der ist vorhanden. Aber der Server verweigert dann ja den Zugriff, also nicht doppelt oder so.

    Zitat

    Zur Minimierung der Probleme bei Platzhalter-DNS-Einrichtungen können Sie Ihre Website entweder so konfigurieren, dass sie nicht verwendet werden, oder Sie konfigurieren Ihren Server so, dass er nicht auf nicht vorhandene Hostnamen antwortet. Dazu kann er entweder den Verbindungsversuch ablehnen oder eine HTTP-Statusfehlermeldung zurückgeben, wie 404 oder 500.


    Aho... 404 oder 500 also. Ich sende 403. Wobei der 403 ja als "nicht verwendet werden" bzw. "Verbindung ablehnen" gedacht war.

    403 heißt doch...

    Zitat

    The server understood the request, but is refusing to fulfill it. Authorization will not help and the request SHOULD NOT be repeated.

    Wenn ein Mensch nicht um dich kämpft, hat er nur gewartet, dass du gehst. ;(

  • Ich hab das bei ALL-INKL, PrivatPlus, seit Monaten. Mal massiver, mal länger nichts. Mehrere Accounts, mit jeweils unterschiedlichen Domains/Seiten. Bei Google alle so eingerichtet, dass "http://www.%22-variante zu bevorzugen ist. Alle haben einen Redirect drin, um "www." zu erzwingen. Angemahnt werden immer Domains ohne "www.". Geht reihum durch die Domains und Accounts. Alle Seiten haben identische Architektur und Konfiguration. Alle erreichbar. In den Log-Files und Webmastertools-Crawling-Statistiken keinerlei Auffälligkeiten bzgl. längerer Aussetzer o.ä. Ich ignoriere das mittlerweile nach einem kurzen Test, ob erreichbar.

  • Könnte es vielleicht auch an euren großzügigen cach-Angaben in der htacces liegen? Den merkt sich die Suchmaschine auch bei Fehlern.

    Im Nachhinein betrachtet, ist selbst die Sorge um den Tod umsonst!