Haben die .com und .org einen gemeinsamen Nenner?
Der Googlebot hat keinen Zugriff auf Ihre Website
-
-
nein. Eine .com bei Strato (Domain und Hosting), die andere bei Prosite (Domain). Die .org ist bei United-Domains.
Wo hat denn UnitedDomains seine Server stehen? Mein von Strato und Prosite sind in Berlin. Die von Margin auch.
Ok, United-Domains ist Starnberg.
-
Äehm ... die von Margin auch? Unser Rootserver steht irgendwo bei Straßburg jenseits der Grenze. Wo die anderen alle sind ... weiß der Geier. Da müsste ich erstmal die Hoster alle zusammenkramen
-
Echt.. Ich bekam da Berlin als Info. Hatte da wohl was falsch eingetippt, denn jetzt kommt "Huerth" (AS8972 PLUSSERVER-AS intergenia AG).
-
Dann wäre unser der einzige (?) der nicht mit umgezogen ist ins "Grüne-Center"
Aber wie gesagt, nicht meine Baustelle. Da müsste "Who-Must-Not-Be-Named" ran ... *** Link veraltet *** -
Ich glaube nicht, dass das was mit uns zu tun hat oder dass wir da einen Einfluss drauf hätten. Verschiedene Orte, verschiedene Provider, verschiedene Hoster..... Gleicher Fehler.
-
Also ich glaube, ich bin hier nun einen Schritt weiter, aber einen Sinn macht mir das dennoch nicht. Ich habe irgendwie das Gefühlt, dass diese DNS-Fehler in den WMT angezeigt werden, wenn Google auf eine Subdomain zugreift, die es nicht gibt oder direkt auf auf die IP.
Ich habe nämlich seit genau diesen ca. 3 Wochen auch solche Meldungen im error.log
Code[Wed Apr 10 08:32:57 2013] [error] [client 66.249.75.165] client denied by server configuration: /var/www/robots.txt [Wed Apr 10 08:32:57 2013] [error] [client 66.249.75.165] client denied by server configuration: /var/www/
Beim Zugriff auf so eine nicht vorhandene Sub bzw. IP reagiert mein Server mit einem 403 Forbidden. Aber wie gesagt, verstehen tue ich es nicht und es ist nur eine Vermutung, denn in den WMT gibt es ja einen extra Punkt für "Zugriff verweigert" und die besagte Meldung bezieht sich ja ausdrücklich auf DNS.
Wobei mir hier auch eines stutzig macht, auch wenn das nun was anderes ist. Ich hatte das eben selbst probiert mit fiktiven Subs und der IP. Direkt nach jedem Zugriff war der G-Bot auch da (z.B. Wed Apr 10 08:32:57 2013). Wie zum Geier kann das denn sein? Das kenne ich nur von Adsense und Toolbar, aber doch nicht auf einer leeren Seite mit 403 Status ?!?! Oder war das nun nur Zufall?
Edit... Nächster Schritt...
ZitatDNS
Der Googlebot hat Ihre URL nicht gecrawlt, weil keine Kommunikation mit dem DNS-Server möglich war oder weil auf Ihrem Server kein Eintrag für Ihre Website vorhanden war.
Was heißt hier "kein Eintrag"? DNS oder vHost oder was? Also das vHost bedeuten soll. Das ist er in dem Fall auch wirklich nicht. Nur das ist dann ja kein DNS-Fehler... Was soll denn die irreführende Meldung?ZitatWebsites können so konfiguriert werden, dass sie auf alle Anfragen der Sub-Domains reagieren. Beispielsweise kann die Website unter example.com so konfiguriert werden, dass sie auf Anfragen von foo.example.com, made-up-name.example.com und sämtlichen anderen Sub-Domains reagiert. Bei einigen Websites ist das sinnvoll, zum Beispiel wenn eine Website mit von Nutzern erstellten Inhalten jedem Konto eine eigene Domain zuweisen möchte (*** Link veraltet ***). In anderen Fällen kann eine solche Konfiguration jedoch zu einer unnötigen Duplizierung der Inhalte zwischen verschiedenen Hostnamen führen und sich darüber hinaus auf das Googlebot-Crawling auswirken
Wildcard-Eintrag also. Ja, der ist vorhanden. Aber der Server verweigert dann ja den Zugriff, also nicht doppelt oder so.ZitatZur Minimierung der Probleme bei Platzhalter-DNS-Einrichtungen können Sie Ihre Website entweder so konfigurieren, dass sie nicht verwendet werden, oder Sie konfigurieren Ihren Server so, dass er nicht auf nicht vorhandene Hostnamen antwortet. Dazu kann er entweder den Verbindungsversuch ablehnen oder eine HTTP-Statusfehlermeldung zurückgeben, wie 404 oder 500.
Aho... 404 oder 500 also. Ich sende 403. Wobei der 403 ja als "nicht verwendet werden" bzw. "Verbindung ablehnen" gedacht war.403 heißt doch...
ZitatThe server understood the request, but is refusing to fulfill it. Authorization will not help and the request SHOULD NOT be repeated.
-
Ich hab das bei ALL-INKL, PrivatPlus, seit Monaten. Mal massiver, mal länger nichts. Mehrere Accounts, mit jeweils unterschiedlichen Domains/Seiten. Bei Google alle so eingerichtet, dass "http://www.%22-variante zu bevorzugen ist. Alle haben einen Redirect drin, um "www." zu erzwingen. Angemahnt werden immer Domains ohne "www.". Geht reihum durch die Domains und Accounts. Alle Seiten haben identische Architektur und Konfiguration. Alle erreichbar. In den Log-Files und Webmastertools-Crawling-Statistiken keinerlei Auffälligkeiten bzgl. längerer Aussetzer o.ä. Ich ignoriere das mittlerweile nach einem kurzen Test, ob erreichbar.
-
Könnte es vielleicht auch an euren großzügigen cach-Angaben in der htacces liegen? Den merkt sich die Suchmaschine auch bei Fehlern.
-