Sitemap konnte nicht abgerufen werden

  • Sagt mal, hat einer von euch eine Idee? Google meint, meine Sitemap könnte nicht abgerufen werden, sagt mir aber nicht warum. In den Serverlogs sehe ich allerdings direkt nach der Einreichung einen Zugriff auf die und die hat einen Status-Code von 200. Also abgerufen werden kann sie wohl. Was will Google von mir?



    Die zweite im Bild ist die eigentliche. Das ist die "Index-Sitemap". Die geht. Die erste im Bild ist nur als Test. Das ist die eigentliche Sitemap, die in der "Index" ist. Habe es da nur direkt versucht, aber geht nicht. Hier heißt es also "konnte nicht abgerufen werden".


    Hier ist die Ansicht der regulären "Index", in der die einzelne Sitemap ist. Auch diese geht nicht. Man sieht also, die Index geht, die enthaltene Sitemap nicht.



    Die Frage wäre nun nur, warum?


    Wenn ich die Sitemap anklicke und mir den Status derer ansehen, dann heißt es dort aber plötzlich, die Sitemap konnte nicht gelesen werden. Ja was denn nun, abgerufen oder gelesen. Eigentlich stimmt beides nicht.



    Das ist eine .gz, ja, aber das ist alles sauber. Die kann man manuell herunterladen und in sämtlichen Tools / Programmen problemlos entpacken und öffnen. Es ist auch das gleiche "Sitemap-Script", das die da erzeugt. Also einen Fehler im Script kann ich ausschließen. Das erzeugt noch viele andere Sitemaps samt "Index", nur mit einem anderen Domain-Namen. Alle anderen gehen, die da aber nicht. Warum?

  • Ähm, jetzt wo ich das geschriebene noch mal lese fällt mir was auf, aber ich verstehe es noch weniger. Mal ein komplettes Bild der Index-Sitemap mit Inhalt:



    Und das ist bei einer anderen Domain. Wie gesagt, gleiche Script, nur anderer Name der Datei. Alle bei Google genauso eingereicht.



    Jetzt stelle ich mir noch zusätzlich die Frage, warum die im ersten Bild mit DOMAIN-Name aufgeführt wird und die im zweiten Bild nicht. Beide gleich eingereicht, geht ja gar nicht anders. ?!?!?!


    Und der Inhalt der Index-Sitemap ist auch richtig. Sagt Google ja selbst, konnte gelesen werden:


  • mal blöd frage:

    hast du die in der robots.txt eingegeben, bzw gemeldet? Stehen da die richtigen Domains drinne?


    Frage nur, weil mir das auch schon passiert ist mit der robots.txt

    da stand dann


    Sitemap:falsche.url

    wenn etwas möglich erscheint mach ich das, wenn das nicht klappt gehts ans unmögliche und ansonsten das undenkbare.

    - nun stolz rauchfrei - Ich denke also Bing ich!


    Support 24h Bereitschaft 0163 2161604 - NUR Für Kunden von SEO NW!

  • Die ist sowohl in den WMT ganz normal gemeldet als auch in der Robots.txt angegeben


    P.S. Eine Sitemap, die nur in der robots.txt steht, erscheint nicht in der Liste der WMT.


    https://www.ferien-ostseekueste.de/sitemap/ferien-ostseekueste-sitemap_index.xml


    enthält:

    https://www.ferien-ostseekueste.de/sitemap/ferien-ostseekueste-sitemap1.xml.gz


    und die robots.txt auch, also die Index entsprechend:

    https://www.ferien-ostseekueste.de/robots.txt



  • Selbst das Forum hier konnte sie abrufen:


    2a01:4f8:242:534d::3 - - [13/Jul/2022:10:02:13 +0200] "GET /sitemap/ferien-ostseekueste-sitemap1.xml.gz HTTP/1.1" 200 13370 "-" "WoltLabSuite/5.5 (URL Unfurling; like Twitterbot)"


    Und da hat sie Google heute Nacht abgerufen, erfolgreich:


    66.249.75.48 - - [13/Jul/2022:00:14:06 +0200] "GET /sitemap/ferien-ostseekueste-sitemap1.xml.gz HTTP/1.1" 200 13871 "-" "Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)"


    66.249.75.46 - - [13/Jul/2022:02:59:20 +0200] "GET /sitemap/ferien-ostseekueste-sitemap1.xml.gz HTTP/1.1" 200 13871 "-" "Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)"

  • Hat keiner eine Idee? Seit nun drei Monaten werden Sitemaps nicht mehr geladen. Ich habe wirklich keine Lust mehr. Heute der letzte Tag und der letzte Versuch / Versuche, dann gebe ich auf.


    Habe heute 173 Sitemaps hochgeladen. Immer Stück für Stück erweitert, umbenannt, hochgeladen. Eine URL, noch 5, weitere 10 eingetragen etc.... Immer schön aufgebaut und jede einzelne verfluchte Sitemap gemeldet. Das jeweils als normale XML als auch als xml.gz


    Die ersten 5 Sitemaps gingen noch, das waren dann maximal 462 URL in der Liste. Sitemap 6 mit genau einer URL mehr ging nicht mehr: "Konnte nicht abgerufen werden". Also die eine URL wieder gelöscht, umbenannt und nur hochgeladen. Zack, nun geht die auch nicht mehr.


    Alles wieder zurück, neu angefangen, gleiches Spiel wieder, aber an derer Stelle. Also Server gewechselt und über den versucht. Dito, andere Stelle, aber Ende. Noch mal Server gewechselt, diesmal sogar von Apache auf NginX, was soll ich sagen? Dito.


    Die Sitemap von hier aus dem Forum genommen, die wird laut Google erkannt, bei mir hochgeladen, drei mal Fehler.


    Die Originale, also mit allen URLs gehen natürlich auch nicht.


  • Und mache ich absichtlich einen Fehler, also Datei falsch benannt, dann kommt Fehler: Nicht gefunden. Oder Syntax falsch, dann kommt die entsprechende Meldung. Ist aber alles eigentlich richtig, dann kommt immer nur dieses verfickte "Konnte nicht abgerufen werden" ohne auch nur ansatzweise zu sagen, warum.