Abgesehen davon, dass ich mal wieder fast keine Suchergebnisse sehe, also so wie schon etliche Jahre immer wieder, funktioniert bei denen ja nichts wirklich. Wie kann man nur so einen Mist entwickeln?
Da sind Seiten im Index, die ich absolut nicht kenne. Alles irgendwelche "Script-Kiddie-Zugriffe", die Bing nun in den Webmastertools listet und die auch im Index sind!
Das ist nur ein Teil. Sind an die 250 Ordner und fast 500 Dateien. Die gibt es alle nicht, liefern einen 404. Warum sind die dann im Index?
Alleine schon der Witz. "Moved Permanently". Der Link da bei "here" ist der gleiche wie vom Request. Das kann also schon mal gar nicht sein, dann das wäre eine Endlosschleife. Und, wie gesagt, die Seiten gibt und gab es nicht, die liefern einen 404.
Dann versuche ich da derartige Seiten und Verzeichnisse zu löschen. Naja, versuche. Geht nicht. Klickt man auf "senden" wird daraus ein "wird gesendet", der Kringel dreht sich und dreht sich, dann passiert nichts. Die Dev-Console meldet aber 2 Minuten später, dass es einen Fehler 500 gab.
Schaut man in den Bereich "IndexNow" und will da was sortieren, geht das auch nicht. Geht, geht schon, aber unbrauchbar. Holt man sich einen Export der Daten, sieht man auch warum. Die sind zu doof ein Datum zu sortieren, also nach Jahr-Monat-Tag. Die sortieren nach Tag-Monat-Jahr....
Dann eine ganz neue Unterseite. Bing meldet bei der Statusabfrage, dass es die Seite nicht kennt. Klar, ist ja auch neu.
Also Indexierung beantragen. 2 Sekunden später kommt:
"Die überprüfte URL ist bei Bing bekannt, weist jedoch einige Probleme auf, sodass sie nicht für unsere Benutzer geschaltet werden kann. Bitte folgen Sie den Bing-Webmaster-Richtlinien."
Ja super. Das kommt quasi bei allen Seiten seit August 2022. Google kennt die alle und hat keine Probleme.
Und als Scherz am Ende. Bing ist so doof, die indexieren sogar einen Klon von sich selbst und schreiben mir dann, ich hätte eingehende Links von der Domain... Klar, sind halt Bing-Suchergebnisse unter einer anderen URL...
Dazu passt ja, was einer von Microsoft erst kürzlich sagte:
"Fabrice Canel von Microsoft sagte, dass Bing jeden Tag 12 Milliarden normalisierte URLs entdeckt, die nie zuvor gesehen wurden. Das ist eine Menge neuer URLs, die der BingBot an einem einzigen Tag finden kann, meinen Sie nicht auch?"
Aha, 12 Milliarden am Tag. Und wie viele davon sind so ein Mist wie oben? Alleine in meinen Logs sind 85% aller Zugriffe von Bing fehlerhaft, weil die zu doof sind, UTF8 richtig abzurufen, www zu beachten, Slashes am Ende der URL etc. etc.