Google Search Console - Diverse Fehlermeldungen

  • Sagt mal, kann sich einer von euch daraus einen Reim machen oder versteht es sogar? Ich habe mehrere Probleme, laut Fehlerbericht, auf mehreren Domänen. Als Bild dann nur mal eine als Beispiel. Sind aber seltsame Probleme, sage ich gleich vorab. Soviel auch, die neuen Fehler-Angaben in der neuen Search Console währen besser, ausführlicher, hilfreicher. Mich verwirren die alle nur.

    So, mal das Bild als Erstes, Erklärung darunter....

    [ATTACH=JSON]{"data-align":"none","data-size":"full","title":"google-4.jpg","data-attachmentid":119412}[/ATTACH]


    So, Fakt ist, die URL ist tatsächlich nicht im Index. Es handelt sich in diesem Fall um ein Bild. Wollte dann die "Indizierung beantragen" und Google führt den "Live-Test" durch bzw. behauptet es. Das Ergebnis des Tests ist das oben ^^. Wobei schon alleine die Angabe "nicht im Livetest geprüft" völlig irreführend ist, denn genau das war er ja.

    So, nicht im Index, Grund: robots.txt. Fakt zwei hier, die robots.txt ist LEER.

    Hat hier einer eine Idee? Das ist nicht nur hier so, das habe ich häufiger.

    Dann andere komische Fehler wie:

    "Soft 404": Die beanstandete URL ist aber kein Soft 404 und auch kein echter 404 oder eine Fehlerseite, die einen Status 200 ausgibt. Die beanstandete URL ist ein Script, das als Antwort den aktuelle Zeitstempel des Servers liefert.

    Gleichzeitig habe ich auf der Geranien-Seite an die 15 Bilder, die angeblich auch ein "Soft-404" sind. Wie kann ein Bild ein "Soft-404" sein? Sind auch gänzlich unterschiedliche Bilder.

    So, erst mal genug. Hat einer eine Idee?

  • canonical viellleicht bei Status 404. Nur ne Idee..

    Ist ja die neue Search Console, kenne mich da auch noch nicht so gut aus.

    Ansonsten sieht es für mich wieder wie ein Google Bug aus, wenn die Robots.TXT korrekt ist bzw leer.
    Warum machste dir Sorgen?

    Soft 404, gibt es evtl ne Unterseite zum Bild dazu?

    wenn etwas möglich erscheint mach ich das, wenn das nicht klappt gehts ans unmögliche und ansonsten das undenkbare.

    - nun stolz rauchfrei - Ich denke also Bing ich!

    Support 24h Bereitschaft 0173 6107465 - NUR Für Kunden von SEO NW!

  • Warum ich mir Sorgen mache? Weil ich von Google anhängig bin und die scheiß Seiten / Bilder nicht im Index sind. Darum. Und das eben mit Begründungen, die hinten und vorne nicht stimmen können.

    Canonical gibt es bei einem Bild nicht. Oder was meinst Du mit 404. Das Bild wird normal ausgeliefert, Status 200.

    Robots.txt ist leer, nur angelegt, damit sie selbst keinen 404 erzeugt.

    Soft 404. Verstehe ich auch nicht ganz. Es gibt eine Seite, wo das Bild drauf ist (zusammen mit anderen). Die Seite selbst ist im Index, das Bild ist aber angeblich ein Soft 404

    "Warum machste dir Sorgen?"

    Weil ich inzwischen so weit am Boden bin, dass ich keine Strohhalme mehr brauche (sind ja eh bald verboten), mir reichen schon Grashalme. Und Google mit seinen Aussagen ist ein Grashalm. Wenn die mir aber sagen, nee, nicht im Index, geht auch nicht, weil so und so, dann stehe ich am Bahnhof, weil das so und so nicht stimmt. Das einzige was stimmt: Nicht im Index. Also wo ist nun das Problem? Die Fehlerangabe stimmt nicht. Im Index bin ich aber auch nicht. Ist der Bot auch so doof wie die SearchConsole? Man beachte das andere Thema mit "Abruf wie durch Google = Teilweise"

    Wenn ein Mensch nicht um dich kämpft, hat er nur gewartet, dass du gehst. ;(

  • Ganz und gar nicht meine Baustelle, also nur eine vage Idee um den Bot zu schubsen, seine Daten zu aktualisieren oder wie auch immer. Hast Du mal versucht, die robots.txt, an der sich das Biest ja offensichtlich irgendwie festfrisst, mit "allow" zu bestücken, statt sie einfach leer zu lassen?

    Er war Jurist und auch sonst von mäßigem Verstand.

    (Volker Pispers)

  • Hm, ändert nichts. Nun ist

    User-agent: *
    Allow: /

    drinnen.

    Die normale Index-Abfrage ergibt:

    [ATTACH=JSON]{"alt":"Klicke auf die Grafik f\u00fcr eine vergr\u00f6\u00dferte Ansicht Name: google-5.jpg Ansichten: 1 Gr\u00f6\u00dfe: 91,6 KB ID: 119435","data-align":"none","data-attachmentid":"119435","data-size":"full","title":"google-5.jpg"}[/ATTACH]


    Man beachte. Google hat am 20.12. selbst drauf zugegriffen und "Crawling ist erlaubt" und der Seitenabruf "erfolgreich".

    So, dann rechts oben auf "Live-URL testen" ergibt dann das:

    [ATTACH=JSON]{"alt":"Klicke auf die Grafik f\u00fcr eine vergr\u00f6\u00dferte Ansicht Name: google-6.jpg Ansichten: 2 Gr\u00f6\u00dfe: 84,6 KB ID: 119436","data-align":"none","data-attachmentid":"119436","data-size":"full","title":"google-6.jpg"}[/ATTACH]

    Also alles was vorher noch "funktionierte", die URL aber trotzdem nicht im Index ist, ist im Live-Test plötzlich nicht möglich. Und wie gesagt, das hier ist nur ein Beispiel. Das Problem mit dem "nicht möglich" oder "soft 404" habe ich bei zig Webseiten.