• Hallo zusammen,

    folgendes Szenario:

    Unsere Sitemap enthält insgesamt 90 Jobs die alle mit dem Google Jobs Markup ausgestattet sind und keine Fehler beinhalten. (mehrfach über mehrere Tools wie bspw. https://developers.google.com/search/docs/ap…structured-data oder den Live Test geprüft)

    Allerdings erkennt Google (Stand gestern) lediglich 31 dieser Jobs (mal mehr, mal weniger, Tendenz eher sinkend). Vor 4 Wochen waren es noch 46 (auch mal mehr mal weniger). Auch das manuelle anstoßen der Jobs in der Google Search Console hat leider nichts gebracht (die Jobs sind ja bereits indexiert, nur das Google Jobs Markup wird nicht erkannt).

    Habt ihr eine Idee, woran das liegen kann und was ich von meiner Seite aus noch versuchen könnte, damit Google die Jobs erkennt?

    Ich freue mich auf eure Antworten!

    Liebe Grüße

    Thomas

  • Hallo Thomas,

    wenn das Markup korrekt ist, würde ich da nicht weiter drüber nachdenken. Google schmeißt immer mal was raus und geändert hat sich in der letzten Zeit da nichts, soweit ich weiß.

    SEO Tee trinken und abwarten, wie sich das entwickelt.

    Ich arbeite auch viel mit strukturierten Daten. Das ist vollkommen normal.

    wenn etwas möglich erscheint mach ich das, wenn das nicht klappt gehts ans unmögliche und ansonsten das undenkbare.

    - nun stolz rauchfrei - Ich denke also Bing ich!

    Support 24h Bereitschaft 0173 6107465 - NUR Für Kunden von SEO NW!

  • ist valide.

    Also, da gibt es kein Problem.

    Wegen der Daten. Da sind welche ausgefüllt, die keinen Sinn ergeben. Wurden Daten ausgefüllt, bspw. Mindestgehalt=0, um Warnings zu vermeiden?

    Da muss ich erneut nachschauen, ob das Sinnvoll ist, oder man das einfach nicht ausfüllt und dann halt eine "Warnung" lieber in Kauf nimmt.

    Auf jeden Fall ist es zunächst ok, das wegen der Google Indizierung und Präsentation, das könnte einfach an Google liegen. Ich habe auch viele Seiten, wo nicht alles aufgenommen wird. Manchmal ist es berechtigt, andererseits habe ich da auch kein Verständnis.

    Dann die Zeit. Manchmal delistet das Google. Es kann aber wieder kommen. Deswegen schrieb ich auch SEO Tee trinken und abwarten. Denn von der technischen Seite ist das in Ordnung.

    wenn etwas möglich erscheint mach ich das, wenn das nicht klappt gehts ans unmögliche und ansonsten das undenkbare.

    - nun stolz rauchfrei - Ich denke also Bing ich!

    Support 24h Bereitschaft 0173 6107465 - NUR Für Kunden von SEO NW!

  • Hi Alex,

    genau, Angaben wie Mindestgehalt=0 sind enthalten, um die Warnungen zu eliminieren. Hat das jeweilige Unternehmen eine Angabe > 0 gemacht, wird diese selbstverständlich im Markup hinterlegt.

    Oder hältst du es eher für ratsam/sollten wir mal ausprobieren, das Feld gar nicht zu verwenden, wenn uns keine gültige Angabe vorliegt? Sprich, wie du schriebst: Warnung in Kauf nehmen und dafür die Wahrscheinlichkeit der Ausspielung erhöhen?

  • Warnung in Kauf nehmen und dafür die Wahrscheinlichkeit der Ausspielung erhöhen?

    Korrekt. Also ich kann mit Warnungen leben, wenn es plausibler ist. Denn min und max sind da jeweils auf 0 gesetzt. Problematisch wird es nur mit "falschen" Daten.

    Dann würde ich in dem Fall eher darauf verzichten und ne Warnung akzeptieren. Eine Warnung ist auch nicht verkehrt. Trotzdem werden diese Snippets oder Daten übernommen. Ist mir nur so aufgefallen. Wenn diese nicht stimmen sollten, ist das eher schlecht. Die sind zwar da, aber falsch.

    wenn etwas möglich erscheint mach ich das, wenn das nicht klappt gehts ans unmögliche und ansonsten das undenkbare.

    - nun stolz rauchfrei - Ich denke also Bing ich!

    Support 24h Bereitschaft 0173 6107465 - NUR Für Kunden von SEO NW!

  • Habe die Anpassung jetzt vorgenommen und warte jetzt mal ein paar Tage ab.

    Ne andere Frage in dem Zuge/Zusammenhang:

    Wir haben die Seiten auf denen Videos eingebunden sind auch alle mit dem entsprechenden Markup versehen. Allerdings, auch hier, erkennt Google das Markup auf vielen Unterseiten angeblich nicht, obwohl der Live Test sauber durchläuft.

    Hier ebenfalls einfach Abwarten/Aussitzen oder hast du eine Idee, woran das liegen kann? Wir binden sowohl YouTube als auch Vimeo Videos ein, von diesem "Fehler" sind aber beide Videoquellen betroffen.

    Diese https://omkb.de/speaker/katharina-kremming/ ist eine von vielen entsprechenden Seiten.

  • Wo genau soll bei der "Kremming-Seite" denn der Code für die Video-Auszeichnung sein? Kann da nix finden.

    Auch beim Herrn Mehner kann ich keinen entsprechenden Code finden. Das Video wird zudem per LazyLoad geladen und der src ist "about:blank". Der reine Google-Bot sieht das Video also nicht, das ist nur ein Iframe ohne src. Erst wenn es gerendet wird, kann es gesehen werden. Das macht der Live-Test zum Beispiel, der rendert direkt. Der Google-Bot nicht. Der ruft nur ab. Wann genau und ob überhaupt gerendert wird, das bleibt Google überlassen.

    Wenn ein Mensch nicht um dich kämpft, hat er nur gewartet, dass du gehst. ;(

  • Okay, keine Ahnung wo das Video Markup hin ist, das, was wir auf der Seite haben, reicht aber, um 566 indexierte Videos (Stand heute) zu haben. Was mich halt wundert ist (wie du schon beschrieben hattest): Wie kann es sein, dass die Videos auf diversen Speaker Seiten (beim ersten oder auch beim x-ten Crawl) erkannt werden, andere aber nicht, obwohl die gleiche Technik zugrunde liegt. Bin aktuell dabei, die Seiten mit Videos die noch nicht indexiert wurden, innerhalb des täglichen Kontingentes, in der Google Search Console anzustoßen. Ich merke zumindest, dass das einen kleinen Aufwärtstrend bringt.

    Das Lazy Loading kommt wahrscheinlich über das Wordpress Plugin WP Rocket. Am Video an sich ist auf jeden Fall kein Lazy Loading eingestellt. Einen src mit "about:blank" habe ich allerdings nicht gefunden.

  • Schreib mal bitte mit dazu, was Du mit "anstoßen" genau meinst.

    Live-Test, normaler Google-Bot, Tests für Strukturierte Daten und finales Rendering sind komplett unterschiedliche Dinge.

    Bei Tests für Strukturierte Daten sollten die aber allerdings erscheinen, wenn welche da sind. Auch bei den anderen Seiten, habe nur 2 angesehen, deren Videos im Index sind, sind keine entsprechenden Daten hinterlegt. Google hat das also selbst erkannt und übernommen.

    LazyLoad ist auch kein Problem an sich. Strukturierte Daten beschleunigen es, da dort die Daten eben schon direkt vorhanden sind. Ansonsten führt Google das LazyLoad ja auch aus, aber eben erst beim Rendering, nicht beim normalen Bot-Abruf.

    Wegen "about:blank"... Ich weiß nicht, wie Du den Quelltext anschaust, aber auch hier gibt es zwei Versionen. Die normale Quelltextansicht per STRG+U und eben die Analyse in der Dev-Console von FF, Chrome und Co. Die beiden Ansichten sind nicht identisch, können sie auch nicht. Die normale Ansicht sind die Rohdaten, das was auch der normale Google-Bot bekommt. Die Ansicht in der DEV-Konsole ist der bereits gerenderte DOM.

    Hier ist das about:blank

    Das sind eben die Rohdaten, wenn das LazyLoad noch nicht ausgeführt wurde.

    Wenn ein Mensch nicht um dich kämpft, hat er nur gewartet, dass du gehst. ;(