Google Search Console API - Crawling steuern

  • Sie ist bald da für Google. Die Google Indexing API! Ihr könnt da schon reinschauen, die Api ist unter https://beispiel.rocks/developers.goo…i/v3/quickstart erreichbar. Der Vorteil wird sein das über diese Schnittstelle schnell neue oder aktualisierte Seiten gemeldet und indiziert werden können.

    Auch Bing hat schon angekündigt eine Api bereit zu stellen!

    Es sieht vielleicht so aus, das der Robot bzw Crawler das bevorzugen werden und Seiten zB über die Api automatisiert gemeldet werden können. Suchmaschinenbetreiber könnten versuchen Webmaster zu verleiten ( Joomla, Wordpress etc ) bevorzugt über die Schnittstelle neue Inhalte zu melden. So würde das crawling Effizienter gesteuert.

    Was meint ihr dazu?

    wenn etwas möglich erscheint mach ich das, wenn das nicht klappt gehts ans unmögliche und ansonsten das undenkbare.

    - nun stolz rauchfrei - Ich denke also Bing ich!

    Support 24h Bereitschaft 0173 6107465 - NUR Für Kunden von SEO NW!

  • Ich halte davon gar nichts.

    Sitemap wird nicht mehr empfohlen, sondern die API. Die Api ist aber limitiert. Aktuell noch kostenlos, aber das wird sich bald ändern (wie alle anderen auch), dann hat der Kleine wieder das Problem. Entweder zahlen oder die Großen vor lassen.

    Ach ja, man muss sich natürlich in der Google Cloud Services anmelden und dazu seine Kreditkarteninformationen oder PayPal hinterlegen. Danke, werde ich nicht machen, daher ist auch Maps rausgeflogen.

    Wenn ein Mensch nicht um dich kämpft, hat er nur gewartet, dass du gehst. ;(

  • Hast Du Dir das mal näher angesehen? Herrje sage ich nur. Die Doku ist für den Allerwertesten, denn in der stimmt so gut wie nix, vor allem kommt man, wie bei Google typisch, von A nach B nach C nach D nach Y und findet das, was man will, immer noch nicht. Schon der erste Punkt, hier klicken und dort dann JENES aufrufen stimmt nicht, denn das bezieht sich auf die alte GSC, wo es die Seite aber nicht mehr gibt und man die neue nehmen soll.

    Aber egal.

    Man muss einen Cloud-Consolen-Zugang anlegen
    Dort dann, wenn man schon Keys hat, etwa für Maps oder sonst was, einen Client-Account anlegen (was wo wie, für alle Seiten oder eine oder was überhaupt, da schweigt man sich aus)
    in dem Setup werden Sachen abgefragt, wo man gar nicht weiß, was der will und was man auswählen soll. Doku? Nicht vorhanden.
    Dann bekommt man ein JSON-File.
    Dann muss man in der GSC das Property mit dem neuen Client-Account verbinden (die Doku ist auch falsch)
    Danach muss man dann in der API-Console die Webseite für die API freigeben. (So weit habe ich den Scheiß mitgemacht, dann war es mir zu blöd)
    Anschließend braucht man die Library. Die wird zwar als PHP oft erwähnt, aber wo es die gibt, das steht wo anders oder auch nicht
    Gibt es bei GitHub. Ist aber schon älter und Google bezeichnet sie als "BETA", die nicht rückwärtskompatibel ist und jederzeit geändert und unbrauchbar werden kann. Fakt nur, min PHP-Version ist 5.2 - also wohl schon sehr viel "älter".
    Die muss man dann laden und auf dem Server einrichten. Eigentlich mit Composer, aber wer hat das schon? Manuell geht auch, irgendwie.... Wie das geht steht in der Doku, die auch falsch ist, denn es geht schon los, dass ein File im Ordner "Vendor" gesucht wird, das im Paket aber nicht enthalten ist. Die Datei liegt nämlich in /google/src. Zudem wird lokaler Namespace benutzt, also einfach mal so ein "include" geht da auch nicht mehr.
    So, wenn man es bis da hin geschafft hat kann man anfangen seine Webseiten zu ändern, damit die dann auf die neue Library zugreifen können. Anleitung ebenso falsch.

    ^^ Danke dafür. Ich brauche es nicht, habe ich mich vorhin ganz klar dafür entschieden. Ich brauche keine Scripte von Google auf meinem Server wo es noch nicht mal eine 100% stimmige Doku gibt, was das Ding überhaupt tut. Es ist nämlich im Grunde ein vollwertiger HTML-Client (ähnlich snoopy) der unter anderem nicht nur "Indexierungen postet", sondern auch Files senden und laden und eben alles andere kann, was http kann..

    Wenn ein Mensch nicht um dich kämpft, hat er nur gewartet, dass du gehst. ;(

  • Und es geht noch weiter. Max 200 Meldungen am Tag. Das ist recht wenig. Wer mehr will soll auf den Button Preise / plan klicken. Schön, die Zielseite gibt es aber nicht. Den Weg dahin, wie man auf Kontingente kommt, stimmt aber auch nicht, ist nämlich auch für die alte API-Console, die es schon 2 Jahre nicht mehr gibt.

    Aber wenn Google schon schreibt, dass Sitemaps nicht mehr die bevorzugte Version sind, sondern die API, dann bin ich mir sicher, dass die großen CMS das recht schnell umsetzen werden. Dann kann das jeder im Backend einstellen und muss halt ein Konto bei API-Console anlegen. Die "SEOs" werden es schlucken. Und wenn es sich dann erst mal verbreitet hat, dann fährt man die Bot-Aktivität runter, wartet ein paar Monate und dann schraubt man die 200 kostenlosen Zugriffe runter auf 20. Sehe ich jetzt schon, wird eine neue Einnahmequelle werden und das, obwohl eigentlich der Webmaster die Arbeit macht und sagt, "das ist neu", "das ist geändert".

    Das hat alles einen Beigeschmack. Alleine schon eine URL an den Index senden per GSC. Warum ging das in der alten per Sekunden (Abrufen -> senden) und nun dauert es Minuten (abrufen -> Live-Ansicht -> senden), bis die Daten abgerufen wurden und man endlich den "Button" anklicken kann?

    Wenn ein Mensch nicht um dich kämpft, hat er nur gewartet, dass du gehst. ;(