Google Humans.txt

  • Alle hier im Forum kennen die robots.txt, allerdings gibt es bei Google ( alle Dienste! ) eine humans.txt
    Schaut selber: humans.txt *** Link veraltet ***

    Zitat

    Google is built by a large team of engineers, designers, researchers, robots, and others in many different sites across the globe. It is updated continuously, and built with more tools and technologies than we can shake a stick at. If you'd like to help us out, see http://google.com/careers.

    wenn etwas möglich erscheint mach ich das, wenn das nicht klappt gehts ans unmögliche und ansonsten das undenkbare.

    - nun stolz rauchfrei - Ich denke also Bing ich!

    Support 24h Bereitschaft 0173 6107465 - NUR Für Kunden von SEO NW!

  • gibt auch ne robots.txt gegen Terminator. :)
    *** Link veraltet ***

    Frei nach Dieter Nuhr
    Das Internet ist zum Lebensraum der Dauerbeleidigten geworden, die immer einen Grund finden, anderen irgendetwas vorzuwerfen, um sich selbst moralisch zu erhöhen.

  • grade die robots.txt von google geschaut

    Zitat

    Disallow: /news
    Allow: /news/directory


    *** Link veraltet ***
    Dachte das mit "allow" funktioniert nicht, bzw ist kein Standard. vorher wird auch mit Disallow der Ordner gespeert. Verstehe ich jetzt irgendwie nicht... Funktioniert das mit "Allow"?

    wenn etwas möglich erscheint mach ich das, wenn das nicht klappt gehts ans unmögliche und ansonsten das undenkbare.

    - nun stolz rauchfrei - Ich denke also Bing ich!

    Support 24h Bereitschaft 0173 6107465 - NUR Für Kunden von SEO NW!

  • wird immer mysteriöser. Hab wohl was verpasst....


    steht in der robots.txt.

    Bin jetzt etwas verwirrt. Wenn Google das macht, sollte ich da Lemming spielen und Allow und Sitemap aufnehmen? Oder ist das wirkungslos..?

    wenn etwas möglich erscheint mach ich das, wenn das nicht klappt gehts ans unmögliche und ansonsten das undenkbare.

    - nun stolz rauchfrei - Ich denke also Bing ich!

    Support 24h Bereitschaft 0173 6107465 - NUR Für Kunden von SEO NW!

  • Warum? Hab ich bei Webseiten die ich nicht in die WMT eintragen will, mit den Sitemaps auch so gemacht. Ist ein Standard, noch nicht so alt aber ein paar Jährchen hats schon auf dem Buckel.

  • Ich wusste dafür von dem restlichen Zeugs den du hier im Thread gepostet hast nichts. Wer nicht fragt bleibt dumm. Ich mache mich regelmäßig mit irgendwelchen Fragen zur Feile, das ist mir aber egal solange meine Frage beantwortet wird.

  • das ist richtig lunte.
    ist ja auch interessant. wissen sollte geteilt werden, ich versuche es ja.
    hab evtl was rausgefunden, was neu sein könnte. in einem anderen fred habe ich das angeregt, allerdings kam da kaum resonanz. werde im internen auf jeden fall in ein paar tagen drüber berichten. jetzt sind es noch ein paar zuviele variablen. ( wm und anderes... )

    habe evtl was gutes entdeckt und auch hier habe ich die vermutung das viele das schon vermutet haben.
    Lösung für das "Problem" habe ich auch und jeder hat die Möglichkeit dazu!

    wenn etwas möglich erscheint mach ich das, wenn das nicht klappt gehts ans unmögliche und ansonsten das undenkbare.

    - nun stolz rauchfrei - Ich denke also Bing ich!

    Support 24h Bereitschaft 0173 6107465 - NUR Für Kunden von SEO NW!

  • Das "allow" in der robots.txt war mir ebenfalls unbekannt und hat mich grad mal zur Recherche veranlasst, hatte sich bei mir doch folgender Satz von selfhtml eingeprägt:

    Zitat

    Ein Schlüsselwort Allow: wurde niemals definiert.


    *** Link veraltet ***

    Des Rätsels Lösung hab ich dann über den Google-Blog gefunden, wo das "allow" merkwürdigerweise aufgeführt ist:
    *** Link veraltet ***

    Es geschah im Jahr 2008, dass sich Google scheinbar selbstherrlich und ungerufen zum Web-Standard erklärte:

    Zitat

    n den letzten Jahren haben wir mit Microsoft und Yahoo! zusammengearbeitet, um Standards wie Sitemaps festzulegen und zusätzliche Tools für Webmaster anzubieten. Seit der ursprünglichen Ankündigung haben wir weitere Verbesserungen basierend auf Feedback der Community eingeführt - und wir werden dies auch in Zukunft tun.

    Und weiter:

    Zitat

    ... werden wir heute eine genauere Dokumentation darüber veröffentlichen, wie wir REP implementieren. Dies soll Webmastern eine übergreifende Implementierung anbieten und es für Publisher deutlicher machen, wie ihre REP-Anweisungen von drei großen Suchmaschinen interpretiert werden ...

    Heute, also 6 Jahre später, sind weder "Sitemap" noch "allow" ein Standard. Wurde es ursprünglich nur von Google, Microsoft und Yahoo einfach so beschlossen, haben sich inzwischen wohl gezwungenermaßen auch ask und slurp dem Beschluss untergeordnet. Und das wars auch schon. In Entwicklerkreisen dürfte man beides wohl als deprecated bezeichnen.

    Sie beschließen eben gerade keine Standards, sondern hebeln bestehende (vorsätzlich) aus. Für andere SuMas heißt das, ihr könnt bleiben, wo der Pfeffer wächst. Ist nicht unser Problem, wenn ihr die Seiten / robots.txt der Webmaster nicht mehr lesen könnt.

    Solch ein Wildwuchs ist eine reine Machtdemonstration. Würde das jeder machen ... Aber es kann halt nicht jeder machen.

    Er war Jurist und auch sonst von mäßigem Verstand.

    (Volker Pispers)