vBulletin und X-Robots TAG

  • Hallo zusammen,


    ich wurde gefragt, ob es möglich ist für verschiedene Seiten das X-Robots-Tags in vBulletin einzubauen.
    Da ich mich damit überhaupt nicht auskenne wäre ich glücklich hier jemanden zu finden der mir ggf. helfen kann.
    Des Weiteren frage ich mich ob das überhaupt sinnvoll ist, oder es einen Unterschied macht ob man das über die robots.txt oder ein TAG in der htaccess macht?


    Falls diese Anfrage bzw. die Antwort mit Kosten verbunden wäre, würde ich darum bitten mir eine PM zukommen zu lassen.
    Vielen Dank.

  • 1 Milliarde Euro bitte [USER="1027"]delicjous[/USER] :)


    Nee macht keinen Sinn. Kannst dir die Arbeit sparen.

    wenn etwas möglich erscheint mach ich das, wenn das nicht klappt gehts ans unmögliche und ansonsten das undenkbare.
    Ich denke, also BING ich!


    Support 24h Bereitschaft 0163 2161604 - NUR Für Kunden von SEO NW!

  • Hmm.... [USER="74"]cura[/USER] sach doch mal was... ( kriegst ne MIO ab! )


    Nee mal im Ernst.. also ich kenne ja den Background ja nicht. Du hast da wie gesagt bessere Möglichkeiten. zB auch über PHP, über bestimmte Tags, Robots.txt und auch über htaccess ( Umleitungen zb über Rule ).


    Tags zB über "noindex, nofollow, noarchive etc "


    Aber wie gesagt kenn ja den Einsatzzweck nicht und ich würde das über geläufigere Maßnahmen besser und zuverlässiger erreichen.

    wenn etwas möglich erscheint mach ich das, wenn das nicht klappt gehts ans unmögliche und ansonsten das undenkbare.
    Ich denke, also BING ich!


    Support 24h Bereitschaft 0163 2161604 - NUR Für Kunden von SEO NW!

  • Hm, verstehe den Sinn auch noch nicht bzw. den Anwendungsfall, aber "X-Robots-Tags" ist teilweise schon sinnvoll. Nutze ich auch an mehreren Stellen. Aber das hat nix mit der Webseite an sich zu tun, denn der "X-Robots-Tag" ist eine HTTP-Header-Anweisung.

  • Hm, verstehe den Sinn auch noch nicht bzw. den Anwendungsfall, aber "X-Robots-Tags" ist teilweise schon sinnvoll. Nutze ich auch an mehreren Stellen. Aber das hat nix mit der Webseite an sich zu tun, denn der "X-Robots-Tag" ist eine HTTP-Header-Anweisung.


    Hallo Synonym und danke für deine Antwort...


    Also ich habe davon keine Ahnung und bekomme das für vB auch irgendwie nicht hin. Ich möchte/ soll verschiedene Foren auf noindex setzen, aber das macht das folgende Script nicht:


    Code
    <ifModule mod_headers.c>
    SetEnvIf Request_URI "^/forum/diverses\/.*$" NOINDEXFOLLOW
    Header set X-Robots-Tag "noindex, follow" env=REDIRECT_NOINDEXFOLLOW
    </ifModule>


    Ist das falsch oder funktioniert das so nicht?
    Irgendwie finde ich dazu auch in google nichts und ich weiß auch nicht ob ein

    Code
    <meta name="robots" content="noindex" />


    nicht den gleichen Effekt hätte?!


    Danke und Gruß

  • Nun, das kommt auf Deinen Code an, wo genau der platziert wird und was da noch für andere Rules drinnen sind. Insbesondere das NOINDEXFOLLOW -> REDIRCT_NOINDEXFOLLOW. Das geht natürlich nur, wenn da ein Redirect vorher da war, sonst ist die ENV ja falsch deklariert. An sich könnte das aber so gehen, denn VB nutzt einen Controller. Kommt aber dennoch auf die Reihenfolge an.


    Die Regex selbst schaut auch nicht ganz sauber aus: "^/forum/diverses\/.*$" Warum ist da der letzte Slash den escapted?


    Und was es natürlich noch sein kann, warum es nicht geht: Bei Dir auf dem Server gibt es vielleicht schlicht kein "mod_headers"


    Aber lange Rede kurzer Sinn. Ein "<meta name="robots" content="noindex" />" macht genau das gleiche und ist eigentlich die zu bevorzugende Version. Den x-robots nimmt man eigentlich nur bei Dateien, wo man kein "Meta" setzen kann, z.B. Bilder, PDF-Dokumente etc.

  • ....
    Aber lange Rede kurzer Sinn. Ein "<meta name="robots" content="noindex" />" macht genau das gleiche und ist eigentlich die zu bevorzugende Version. Den x-robots nimmt man eigentlich nur bei Dateien, wo man kein "Meta" setzen kann, z.B. Bilder, PDF-Dokumente etc.


    Vielen Dank, genau das wollte ich hören :-D! Hat mich nun schon einige Zeit beschäftigt. (Der regex war nur ein Beispiel von einem anderen code den ich irgendwo gefunden habe.)