Normaler Link vs. nofollow vs. dynamisch per Javascript

  • Sagt mal, wie wertet Google denn die unterschiedlichen Möglichkeiten.

    Mein Vorhaben ist, Links die auf "Noindex"-Seiten führen schlicht zu "entfernen". Gut, entfernen geht so nicht, denn das Ziel muss schon erreichbar sein, aber eben für Google "unsichtbar" machen, nicht als Link gewertet sehen.

    Was ist da nun besser?

    Den Link einfach auf nofollow setzen? Dann wird der aber dennoch als Link auf der Seite erkannt und teils überschreite ich da deutlich die 100er Grenze.

    oder

    Den Link dynamisch per Javascript erzeugen lassen. Würde dann nur noch als "<a data-href="Zielseite">Linktext</a>" drinnen stehen. "Erzeugt" wird er dann nicht beim Seitenaufruf, sondern erst bei einem Klick. Erkennt das Google noch als Link, weil es ein "A" ist, oder wird das dann ignoriert, weil der Bot nicht "klickt"?

    Weiß da einer was darüber? Viele meiner Mitbewerber machen das so und das sollte ja schon einen Grund haben, oder?

    Wenn ein Mensch nicht um dich kämpft, hat er nur gewartet, dass du gehst. ;(

  • Synonym 11. Mai 2020 um 19:36

    Hat den Titel des Themas von „Normaler Link vs. nofollow vs .dynamisch per Javascript“ zu „Normaler Link vs. nofollow vs. dynamisch per Javascript“ geändert.
  • Genau, das kommt noch dazu, dass nofollow nun doch gefolgt wird. Mein Ziel ist aber eher, Links quasi "weg" zu lassen (Verteilung zu senken, Anzahl zu senken etc), aber die Zielseiten dennoch zu erreichen.

    z.B. hier: https://www.hund-und-herrchen.de/unterkuenfte/r…/seite_1_1.html

    Da waren quasi in den Listen pro Objekt min 3 Links. 1. Titel, 2. Bild, 3. Box. Nun ist das nur noch der Titel, der Rest ist dynamisch. Dann kommt noch so was dazu wie "Bewertungen", auch das war bisher ein normaler Link, aber die Zielseite ist eh auf noindex. Genauso wie andere für "Anfrage senden" oder "Kalender".

    War mir nur nicht sicher, ob Google das nun nicht mal als Link ansieht oder dennoch. Wenn nämlich dennoch, dann ist der Umbau nutzlos.

    Wenn ein Mensch nicht um dich kämpft, hat er nur gewartet, dass du gehst. ;(

  • Bei Javascript Links denke ich mal wird nicht gefolgt. Ich meine aber das Google Javascript schon verstehen kann. Wird halt aber auf keinen Fall mit jedem Crawl ausgeführt. Das macht Google nicht.

    Denke mal mit Javascript bist du da richtig. Wüsste jetzt auch keine andere Lösung.

    wenn etwas möglich erscheint mach ich das, wenn das nicht klappt gehts ans unmögliche und ansonsten das undenkbare.

    - nun stolz rauchfrei - Ich denke also Bing ich!

    Support 24h Bereitschaft 0173 6107465 - NUR Für Kunden von SEO NW!

  • Ja Alex, daher der Zusatz im Text, dass der Link erst erzeugt wird, wenn man klickt.

    Der Bot führt JS aus. Wäre das also ein Script, das beim Seitenaufruf direkt den Link erzeugt, wie "Lightbox" z.B. oder LazyLoad, dann würde Google dem 100% folgen. Hier wird er aber erst erzeugt, wenn ein Klick auf das Element erfolgt.

    Die Frage ist nur, erkennt Google einen A-Tag ohne "href" schon als Link an oder nicht? Der Href kommt in dem Fall nun erst, wenn man klickt. In der fertig gerenderten Seite mit JS, siehe Dein Cookie-Script, wäre der nicht erkennbar. Dein Cookie-Script führt zwar JS aus, aber es klickt nicht rum.

    Wenn ein Mensch nicht um dich kämpft, hat er nur gewartet, dass du gehst. ;(

  • Den Link einfach auf nofollow setzen? Dann wird der aber dennoch als Link auf der Seite erkannt und teils überschreite ich da deutlich die 100er Grenze.

    Es gibt keine Nummerischen Grenzen bei Links, auch keine idealen % follow vs nofollow.

    Wenn die Seite groß genug ist verkraftet sie die 100 allemal.

  • Natürlich gibt es kein Limit, aber Empfehlungen und die liegen bei max. 100 pro Seite. Ich rede nicht von externen Links oder Backlinks, sondern von internen. Und da hatte ich teils über 300 auf einer Seite.

    Und das andere eben, dass das teils redundante Links waren oder Links deren Zielseite sowieso nicht in den Index soll, also brauch ich da auch keinen echten Link da hin. Das war die Intuition.

    Wenn ein Mensch nicht um dich kämpft, hat er nur gewartet, dass du gehst. ;(

  • öhhm... kommt immer auf das Thema an was man bedient. Ne Sitemap zB bei mir kann auch mehrere TSD Links haben. Verstehste? Und Syno weiss genau was er macht. Weiss jetzt aber auch nicht welches Thema da bedient wird, aber bei bestimmten Seiten bin ich auch "drüber".

    Wegen Sitemap zB, das kann man wunderschön auch mit JS machen, also so Ordner. Da können auch 1000 Links drauf sein, wenn es strukuriert ist. Wers mag? Ich mag es auch nicht, aber es wird halt genutzt. Für G und Bing gibt es halt dann ne separate,

    wenn etwas möglich erscheint mach ich das, wenn das nicht klappt gehts ans unmögliche und ansonsten das undenkbare.

    - nun stolz rauchfrei - Ich denke also Bing ich!

    Support 24h Bereitschaft 0173 6107465 - NUR Für Kunden von SEO NW!

  • Eine Sitemap ist was ganz anderes. Die soll im Regelfall auch nicht ranken. Und die liefert einmalige Links zu Zielen. Bei mir waren es mehrfache Links zu einem Ziel und auch eben ZIele, die gar nicht in den Index sollen. Also warum streuen?

    300 Links, das war nur ein Beispiel, eine Zahl. Kann mehr oder weniger sein.

    Navigation: Bei bestimmten Seiten sicherlich an die 150 (Länder, Bundesländer, Regionen, Orte)

    Unterkünfte: 60 Objekte pro Seite. Da ist jeweils Titel, Bild, DIV verlinkt und dann noch ein Button für "Anfrage senden". Also schon mal 4 pro Unterkunft, macht 240. Das verunsichert nicht, sondern erleichtert, denn der User kann anklicken was er mag und landet beim Objekt oder eben direkt auf Anfrage, ohne es aufrufen zu müssen.

    Für Google und den "nicht mehr als 100" ist das zu viel. Macht auch keinen Sinn, alles redundant zu verlinken oder Dinge, die nicht in den Index sollen.

    Wenn ein Mensch nicht um dich kämpft, hat er nur gewartet, dass du gehst. ;(

  • Oh das macht schon Sinn. Wenn ich mal Faul bin und Sachen freischalte dann melde ich nur die Sitemap Seite ( nicht die XML.gz ), ich beobachte das aber grade auf anderem Wege. Denn da scheint der Wurm drin zu sein. ( Auditor etc hat nix gemeldet ).

    wenn etwas möglich erscheint mach ich das, wenn das nicht klappt gehts ans unmögliche und ansonsten das undenkbare.

    - nun stolz rauchfrei - Ich denke also Bing ich!

    Support 24h Bereitschaft 0173 6107465 - NUR Für Kunden von SEO NW!

  • Ich verstehe Bahnhof Alex. Ich rede von internen Links auf einer normalen Seite, Du von Sitemap. Meine Sitemap hat an die 20.000 Links, aber das ist eine Sitemap, die rankt zu nix und soll es auch nicht.

    Wenn ein Mensch nicht um dich kämpft, hat er nur gewartet, dass du gehst. ;(

  • Sorry, haben aneinander vorbei geredet. Bin auf Arnego eingegangen ohne auf das Thema zu achten.

    Nur mal trotzdem als Tipp hier.. ändert sich was an der Seite gravierend - Sitemap ( HTML ) neu melden. Der Bot kommt dann etwas flotter. Mehr wollte ich gar nicht sagen.

    wenn etwas möglich erscheint mach ich das, wenn das nicht klappt gehts ans unmögliche und ansonsten das undenkbare.

    - nun stolz rauchfrei - Ich denke also Bing ich!

    Support 24h Bereitschaft 0173 6107465 - NUR Für Kunden von SEO NW!

  • Warum hast du denn so viele Innerlinks?

    Dachte da nur an Sitemap. Sorry. Mein Fehler.

    Arnego2 hat doch von Sitemap gar nix geschrieben?

    wenn etwas möglich erscheint mach ich das, wenn das nicht klappt gehts ans unmögliche und ansonsten das undenkbare.

    - nun stolz rauchfrei - Ich denke also Bing ich!

    Support 24h Bereitschaft 0173 6107465 - NUR Für Kunden von SEO NW!

  • Wie viele Links du in der Sitemap hast ist relativ wurscht.

    Wie viele innere Links pro Unterseite ist es eben nicht. Die haben einen Effekt, bei Zuviel des Guten verwirren sie die Nutzer.

    Ich halte nichts von den AnchorLinks in den Texten, die Nutzer sollen den gesamten Text lesen und dann entscheiden.