ahrefs Backlink Checker übernimmt Domain Rating der alten Website nicht

  • Du könntest aber durchaus vor die letzte Rule, also in Zeile 719 so was da schreiben.

    RewriteRule ^board/([0-9]+)/?$ https://mmo-forum.de/board/$1 [L,R=301]

    RewriteRule ^thread/([0-9]+)/?$ https://mmo-forum.de/thread/$1 [L,R=301]

    Das greift dann nur, wenn die URI

    mit board oder thread beginnt,

    dann ein Slash kommt,

    dann Ziffern (nur Ziffern 0 bis 9, nichts anderes)

    und am Ende ein Slash oder keiner (daher das ? als vorletztes Zeichen).

    Greift also bei

    /thread/123

    /thread/123/

    nicht aber bei

    /thread/123-irgendwas

    Dann leitet der das an die entsprechende Kurzform weiter und WBB übernimmt dann die Weiterleitung an die richtig geschriebene URI.

    Aber wie gesagt, ob das dann auch die richtige ID am Ziel ist, keine Ahnung. Die ID stimmt schon, 48 ist 48, aber die 48 kann nun ja ein anderer Thread sein. Du weißt an der Stelle, auf dem alten System halt nicht, ob das es Ziel überhaupt gibt und was das dann für Inhalte hat. Da kann also das richtige kommen, die richtige ID aber anderer Inhalt, oder eben auch ein 404, wenn es die ID gar nicht gibt.

    Bei Deinem Beispiel mit der ID 48 sieht man das sehr gut. Mit der neuen Rule würde die Weiterleitung an http://neue-domain.de/thread/48 erfolgen. ABER: Im neuen Forum ist die ID 48 nicht mehr "wie-weit-seid-ihr-bisher-gekommen", sondern "neue-waffe-vorgestellt-speer". Das lässt sich nur manuell lösen, denn das alte System kennt die neuen IDs nicht. Die Kurzform weiterzuleiten macht also eigentlich nur Sinn, wenn die IDs bei alt und neu IDENTISCH sind.

    Theoretisch müsstest Du dafür, dass das mit den alten URLs funktioniert alles doppeln. Also aus

    Apache Configuration
    RewriteRule ^thread/48\-wie\-weit\-seid\-ihr\-bisher\-gekommen/$ https://mmo-forum.de/thread/3781-wie-weit-seid-ihr-bisher-gekommen/ [R=301,L]

    wird

    Apache Configuration
    RewriteRule ^thread/48-wie-weit-seid-ihr-bisher-gekommen/$ https://mmo-forum.de/thread/3781-wie-weit-seid-ihr-bisher-gekommen/ [R=301,L]
    RewriteRule ^thread/48/?$ https://mmo-forum.de/thread/3781-wie-weit-seid-ihr-bisher-gekommen/ [R=301,L]

    Dann geht das mit der richtigen URI als auch mit "thread/48" oder "thread/48/". Der wichtige Punkt ist hier, dass in beiden Fällen das richtige Ziel definiert ist, nämlich die ID 3871. Das geht nur manuell, diesen Zusammenhang kennt die htaccess sonst nicht.

    Du merkst, Du hast mit den neuen IDs ein echtes Problem. Alles was sonst ganz einfach 1zu1 gehen würde ist nun nicht mehr möglich. Und Du hast zwei Aspekte. Ein 404 sollte nicht kommen, das ist schlecht für die Backlinks. Aber immer die gleiche Zielseite sollte auch nicht kommen. Da wird dann zwar der Link dennoch gewertet, aber die ganzen Ranking gehen in den Keller, weil da dann ein anderer Inhalt ist als vorher.

    Anders gesagt:

    Damit gehen Links verloren, weil durchaus 404 kommen können.

    RewriteRule ^(.*)$ https://mmo-forum.de/$1 [L,R=301]

    Damit gehen Rankings verloren, weil das Ziel nun andere Inhalte hat

    RewriteRule ^(.*)$ https://mmo-forum.de/board/1-the-elder-scrolls-blades/ [L,R=301]

    Und das zählt eben für alles, was nicht manuell vorher abgefangen und weitergeleitet wird.

    Wenn ein Mensch nicht um dich kämpft, hat er nur gewartet, dass du gehst. ;(

  • Guten Morgen.

    Danke erneut für deine ganzen Antworten! :) Auch Frank-L :thumbup: :thumbup:

    Ist es denn aus SEO-Sicht problematisch, dass "nur" die ID nicht verlinkt, sondern ausschließlich der vollständige Link?

    Damit gehen Rankings verloren, weil das Ziel nun andere Inhalte hat

    RewriteRule ^(.*)$ https://mmo-forum.de/board/1-the-elder-scrolls-blades/ [L,R=301]

    Es würde jedoch "nur" dass Ranking der betroffenen Unterseite, also des Themas darunter leiden und nicht die Seite als solche? Ich habe jetzt nämlich bei der letzten Domain dass Problem, dass die IDs völlig durcheinander sind und in Excel immer nur 2-3 Zeilen zusammen passen, in der neu gecrawlten Sitemap diese natürlich fortlaufend nummeriert sind.

    Daher denke ich, war die https://www.newworld-forum.de/ am wichtigsten. Dort habe ich eine Catch-All verwendet. Ansonsten nutze ich die statische einzelne Seite, wenn manuelle Weiterleitungen nicht greifen. Es sind nun bei 4 Domains ca. 800 manuelle Weiterleitungen und bei newworld-forum.de ein Catch-All, mit wenigen manuellen Weiterleitungen. Leider stelle ich dennoch fest, dass selbst wenn Herkunft und Ziel URL eingetragen sind, teilweise ein 404 ausgegeben wird. X( :/

  • Ist es denn aus SEO-Sicht problematisch, dass "nur" die ID nicht verlinkt, sondern ausschließlich der vollständige Link?

    Normalerweise nicht. Dieses interne Umleiten von WBB oder auch von Wordpress, macht das ja auch, ist eigentlich nur dafür, dass wenn man eine URL falsch abtippt oder wenn man einen Fred nachträglich umbenennt. Denn ändert sich ja der sprechende Teil der URL, nicht aber die ID. Daher suchen die Systeme ausschließlich nach der ID und nicht (mehr) nach dem eigentlichen Titel.

    Primär also, würde ich sagen, für nachträgliche Umbenennungen. Z.B: haste einen Fred mit "1234-alter-titel". Den verlinkt einer irgendwo, ein Post auf Facebook oder sonst was. Dann gehste her und änderst den Titel. Aus der alten URL wird dann "1234-neuer-titel". WBB verwendet dann selbst sofort den neuen Titel überall, auch intern in Links, aber die externen nicht, die haben weiterhin die alte URL. Um die nicht zu verlieren, erfolgt die Weiterleitung. Das geht da, weil eben 1234 das Gleiche ist, inhaltlich, wie das "neue" 1234.

    Und diese Umsetzung geht ja weiterhin innerhalb des Forums, also innerhalb der Domain. Im neuen Forum ist das also weiterhin möglich, aber dort halt mit den neuen Domain-Namen. Im alten (oder über das alte) nicht mehr oder eben nur bedingt, weil sich nun die IDs änderten.

    Der Link-Version mit "nur-ID", wobei das ja nicht "nur ID ist", sondern eben "ID + Irgendwas falsch geschrieben", wird ja eigentlich nicht verwendet. Das ist nur ein Versuch, derartige Links dennoch ans richtige Ziel zu bringen. WBB verwendet als canonischen Link immer die vollständige URL. Als interne Links, in einem Forenpost oder so, bb-Code im Sinne von "[thread=12345]", wobei es das wieder zur vollständigen URL umsetzt.

    Wenn Du allerdings mit der alten Domain irgendwo externe Links hast, die falsch sind, falsch geschrieben oder absichtlich nur die ID haben, dann ist das doof. Die gehen mehr oder weniger verloren oder gehen ans falsche Ziel. In dem Fall hat aber der User damals schon was falsch gemacht, denn es war nie Sinn der Sache, das absichtlich zu nutzen. Das ist kein URL-Shortener oder so.

    Die ID ist einfach nur ein eindeutiges Merkmal, wie das System den Datensatz in der DB findet. Einen Titel eines Freds kann es ja mehrfach geben, einmal in Forum 1 und einmal in Forum 2. Die ID ist aber immer eindeutig. Und das ist eben das Problem, dass Du nun hast. Du hast 7 Foren, die quasi mehr oder weniger alle bei 1 angefangen haben zu zählen. Also alle IDs gibt es quasi mehrfach. Das geht aber nicht in nur einem Forum, daher hast Du nun viele neue IDs.

    Zitat

    Leider stelle ich dennoch fest, dass selbst wenn Herkunft und Ziel URL eingetragen sind, teilweise ein 404 ausgegeben wird

    Bei welcher Quelle und Ziel z.B.? Da greift also die manuelle Rule nicht oder da ist was nicht maskiert, was maskiert werden muss. Dann müsste aber die Catch-All greifen. Wenn dann dennoch ein 404 kommt, dann gibt es die ID am Ziel nicht, also die ID Board+ID, Thread+ID oder eben die anderen Bereiche.

    Zitat

    Es würde jedoch "nur" dass Ranking der betroffenen Unterseite, also des Themas darunter leiden und nicht die Seite als solche?

    Doch, das betrifft alle Seiten dann quasi. Nicht so stark, aber letztendlich schon. Kommt ja drauf an, wie viele URLs das dann genau sind, wie viele Links das waren und zu wie viel die Seite vorher rankte und wie gut das Google einstufte. Wie Du ja oben schon mal selbst sagtest, Links auf Unterseiten wirken auch auf die anderen Seiten durch. Wenn da als zu einem KEY vorher Seite XY rankte, nun aber nicht mehr inhaltlich da ist, dann ist das Ranking für diese Seite weg. z.B. Link zu "Kanonen" leitet nun weiter auf eine Seite zu "Häuser". Die Seite "Kanonen" wird somit unwichtiger und damit auch alle anderen, die vorher Trust von dieser bekommen haben. Bekommen immer noch welchen, aber weniger, weil sie selbst weniger (passenden) hat. Letztendlich ist das Ranking ja ein Zusammenspiel von allen Seiten der Domain. Diese eine Catch-All-Zielseite hätte dann zwar mehr Links, also die gehen nicht verloren, aber das sind halt unpassende für das Thema. Das wäre als wenn man eine Seite zu "Auto" hat und ballert da 1000 Links drauf mit dem Thema "Apfelbaum". Links sind da, aber themenfremd.

    Und ja, das mit dem Sortieren in Excel ist so. Da muss man wirklich spielen. Das mit dem links alte Links und rechts neue war auch nur ein Beispiel. Da braucht es noch etwas mehr, um das effizienter zu machen. Denn wie Du schon merkst, der sortiert nach der ID und die steht in der URL ganz vorne. Aber genau die ID ist ja das Problem an der Sache, der restliche texliche Teil ist aber oft identisch bei alt und neu. Also, reiner Gedankengang am Beispiel "Wiki".

    Früher war es "wiki/lexikon", nun nur noch "wiki". Danach kommt dann die ID (geändert) und der Textteil, der fast immer gleich ist.

    So, Gedankengang. Aus "wiki/lexikon" wird also immer "wiki". Das kann man als "Hilfe" also benutzten. Die Textteile bleiben gleich, kann man also auch benutzen. Die IDs sind das problem und stören auch bei der Sortierung, denn der sortiert sind ja immer 0-9 und nicht A-Z. Lösung: ID aus der Hilfsurl raus, dann ist da nur noch der Name und den kann man A-Z sortieren.

    Links (A) die alte URL, B die alte als Hilfsurl. Die sind erstmal völlig durcheinander gewesen, logisch. Kann man aber nach "B" von A-Z sortieren lassen.

    Gleiches Spiel mit den neuen URLs. Testtring anpassen und IDs entfernen. Sortieren nach A-Z.

    Nun hast also beide A und B sowie C und D nach Alphabet sortiert. Da wird es dann einfacher zu "schieben". Im letzten Bild wäre die Zeile 16 ja eigentlich ein höher, aber "Waffen" passt nicht zu "technik" und "technik" gibt es nur bei den alten Werten, also die neuen runterschieben, bis wieder eine Übereinstimmung da ist.

    Ergibt dann am Ende so was da

    Wie man sieht, in C sind manche Felder leer. Das sind die, wo die alte URL kein gleichnamiges Ziel hat. Da muss man also selbst ein Ziel eintragen. Hattest Du oben im Beispiel ja gemacht als einfach nur "/wiki/"

    Letztendlich sind dann aber in A und C die entsprechenden URLs. A die alten, C die neuen. Sortiert nach den "Hilfen" ohne die störenden IDs. Das mit dem "wikitest" ist auch nur dort, weil man das ja mit allen URLs gleichzeitig machen kann, damit man dann weiß, was was war, was wiki, was board, was thread, was user und damit alt und neu eben gleich sind. Wenn man das nach Kategorien trennt, dann braucht es das noch nicht mal.

    Man muss da also quasi immer nur vergleichen, ob B und D unterschiedlich sind. Wenn ja, schieben, bis es wieder passt und weitersuchen. Kann man auch visuell einfacher machen, indem man z.B. einfach das Feld E nutzt und einen Vergleich reinmacht im Sinne von "Wenn B und D nicht gleich sind, dann mache Hintergrund rot". Das wird dann erst mal viel "rot" sein, aber normal. Wenn nur eine Zeile "verschoben" ist, sind ja alle anderen folgenden auch verschoben. Da reicht aber oft schon ein "schubs" und zig andere passen dann auch.

    Wenn ein Mensch nicht um dich kämpft, hat er nur gewartet, dass du gehst. ;(

  • Kann auch ChatGPT machen (theoretisch), das Problem wird die Menge der URLs sein, vielleicht kann man das sinnvoll splitten?

    I will give you two lists with url slugs, find the pairs with same or similar text, ignore the numbers and put them in a table side by side

    ChatGPT

    Sure, I can help you with that. Please provide me with the two lists of URL slugs, and I'll assist you in finding the pairs with similar text and present them in a table format.

    User

    123-derdiedas

    456-werwiewas

    789-diesunddas

    ChatGPT

    Thank you for providing the first list of URL slugs. Could you please provide the second list as well?

    User

    567-werwiewas

    234-derdiedas

    891-diesunddas

    ChatGPT

    Thank you for providing the second list of URL slugs. Now, I'll compare the slugs from both lists and find the pairs with similar text, ignoring the numbers. Here's the table with the matching pairs:

    First List Second List

    123-derdiedas 234-derdiedas

    456-werwiewas 567-werwiewas

    789-diesunddas 891-diesunddas

    Please note that the pairs are based on the similarity of the text portion of the slugs, ignoring the numbers.

  • Verkettenfunktion unter Excel/Openoffice ist halt auch nicht so wild

    verketten("RewriteRule ^",B2,"$ ",C2," [R=301,L]")

    Diese Funktion in eine Zelle einfügen, Enter drücken und anschließend noch mal draufklicken und rechts unten das kleine Quadrat an der Zelle drücken, gedrückt halten und nach unten ziehen, bis zum Ende. Dann passt der die einzelnen Zellen je Zeile an. Unter 32bit gabs nach 30000 Zeilen dann langsam Probleme, die hat man ja heute nicht mehr.

  • Bei welcher Quelle und Ziel z.B.? Da greift also die manuelle Rule nicht oder da ist was nicht maskiert, was maskiert werden muss. Dann müsste aber die Catch-All greifen. Wenn dann dennoch ein 404 kommt, dann gibt es die ID am Ziel nicht, also die ID Board+ID, Thread+ID oder eben die anderen Bereiche.

    Apache Configuration
    RewriteRule ^community/category-trophy-list/28-events/$ https://mmo-forum.de/ [R=301,L]
    
    RewriteRule ^(.*)$ https://mmo-forum.de/$1 [L,R=301]

    Da lande ich auf einer Seite nicht gefunden, obwohl die alte URL definitiv bestanden hat. Ist auch noch im Index.

    Was jetzt nicht so schwer aussieht. In diesem Szenario waren alle neuen Seiten binnen 2 Tagen bei mir im Index und nach einer Woche die alten aus dem Index.

    Habe ich nun auch so angewendet. Google Search Console über URL Änderung bei jeder einzelnen Seite mitgeteilt, nun zeigt er mir allerdings überall Sitemap-Fehler an, dass das Format nicht stimmen würde (html). Verlinkt sind aber die XML-Sitemaps, wie vorher auch. Die sind ja jetzt aber gar nicht mehr verfügbar, da man ja umleitet.

    Angezeigt wird in der Search Console nun ausschließlich bei allen alten Propertys "Diese Website wird momentan auf https://mmo-forum.de/ umgestellt"

  • Das mit dem "nicht gehen" verstehe ich nicht. Du musst da auch dazu schreiben, was die Quelle ist. Die Rule ist ja schön und gut, braucht man auch dazu, aber welche Domain war das mal?

    Wenn es die da war

    Code
    https://newworld-forum.de/community/category-trophy-list/28-events/

    dann geht das. Leitet weiter an die Startseite von mmo-forum, so wie hier angegeben:

    Apache Configuration
    RewriteRule ^community/category-trophy-list/28-events/$ https://mmo-forum.de/ [R=301,L]


    Einen Fehler hingegen bringt die da

    Code
    https://mmo-forum.de/community/category-trophy-list/28-events/

    Was auch korrekt ist, denn die Seite gibt es nicht. Die Weiterleitung vorher funktioniert aber, wenn ich denn die richtige Domain versucht habe.

    Vielleicht ist es aber auch die falsche alte Domain, denn im Index ist die dort nicht, Du sagst aber, wäre sie.

    Wenn ein Mensch nicht um dich kämpft, hat er nur gewartet, dass du gehst. ;(