Wir haben jetzt nochmal nachgebessert und eine separate Google Sitemap eingereicht und die Woltlab Suite geupdatet (inklusive der Erfassung von Metadaten --> das war in unserer bisherigen Version nicht möglich) - mal schauen, ob es zum Erfolg führt.
Ich mach jetzt wahrscheinlich ein riesiges Fass auf, aber fragen kostet ja bekanntlich nichts. Ich habe mich in der Vergangenheit bereits durch unzählige Blog-Artikel gequält und alles mögliche rund um das Thema 'Suchmaschinen-Optimierung' gelesen. Aber was würdet ihr aus Erfahrung sagen: Worauf kommt es an, was ist wichtig, was darf unter keinen Umständen fehlen, um höher gerankt zu werden?
Ich mach jetzt wahrscheinlich ein riesiges Fass auf
Das ist doch gut. Meinungsaustausch, der Sinn eines Forums. Wobei die Frage nun eher allgemein gehalten wurde.
In Deinem Fall sehe ich da die Autorität, also im Sinne von News. Allgemein kann ich da nicht viel zu sagen, denn ich bin auch nur ein Google-Jünger und falle immer tiefer
Aber auch allgemein ist es die Glaubhaftigkeit. Warum sollte Google meinen, ich hätte mehr Ahnung von Geranien, der ein Portal nur dazu betreibt, als z.B. "Mein-Garten" und Co. Es fehlt die Reputation. Dazu kommt, dass dann, wenn man mal vorne in den TOP3 ist, alles von anderen kopiert wird. Reputation geht also weiter in den Keller, da nicht schlagkräftig vorhanden.
Wichtig ist, meiner Meinung nach, ohne nun NEWS zu meinen. Content, einmaliger Content. Gut muss er sein und sich aus analysieren lassen. Ist aber auch ein Problem bei Google, denn die werten das ja aus allen Suchergebnissen aus. Hast Du nun was ganz neues oder was, was vorher nicht so vertreten war, dann haste schlechte Karten. Meine Meinung. Die Info wird also als Art "Fake" gewertet. Neue Infos, also wirklich neue, die kein anderer schreibt, die sind erst mal gut da, dann weg. Und wenn andere meinen, die waren mal gut da, kopieren dann, dann biste ganz weg.
Und was bei Google noch zählt, GANZ wichtig, Backlinks. Muss man aber auch unterschieden. Ist das eine recht neue Domain, dann gibt es sofort eine Strafe. Ist das eine alte, die ohnehin schon seit Jahren in den Top3 ist, dann kann die machen was sie will.
Was darf nicht fehlen? So doof es sich anhört, alles, was was Google will und das ist dann dennoch kein Garant dafür, dass es besser wird.
Wobei die Frage nun eher allgemein gehalten wurde.
Erwischt!
Ok, wie wäre es mit grundlegenden Basics zum Thema "Suchmaschinenoptimierung". Ich erwähnte die zahlreichen Blog-Artikel. Da muss ich gestehen ist mein Eindruck, dass das Ziel ist, dass bestmöglich viele User diese Seiten anklicken - inhaltlich habe ich dort nur selten hilfreiche Tipps gefunden.
- Umgang mit Suchbegriffen und Keywords (z.B. pro angelegte Seite unterschiedliche oder gleiche Keywords? Und wie viele? Wo genau müssen Keywords platziert werden? In den Artikeln selbst, auf diversen Seiten, in der Meta Description, Headlines, ...?)
- Was hat es mit den "nofollow" Links genau auf sich?
- Ist die robots.txt Datei notwendig?
- Sind Backlinks dauerhaft oder geht es hierbei auch um Verlinkungen zu einzelnen Artikeln?
- Ich bin über den Begriff "Canonical Tags" gestolpert?
Achso, das sind ja Grundlagenfragen und kein SEO in dem Sinne.
Keywords: Ich sage es mal anders rum. Pro Keyword sollte eine Seite ranken. Gerne auch mit Alternativen, die zum Key passen, aber eben eine und nicht zwei oder drei. Problem ist ganz einfach: Wenn mehrere Seiten zu einem Key ranken, dann wird Google das nie wirklich ordnen können, wenn die "gleichstark" sind. Folge ist, keine der z.B. drei Seiten wird ein vernünftiges Ranking bekommen. Das kommt ja nicht von jetzt auf gleich, sondern baut sich auf. Wenn Seite A einsteigt, langsam hoch wandert, Google dann aber plötzlich Seite B als relevanter ansieht, dann beginnt die zu steigen und A ist weg. Irgendwann meint Google dann, ach nö, ich nehme C. Also Spiel von vorne. Später kommt dann vielleicht wieder A und fängt an. Es stabilisiert sich also nie.
Und ja, in den Artikel müssen die natürlich rein, aber in letzter Zeit geht es eher im den Artikel selbst, dass der sich analysieren lässt. Im Zweifel könnte der dann sogar ranken, ohne dass das Key vorkommt, alleine aus dem Inhalt / Context heraus. Aber rein sollte es schon. Headlines, also vor allem H1 muss es auf jeden Fall rein, auch in den Meta-Title. Meta-Description ist nur noch schnickschnack und eigentlich für den User, damit man sich in den Suchergebnissen abhebt. Für Google selbst eher unwichtig. Auf andere Seiten natürlich auch, wenn es mehrere themenrelevante gibt. Eventuell eine allgemein und grob umrissen und eine andere, die dann einen bestimmten Vorgang genau beschreibt. Dieser "Vorgang" ist dann quasi das Key der Detailseite und wäre der Linktext von der anderen allgemeinen dahin.
nofollow: Das sind Links, die zwar da sind, aber für Sumas bzw. SEO unwichtig. Die werden nicht gewertet. Linkaufbau geht ja darum, dass auf Seite A ein Link zur Seite B ist, die Suma den findet, ihm folgt und Seite B somit einen neuen Backlink hat (egal ob intern oder extern). "Nofollow" sagt eben explizit aus, folge mir nicht! Ein Besucher sieht den dennoch und kann drauf klicken, eine Suma sieht ihn auch, bleibt dort aber stehen, folgt nicht mehr. Links sind ja noch immer die wichtigste Währung, die bringt aber nur was, wenn sie auch was wert ist. Und mit "Nofollow" ist der Link eben entwertet. Das zählt in beide Richtungen, egal ob man den Link bekommt oder gibt. Verlinkst Du eine externe Seite, dann kann es den Eindruck machen, das wäre ein verkaufter Link und das wäre verboten. Mit "Nofollow" ist es das keinesfalls, denn er ist ja für Sumas wertlos.
robots.txt: Braucht man nicht unbedingt, sollte man aber haben, auch wenn es einfach nur eine leere Datei ist. Hintergrund ist schlicht einfach nur, dass es dann einen fehlerhaften 404-Zugriff weniger gibt.
Das mit den Backlinks habe ich nicht verstanden.
Canonical: Auch recht einfach. Jede Seite hat im Grunde eine eigene URL, die angedacht ist. Nun kann es aber sein, dass eine URL durch Parameter etc. erweitert wird. Bei Dir z.B. 01234-aktuelle-news.html?fbid=blablub (Weiterleitung durch Facebook). Das sind also dann zwei verschiedene URLs mit dem gleichen Inhalt. Mit dem Canonical gibt man an, welche URL von Suchmaschinen benutzt werden soll. Oder auch bei internen Suchen und Sortierungen. Oft wird da dann einfach der Wert hinten an die URL gehängt. Der Inhalt ist der gleiche, nur anders sortiert, aber die URL ist anders. Also gleiches Spiel wieder. Welche URL ist die Primär-URL? Wenn Google zwei identische Seiten findet unter verschiedenen URLs, dann legt es in der Regel selbst einen Canonical fest. Das muss dann aber nicht die richtige Zielseite sein, daher lieber selbst festlegen. Dazu kommt, wenn Google das selbst macht das Thema wie oben bei den Keys. Die Festlegung kann sich ja ändern und dann hüpft es quasi immer zwischen den Seiten hin und her.
Nofollow, ja die Basics. Also Ref Link und Sponsored usw sollte man immer Nofollow setzen. Sonst kommt kurz danach das böse erwachen bei Google.