Massenindexierung - Statement by Matt Cutts

  • *** Link veraltet ***

    Naja zusammenfassend kann ich sagen das mich das nicht direkt Betrifft. Hab ja keine 200.000 neue Seiten die in den Index geblasen werden müssen.

    Matts Aussage zu der Massenindexierung ist eigenlich das es besser ist das es nach und nach in den Index kommt. Das die bei ungewöhnlich hoher Anzahl mal selber drüber schauen ist auch erwähnt.

    Natürlich gilt das nicht für minderwertigen automatischen Content. Da greifen die Filter was flotter, ist aber schon lange so.

    Die Massenidizierung ist also Möglich, wenn nötig sollte man das aber auch vermeiden.

    wenn etwas möglich erscheint mach ich das, wenn das nicht klappt gehts ans unmögliche und ansonsten das undenkbare.

    - nun stolz rauchfrei - Ich denke also Bing ich!

    Support 24h Bereitschaft 0173 6107465 - NUR Für Kunden von SEO NW!

  • Ich hatte das wo anders gelesen und etwas anders verstanden. So wie ich das gelesen hatte, geht automatisch ein "rotes Licht" an, wenn zu viel auf einmal kommt und es muss immer manuell begutachtet werden. Empfohlen daher, auf mehrere Stücke aufteilen oder eben, wenn nicht möglich, alles auf einmal. Aber eben mit dem Punkt der manuellen Prüfung. Seine Anmerkung war ja unter anderem auch, dass es nur sehr selten vor kommt, dass so viele Seiten auf einmal online gestellt werden und es sich dabei um einmaligen und hochwertigen Content handelt. Also selten, aber möglich.

    Wenn ein Mensch nicht um dich kämpft, hat er nur gewartet, dass du gehst. ;(

  • Jo, Neues vom Märchenonkel.

    Mein ärgster Konkurrent schaufelt seit Jahren zwischen 100 000 und 500 000 per Programm erstellter Seiten innerhalb kürzester in den Index und das in immer kürzeren Abständen. Mal hat er 500 000 drin, mal 2 Mios, je nachdem wie schnell G die Seiten wieder aus dem Index nimmt. Im Moment sind es wieder mal 1,6 Mios. Soviel Kontent gibt es in dem Bereich gar nicht, alsdass man damit 2 Mios Seiten mit echten einzigartigen Kontent füllen könnte. Was der in den letzten Jahren immer wieder nachgeschoben hat dürfte in den hohen zweistelligen Millionenbereich gegen.

    Und was ist passiert? Genau nix. Bei G scheint sich auch keiner Gedanken drum zu machen, wieviel Zeit und Manpower man aufwenden müsste, um 2 Mios Seiten mit echtem Kontent zu erstellen, wenn dieser Kontent nicht von Usern erstellt sein sollte. Und wenn da wirklich mal QRs nachgucken sollten, können die keine Ahnung haben. Das Ganze ist zwar gut gemacht, aber es gibt schon ein paar Anhaltspunkte wo einem geübten Auge auffallen müsste, dass da irgendwas nicht stimmen kann.

    Ein anderer hat vor Jahren eine Site eingestellt, bei der die Struktur schonmal insgesamt eingestellt wurde, also auch die Unterseiten, die mal irgendwann mit Inhalten gefüllt werden sollten. 10 000e. Überall: Coming soon. Und was ist passiert? Genau, wieder nix, aber se waren auch mit diesen leeren Seiten im LT nicht schlecht gelistet. Mittlerweile habense in Laufe von vielen Jahren die ehemals kontentlosen Seiten nach und nach mit Kontent bestückt und sind sehr gut gelistet.

    Ein anderer betreibt seit Jahren Framespam und arbeitet auch mit Cloaking. Was G gezeigt wird ist reines KW-Stuffing. Zwei, drei, vier Zeilen. Das issses. Hat auch noch in den Frames bei den Links stehen: Dient der besseren Auffindbarkeit bei G. Es soll ja Leute geben, die sich auch mal den Cache ansehen. Und was is? Richtig, seine Seiten sind gut gelistet. Jo, und ein paar gekaufte starke Links hatter auch noch, gut daran zu erkennen, dasse auf den linkgebenden Seite in den Text eingebaut sind und für den User gar nicht als Links zu erkennen sind. Da müsste mal einer zufällig mit dem Cursor Zeile für Zeile den Text abfahren.

    Gut, durch das "Rotationsprinzip" habense auch einiges an Federn gelassen, dass hat aber nichts damit zu tun, dass G nun sehr erfolgreich in der Spambekämpfung wäre.

    Ich kann überhaupt nicht mehr nachvollziehen, dass jemand, der sich mit der Materie halbwegs auskennt, noch irgendwas auf das Geplapper von diesem Cutts gibt und das dann auch noch adelt, indem er sich ernsthaft damit auseinandersetzt.

    Das ist das gleiche Prinzip wie bei diesen ganzen Wahrsagern, Kartenlesern, Sterndeutern. Die drücken sich wichtigklingend so gezirkelt aus, dann man später garaniert ein Körnschen Wahrheit findet, egal wie es denn dann auch kommen mag.

    „Arme Kinder sind genauso schlau und so talentiert wie weiße Kinder.“ :thumbup:

    US-Präsident Biden 2019 in einer Rede in Iowa,

  • Zitat von cura;42455

    dass hat aber nichts damit zu tun, dass G nun sehr erfolgreich in der Spambekämpfung wäre.

    Ich kann überhaupt nicht mehr nachvollziehen, dass jemand, der sich mit der Materie halbwegs auskennt, noch irgendwas auf das Geplapper von diesem Cutts gibt und das dann auch noch adelt, indem er sich ernsthaft damit auseinandersetzt.

    stimmt, das ist Dampfplauderei und das mit der Spambekämpfung ist auch mehr als zweifelhaft.

  • Eines der größten Probleme von Google als Suchmaschine, von Suchmaschinen überhaupt, ist - sie können Qualität nicht erkennen. Und gerade im Fall von Google stellt sich mir die Frage: wollen sie das überhaupt?

    Das ist auch wieder leicht zu beantworten, weil - sie können es nicht, sonst würden sie es ja tun. Die andere Option - sie wollen es nicht, halt ich für abwegig, weil sinnlosen Müll anbieten wäre schlecht für die Akzeptanz einer langfristigen Nutzung (alles nur bezogen auf Google als Suchmaschine)

  • Nun Cura, aber zwischen lesen, zuhören, selbst wiedergeben und letztendlich "damit auseinandersetzen" ist ein Unterschied. Die ersten Punkte müssen nicht zwangsläufig zum letzten führen.

    Wobei ich auch denke, dass es bei den "released hundreds of thousands of pages overnigh" nicht um die 200.000 aus der eigentlichen Frage geht, sondern um einen deutlich höheren Wert.

    Wenn ein Mensch nicht um dich kämpft, hat er nur gewartet, dass du gehst. ;(