• :popcorn:

    *** Link veraltet ***

    Frei nach Dieter Nuhr
    Das Internet ist zum Lebensraum der Dauerbeleidigten geworden, die immer einen Grund finden, anderen irgendetwas vorzuwerfen, um sich selbst moralisch zu erhöhen.

  • Ja toll, da werden die Rankings seit ein paar Tagen gerade wieder etwas besser und dann kommt Google Panda 4 gleich hinterher. Mich würde nun aber wirklich interessieren, ob Panda 4 nun wirklich am 20.05.2014 startete oder vielleicht doch schon ein paar Tage vorher. Wenn schon vorher, dann könnten die Änderungen am Wochenende ja auch darauf zurückzuführen sein ... Hm ...

    Wenn ein Mensch nicht um dich kämpft, hat er nur gewartet, dass du gehst. ;(

  • Vergleichsportale sollen die Gewinner sein (lt sixtirx) , na toll dann ist der ganze Affilatemist wieder vorne, habe ich vergangene Woche schon gemerkt. War schön mal mit dem Hauptkey 6 Monate auf Seite 1 zu sein.

    Frei nach Dieter Nuhr
    Das Internet ist zum Lebensraum der Dauerbeleidigten geworden, die immer einen Grund finden, anderen irgendetwas vorzuwerfen, um sich selbst moralisch zu erhöhen.

  • Hab gestern irgendwo gelesen, dass dieser Cutts sinngemäss gesagt haben soll, dass gegen die "schlimmsten" Spamseiten vorgegangen werden soll.

    Das Google nicht besonders zu unterscheiden vermag wissen wir ja mittlerweile. Könnte also gut sein, dass "Qaulität" vorgetäuscht wird. Wie? Einige hundert QR durchkämmen zwischen den Updates das Netz, schauen sich z. B. auch denunzierte Seiten an, machen hie und da ein Kreuzschen dran und dann werden zu einem Datum X alle Sites mit + "abgestraft". Das wirbelt natürlich alles durcheinander und das würde auch erklären, warum immer bestimmte Branchen mehr und andere weniger betroffen sind.

    Und wenn bei dieser Gelegenheit einige Sites, die bevorzugt behandelt werden sollen, nach vorne rutschen, ist das dann "selbsterklärend".

    Und schon hat G wieder ein Update über das die ganze Welt diskutiert und spekuliert.

    „Arme Kinder sind genauso schlau und so talentiert wie weiße Kinder.“ :thumbup:

    US-Präsident Biden 2019 in einer Rede in Iowa,

  • Zitat

    Einige hundert QR durchkämmen zwischen den Updates das Netz

    Hunderte? Das sind tausende und die Mehrheit von denen arbeitet nicht für Google, die nehmen nur an dem QR-Programm teil. Kann jeder, da muss man keine Ahnung haben. Man bekommt einen Zettel, was man wie machen soll und dann kreuzt man einfach an. Und wenn man die Anweisungen falsch versteht oder verstehen will, dann kreuzt man halt falsch an ;)

    Wenn ein Mensch nicht um dich kämpft, hat er nur gewartet, dass du gehst. ;(

  • >> Das sind tausende _

    Allez hopp, da hätten wir ja mal einen Anhaltspunkt wie die Updates zustandekommen könnten. Tausende können in zwei, drei Monaten hunderttausende Webseiten "beurteilen". Wenn ich z. B. die Suchergebnisse nur durchscrolle kann ich bei vielen Sites an den Beschreibungen schon erkennen: Dreck. Dann noch kurz reingehen, zwei, dreimal klicken und erkannt: Spam.

    So, und jetzt stuf mal 10 000, 20000, 30000 Sites, die vielleicht jeweils bis zu 500 000 Unterseiten haben, insgesamt zurück und Du hast ein Erdbeben in den Serps.

    Wie lange gibts Google jetzt schon? 12 Jahre, 13, 14? Und genausolange werkeln die angeblich schon mit automatisierter Auswertung rum, ohne je wirklich was Grundlegendes geändert zu haben. Die dürften mittlerweile auch erkannt haben, dass es ohne "Menpower" nicht geht. Nur, dass darf ja nicht zugegeben werden, weil es den Mythos Gs ankratzen würde.

    „Arme Kinder sind genauso schlau und so talentiert wie weiße Kinder.“ :thumbup:

    US-Präsident Biden 2019 in einer Rede in Iowa,

  • Und vergessen: Die SEOs dieser Welt können sich (und werden es auch tun) auf die Suche nach der "automatisierten" Logig machen, die es in Wirklichkeit gar nicht gibt.

    „Arme Kinder sind genauso schlau und so talentiert wie weiße Kinder.“ :thumbup:

    US-Präsident Biden 2019 in einer Rede in Iowa,

  • Genau das ist das Problem, eine Logik ging es da nicht. Gut, Panda ist nun eine automatisiere Sache, greift aber halt auch auf Flags zurück und die werden manuell vom QR gesetzt. Und ja, Deine Einschätzung ist wohl richtig, daher gibt es ja auch so viele unberechtigte Opfer. Daher soll man ja auch den Wiederaufnahmeantrag stellen, denn das prüft dann ein echter QR von Google und keine Hausfrau zwischen Sellerie und Rinderbraten.

    Wenn ein Mensch nicht um dich kämpft, hat er nur gewartet, dass du gehst. ;(

  • Und so lange Zig-Millionen von Webseiten-betreibern (auch Tante Erna mit ihrem MySpace-Blog und die 12-jährige mit ihren Youtube-Acc und dem blogger.com-blog) ganz unbedarft (und unlogisch für jedes Programm!) Content reinballern, wird google da auch abkacken.
    Auch, wenn die 1000x behaupten, sie können gute und schlechte Sites unterscheiden anhand von x Merkmalen... das ist in meinen Augen größtenteil Mummpitz.

    Die kommen mir eher vor, wie die Typen, die auf Veranstaltungen rumtingeln und verbreiten: "ICH habe das Roulette-System gefunden!" oder "ICH kann sagen, welche Aktien sie kaufen müssen!"

    Wer zuerst "Datenschutz" sagt, hat verloren.

  • Auch, wenn die 1000x behaupten, sie können gute und schlechte Sites unterscheiden anhand von x Merkmalen... das ist in meinen Augen größtenteil Mummpitz.


    Ist es auch, irgendwie. Die Auswertung auf Basis der Merkmale werden wohl schon stimmen, also ist die Aussage richtig, doch wer sagt, dass die Merkmale stimmen (da viele von Usern erfasst, die keine Ahnung haben)? Somit stimmt Deine Aussage!

    Aber dem jetzt mal außer Acht gelassen. Hat hier jemand Änderungen wegen dem Panda 4.0 bemerken können?

    Wenn ein Mensch nicht um dich kämpft, hat er nur gewartet, dass du gehst. ;(

  • >> Panda ist nun eine automatisiere Sache _

    Sagt Google...

    Ja gut, wenn 1000, 10 000 vorher gekennzeichnete Sites zu einem Zeitpunkt X gleichzeitig abgewertet würden, wäre das ja auch noch irgendwie ein automatisierter Vorgang, weil rückgestufte Sites automatisch ihren Platz für andere Seiten freimacht.

    Und wenn Du jetzt sagtst, dass da erst tausende Laien, Hausfrauen etc rumwerkeln, deren Fehler dann von echten QR nach Aufforderung korrigiert werden ist das eigentlich eine Sauerei. Google spart zunächst mal Geld für gutes Personal und die Webmaster müssen dann darum betteln nicht betteln gehen zu müssen.

    ....................................

    Nee, ich kann keine Veränderungen feststellen. Hab aber nur kurz überflogen.

    „Arme Kinder sind genauso schlau und so talentiert wie weiße Kinder.“ :thumbup:

    US-Präsident Biden 2019 in einer Rede in Iowa,

  • Hast mich falsch verstanden Cura. Panda ist automatisch, da bin ich mir auch sicher. Nur die Datenquellen nicht unbedingt. Dieses "was ist böse, das nicht, was bekommt ein Flag, was nicht" erfolgt eben per Hand.

    Zitat

    Und wenn Du jetzt sagtst


    Ja wenn? Das mache ich nämlich :) Mist, fange schon an wie der 800er

    Zitat

    Und wenn Du jetzt sagtst, dass da erst tausende Laien, Hausfrauen etc rumwerkeln, deren Fehler dann von echten QR nach Aufforderung korrigiert werden ist das eigentlich eine Sauerei.


    Aber genau danach schaut es aus. Das sagt Google nicht selbst, aber das geht aus den "QR-Anleitungen" hervor, die ja nicht Google, sondern Teilnehmer davon veröffentlicht haben. Da schaut in etwa so aus Google -> Cutts -> echte Rater -> Datenerfasser

    Zitat

    Google spart zunächst mal Geld für gutes Personal und die Webmaster müssen dann darum betteln nicht betteln gehen zu müssen


    So ist es aber. Der Algo hat recht, auf Basis seines Inputs. Du oder ich als Webmaster musst dann "beweisen", dass der Input falsch ist.

    Und ja, 1 + 1 = 10 Die Rechnung stimmt auch ;) Ist nur eine andere Sichtweise. Andere würden sagen, nee, das ist 2 oder 11. Aber nein, 10 stimmt!

    Und Google Aussage, die würden die richtigen treffen, stimmt auch, nur ob die auch richtig ermittelt wurden ist fraglich.

    Wenn ein Mensch nicht um dich kämpft, hat er nur gewartet, dass du gehst. ;(

  • Hab diese QR-Anleitungen von "Mitarbeitern" nie gelesen. Aber da kannste mal sehen. Das könnten dann gut auch diese ganzen Spinner sein, die sich bei Wiki und auch in sonstigen "Qualitätssites" rumtreiben und überall ihren Mist dazugeben.

    Vor zig Jahren hatte G mir mal geschrieben, dass sie sich nicht mit einzelnen Sites und Seiten beschäftigen würden und Sites auch nicht manuell abgestraft würden, sondern dass nur deren Methoden des Spams ausgewertet würden. Die Ergebnisse würden dann in die Festlegung des Algos einfliessen. Das war aber noch lange bevor dann der Begriff des Qualitätsräters auftauchte.

    Hat sich ja damals gut angehört, hat sich angehört, als könnte es funktionieren und ordentlich angewandt sollte es eigentlich auch funktionieren. Da es aber offenbar nicht funktioniert, muss bei denen ja einiges ordentlich schieflaufen. Mal davon abgesehen, dass es da ja wohl einige gibt, die bei Google den Filter "Narrenfreiheit" haben.

    Ich bin also bis heute tatsächlich noch davon ausgegangen, dass die da wenigstens Leute drangehockt haben, die auch eine Entlohnung erhalten und selbstständig interpretieren können was sie vor der Nase haben, also keine "Anleitungen" brauchen um erkennen und unterscheiden zu können.

    Das da hört sich ja nach der Methode Wiki an, die jeden nehmen der bereit ist "ehrenamtlich" ohne Entlohnung zu arbeiten.

    Trotzdem dürfte der Einsatz dieser Deppen nicht dazu führen, dass Kriterien so krass verfälscht werden, dass rauskommt, was meist rauskommt. Es müsste sich irgendwie ausgleichen.

    Gut, geht man mal davon aus, was wir mitllerweile wissen, dass die "natürlichen" Serps für G nur noch Alibi und notwendiges Beiwerk sind, die sie im Grunde nur noch am Verdienen von noch mehr Geld hindern, kann auch davon ausgegangen werden, dass bezüglich der Qualität dieser Serps nicht mehr viel gemacht wird. Ist ja auch ein Kriterium: Wer in guten Serps sofort fündig wird, braucht keine Werbung mehr zu klicken. Logisch auch, dass G sich da sagt: Wenn an den Serps jemand verdienen soll, dann doch primär unsere Anzeigenkunden, das reduziert denen im Verhältnis die Werbekosten für den über Google erzielten Umsatz und sie bleiben bei der Stange.

    „Arme Kinder sind genauso schlau und so talentiert wie weiße Kinder.“ :thumbup:

    US-Präsident Biden 2019 in einer Rede in Iowa,

  • Ja, da siehste mal, dass sich da vieles geändert hat. Ein reiner Algo war vor langer Zeit. Google (die Suche selbst) ist jetzt immer noch ein reiner Algo, aber eben auch ein Algo besteht nur aus Funktionen und Ergebnissen anderer Gleichungen. Und von dieses immer wieder gesagten "über 200 Faktoren" sind viele komplett automatisch, andere händisch. Muss man sich auch so vorstellen, dass der Faktor "Spamseite" durchaus im Algo immer wieder neu justiert wird, damit der Algo das automatisch erkennen kann. Nur für die Justierung dient dann ein Datenpool "Spammeldungen", die stimmen können, aber nicht müssen. Auf dessen Basis wird dann quasi der Algo (Teilfunktion) erstellt und fließt in den "großen" ein. Somit trifft der dann automatisiert auch andere Seiten, die vorher noch nie einer gesehen hatte. Somit kann Google hier wieder sagen, es geht alles "automatisch". Aber mal ehrlich, automatisch geht gar nichts, nirgends. Alles braucht einen Input und die Logik des Algos muss auch definiert werden. Und genau hier entstehen die Fehler.

    "Hab diese QR-Anleitungen von "Mitarbeitern" nie gelesen"
    Das ist schade. Der letzte war etwas "geschwärzt", aber der davor war sehr ausführlich und informativ. Da steht auch nicht nur allgemein SEO drinnen, sondern alles mögliche, unter anderem was ein Browser ist, wie ein Cookie funktioniert, wie man sich in Browser xy den Quelltext anzeigen lassen kann etc. Im Grunde ist das eine Anweisung für Leute, die schlicht null Ahnung von Internet und Computern haben.

    Und dann eben das SEO Zeug, aber auch nicht nur, dass man dies und jenes machen soll, sondern direkte und echte Beispiele. z.B. warum die Seite toysrus für bestimmte Keys als "sauber" anzusehen ist, für andere aber ein Flag gesetzt werden soll und für wieder andere direkt ein "Filter" vorgenommen werden "muss". Da ist alles erklärt, auch die ganzen "Filter" bzw. "Flags". Welche es gibt, für was und wann. Warum und warum nicht etc.

    Auch bei toysrus, habe ich noch im Kopf, weil ich das einfach eine Frechheit fand. Da war das Beispiel mit einer Unterseite. Da wurde ein kleines ferngesteuertes Auto verkauft (kabelgebunden, kein Funk). Diese Unterseite sollte für die Suchanfrage "Babyspielzeug" in den Filter und als "unrelevant" markiert werden, weil... Der Grund, der in der Anleitung so drinnen stand: "Weil dieses Auto Kleinteile enthält oder enthalten könnte, die das Baby verschlucken könnte. Das Auto somit für ein Baby nicht geeignet sei und der Treffer für die Suchanfrage daher als "unrelevant" einzustufen ist".

    Die nehmen sich also auch das Recht heraus, über Produkte zu entscheiden und dann zu sagen ja oder nein. Da geht es nicht nur rein um die Webseite, sondern auch um das, was da verkauft wird. Oder andere Seiten mit der Begründung "schwer verständliche Navigation", "Unübersichtlicher Aufbau" etc.


    Und ja, Dein Vergleich mit Wiki war gar nicht schlecht. Ich selbst dachte da direkt an DMOZ ;) Und das vBulletin hier ist auch nicht viel anders. Eine Führung ganz oben, ein QR-Team und ganz ganz viele User, die Fehler suchen und berichten müssen und gleichzeitig dann quasi auch entscheiden, welche der gemeldeten Fehler dem QR-Team überhaupt vorgelegt werden.

    Wenn ein Mensch nicht um dich kämpft, hat er nur gewartet, dass du gehst. ;(

  • Hab mal irgendwo nen Bericht von einer Firma, die auch mal QR eingestellt hat, gelesen auf ner Ami-Site:
    Die Firma war eigentlich so ne Art Umfrage-Unternehmen. Die schickten Studenten und andere dynamisch aussehende Leute von Tür zu Tür oder liessen die telefonisch Meinungsumfragen machen. Kennt ja jeder, diese Nervsäcke.
    Dann sollten die halt zig nicht-internetaffine Leute QR spielen lassen für den Zeitraum x.
    Die kriegten ein paar Merkblätter und nen Link zu einer Software.
    Aus der Software raus konnten sie dann vordefinierte Seiten angucken und diverse Merkmale bewerten. Also Häkchen setzen.

    Und das macht google in vielen Unternehmen und in vielen Ländern.
    Die Idee an sich ist ja ganz gut: Lass n00bs die Seiten bewerten. CrowdControl. Aber was raus kommt sieht man ja.
    Da muß ein QR grade miese Laune haben, sich verklicken oder sonstwas und schon kann eine Existenz den Bach runter gehen.

    Wer zuerst "Datenschutz" sagt, hat verloren.

  • Hat jemand mal so eine Kreuzelliste? ;)


    Du meinst die Anleitung oder was? Angekreuzt wird bei Google in einer Online-Software. Allerdings suche ich die Rater-Anleitungen nun auch schon seit heute morgen. Keine Ahnung, wo die hin sind.

    Wenn ein Mensch nicht um dich kämpft, hat er nur gewartet, dass du gehst. ;(

  • Jetzt wo Du das schreibst habe ich sie bei mir auch gefunden. "google-guidelines" hieß das Ding also und ich suche die ganze Zeit nach "quality" bzw. "rater" ;)

    Wenn ein Mensch nicht um dich kämpft, hat er nur gewartet, dass du gehst. ;(