HTTPS war gestern, jetzt wird auf "vertrauenswürdig" gesetzt _

  • Nach meiner Meinung nichts als heisse Luft, aber wen es interessiert:

    *** Link veraltet ***

    Interessant der letzte Absatz:

    "Viele extrem populäre Internetseiten sind durch das Netz von Googles Jägern der verlorenen Wahrheit gerutscht. 14 von 15 bisher top gesetzten Humor-Adressen beispielsweise, allesamt unter den 15 Prozent meistgeklickten amerikanischen Internetseiten, sind quasi komplett durchgefallen und mit Googles KBT-Suchmaschine in die untere Hälfte der Suchanfragen abgerutscht. Auch Internetforen, in denen sich die besonders schreibwütigen und kommentarfreudigen User austoben, dürften den Google-Forschern zufolge zu den großen Verlierern der Qualitätsoffensive zählen."

    „Arme Kinder sind genauso schlau und so talentiert wie weiße Kinder.“ :thumbup:

    US-Präsident Biden 2019 in einer Rede in Iowa,

  • Ist doch nur ein weiterer konsequenter Schritt. Und bald ist es dann geschafft. Was dann rankt, ist doch ganz einfach: Wikipedia & Co. Damit ist wieder ein ganzer Schwung Webseiten im Netz überflüssig geworden.

    Er war Jurist und auch sonst von mäßigem Verstand.

    (Volker Pispers)

  • Jetzt verstehe ich auch den Schritt mit Google Bilder.
    Knowlege Graph ist ja auch sowas was mir sauer aufstösst.

    Tatsächlich gibt dann Google schon die Antwort bei der Suche. Die Infos kommen von uns, wir bluten dann aber aus.

    Wir Google Sklaven werden in Zukunft dann wohl nicht mehr gebraucht :)

    wenn etwas möglich erscheint mach ich das, wenn das nicht klappt gehts ans unmögliche und ansonsten das undenkbare.

    - nun stolz rauchfrei - Ich denke also Bing ich!

    Support 24h Bereitschaft 0173 6107465 - NUR Für Kunden von SEO NW!

  • Jo, das war auch mein erster Gedanke: Wikipedia. Und wer noch?

    Und Faktenscheck bei Humorseiten?

    Und Internetforen, in denen sich die besonders schreibwütigen und kommentarfreudigen User austoben? Wer damit wohl gemeint ist? Möglicherweise alles was zu googlekritisch, zu investigativ ist? Alles was sich nicht die Augen zuschmieren lässt und wie ein Hündschen folgt?

    Wasse da ankündigung können sie automatisiert nicht, darüber dürften wir uns ja hier einig sein. Also dürfte es wieder mal darum gehen einen weiteren Unsicherheitsfaktor zu schaffen, um sich das aus dem Weg schaffen zu können was ihnen bei ihrem langfristigen Businessplan im Weg steht.

    „Arme Kinder sind genauso schlau und so talentiert wie weiße Kinder.“ :thumbup:

    US-Präsident Biden 2019 in einer Rede in Iowa,

  • Und Internetforen, in denen sich die besonders schreibwütigen und kommentarfreudigen User austoben?


    Ich denke mal, hier geht es um Foren, in denen sehr viel geschrieben wird, aber eben nicht sachlich schön ausführlich in einem Post, sondern auch sehr viel OT oder eben so Post mit 3-4 Worten, Hauptsache man hat was gesagt. Mit so was kann oder will Google nichts anfangen, denn da müssten die ja erst mal filtern, was Informationen sind und was Geschwätz und dann auch noch die Informationen aus verschiedenen Posts / Threads zusammentragen und kombinieren.

    Wenn ein Mensch nicht um dich kämpft, hat er nur gewartet, dass du gehst. ;(

  • Jep, seh ich ganz genauso, hübsches Schleifchen drum und dem blöden User als Mehrwert verkauft, statt zu sagen, können wir nicht leisten.

    Er war Jurist und auch sonst von mäßigem Verstand.

    (Volker Pispers)

  • Filtern? Überall wo irgendwas von "Schweinestall" drinsteht das ist bei G auch für Schweinestall relevant. Mal mehr, mal weniger. Bei manchen KWs käme G mit fünf Ergebnissen aus. Die restlichen 9995 Ergebnisse diese anzeigen sind oft eh nur unnötiges Füllmaterial. Müll.

    „Arme Kinder sind genauso schlau und so talentiert wie weiße Kinder.“ :thumbup:

    US-Präsident Biden 2019 in einer Rede in Iowa,

  • Ja, filtern. Aber nicht die Ergebnisse bei Google, sondern die Fundstellen in so einem Forum.

    Ich bezog mich ja darauf:
    "„wissensbasierte Vertrauenswürdigkeit“. Fakten statt Klicks."

    Also braucht/will Google Seiten, wo alles schön sachlich und ausführlich steht. Es würde Google z.B. nichts bringen, wenn Du ein Gesetz erörtern würdest, das aber jeweils nur immer einen Satz in einem Post und dann noch über diverse Threads verteilt, geschmückt von "unwissenden Kommentaren von anderen". Das meine ich mit, "müsste Google filtern", also die Informationen aus den vielen verschiedenen Stellen, um daraus dann einen „wissensbasierten" Text zu erhalten.

    Oder Margin mit dem Thema Bildlizenzen. Da könnte man wohl auch schon ein halbes Buch schreiben, aber die Daten sind halt alle im Forum verstreut und das möchte Google nicht... Also ist das hier ein doofes Forum, das nicht "wissensbasiert" ist.

    Wenn ein Mensch nicht um dich kämpft, hat er nur gewartet, dass du gehst. ;(

  • ^^^
    Also sollte man in jedem seiner Posts immer auch etwas schreiben, was man als belegbar faktische Auskunft ansehen kann.

    Dann fang ich gleich mal an und sage:
    Fakt ist, dass Google deutlich weniger in der Lage ist, Relevantes von Unsinn zu unterscheiden, als die Google-Macher vielleicht sogar denken und das dies auch in der Zukunft wohl kaum befriedigend gelingen wird!

  • Also ich glaube schon, auch wenn es mir Angst macht, dass das funktionieren kann. Klar ist das nicht immer 100% richtig, es handelt sich ja nur um Wahrscheinlichkeiten. Aber letztendlich arbeitet schon heute jedes autonome System mit Wahrscheinlichkeiten. Der bisherige Graph hatte da nur zu wenig Input, aber wenn die das jetzt auf alle möglichen Seiten ausweiten, ob Wissendatenbanken, wissenschatliche Dokumente, Forschungsunterlagen, Bücher etc, dann ist das ein ganz anderer Bestand.

    Klar bedeutet das nicht, dass die Antwort dann richtig ist, nur wenn die auf einer sehr hohen Wahrscheinlichkeit beruht, werden die wenigsten bemerken, dass sie falsch ist. Ist doch fast wie mit "Fleisch anbraten, damit sich die Poren schließen". Wie viele glauben das? 90%, 99%. Dennoch ist es falsch. Ich denke mal, das würde Google auf Basis der breiten Masse auch als richtig werten und eben die 90% oder 99% würden nicht merken, dass es falsch ist, woher auch.

    Letztendlich stand ich mal selbst vor so einer Frage und musste mich auf die Wahrscheinlichkeit verlassen. "Mit was düngt man Buchsbaum, der in der Wiese steht?" Da findeste zig Antworten. Nach Tagen nahm ich dann den Weg, den die meisten schrieben. Es hat funktioniert. Bedeutet aber nicht, dass die anderen Möglichkeiten nicht auch funktioniert hätten ;)

    Wenn ein Mensch nicht um dich kämpft, hat er nur gewartet, dass du gehst. ;(

  • Und 10 Jahre später rutscht die gaußsche Normalverteilung massiv nach links, da wo heute der Schwachsinn liegt, haben wir dann normal-100. Weitere 10 Jahre später werden Rufe laut, wo ist die Intelligenz hin, wo ist das Wissen hin? Ganz einfach, Google hats und die Welt verblödet.

    Er war Jurist und auch sonst von mäßigem Verstand.

    (Volker Pispers)

  • ^^^
    Bei solchen Fragestellungen mag das ja ggf. gute Ergebnisse liefern können, aber welche Fakten zählen denn, wenn jemand nach "Ferienhaus München", "Online Spielen" o. ä. sucht?
    Ich weiss nicht, kann ja sein, dass ich schon von Grund auf voreingenommen bin (wenn es sich um Google dreht), aber trau dem Braten nicht.

  • [USER="48"]Margin[/USER]
    Das wäre möglich so. Zumindest was Fakten betrifft, hat die Minderheit dann ein klares Problem. So lange die breite Masse es anderes sagt / schreibt, ist die Aussage von der Minderheit immer falsch, auch wenn es vielleicht richtig ist. Wäre das vor sehr langer Zeit schon gewesen, dann würde Google wohl auch sagen, dass die Erde eine Scheibe ist, weil es alle sagten.

    [USER="62"]Schwede[/USER] Glaube nicht, dass es dabei um solche Sachen geht, denn da kann man keine Aussage treffen. Der Graph sollte ja antworten auf Fragen. Man kann es aber andersherum betrachten und das ist ja der Sinn vom neuen Algo. Man kann mit der Wahrscheinlichkeit einen Text auswerten und erfährt schon mal, ob der überhaupt irgendwas fachliches enthält und ob das auch der Mehrheit entspricht. Über Rechtschreibung, Semantik ect. kommt man an die sprachliche Qualität, über den Inhalt an die fachliche Qualität.

    Dieser Post enthält z.B. gar nichts fachliches, denn es sind nur zusammengefügte Gedanken und würde somit direkt durchfallen. Bei einem Artikel über eine Insel kann man da aber schon was erkennen, das kann ein Leser selbst ja auch. Eine Software kann das genauso gut, vor allem wenn die die Breite Datenbasis hat. Frag mich nun nicht nach dem Namen, aber in Spanien gibt es doch diese Insel, wo die Strände aus Vulkangestein bestehen. Wennste über die einen Bericht schreibst, einen Reiseführer oder sonstwas und sagst, da wären wunderschöne weiße Sandstrände, dann biste damit durchgefallen. So was kann man per Software schon erkennen. Das ist nichts, was ein Normalo einfach mal so macht, aber mit den entsprechenden Leuten und der Datenbasis ist das möglich.

    Und daraus kann man dann auch eine Wertigkeit für die Suche erstellen, die dann auch so Suchanfragen wie "Online Spielen" berücksichtigt. Einfach auf der Basis, wie relevant die Seite zu dem Thema ist (macht Google jetzt schon) und dann nach dazu, wie glaubwürdig das ist.

    Das Beispiel mit dem Shitstorm passt da ja sehr gut. Wenn die breite Masse einer anderen Meinung ist, dann läuft der Shitstorm ins leere, weil die Wahrscheinlichkeit sehr gering ist, dass es stimmt. Es kann aber letztendlich wieder zu dem von Margin führen, dass irgendwann die Grenze überschritten ist und der Shitstorm die Oberhand gewinnt.

    Wenn ein Mensch nicht um dich kämpft, hat er nur gewartet, dass du gehst. ;(

  • Syno, ich denke, dass G. bzw., irgendeine Software weit davon entfernt ist schon einen simplen Satz wie "Weisse Sandstrände sucht man hier vergebens" einordnen zu können. Ein Mensch kann das, weil er, zumindest in seiner Muttersprache, den Aufbau einer Sprache intuitiv erfasst. Ob eine Software das je schaffen wird? Ich hab da meine Zweifel und da können die Semantiker mir erzählen was sie wollen. Allein schon die in einigen Sprachen vorkommende doppelte Verneinung die manchmal eigentlich JA meint dürfte ein fast nicht zu überwindendes Hindernis darstellen. Was wollense denn machen? Schlagworte abgleichen? Das tun sie doch schon ewig, mit sehr mässigem Erfolg. Siehe KW-Dichte. Ich könnte über ein rechtliches Thema wie z. B. "Betreuung, Entmündigung" einen sehr fundierten Aufsatz schreiben, ohne die Begriffe "Betreuung, Entmündigung" auch nur zweimal zu benutzen. Ein Mensch könnte damit etwas anfangen, eine Software würde wahrscheinlich nach fünf Sätzen aufgeben: "Damit kann ich nichts anfangen, kann ich nicht zuordnen und schon gar nicht auf inhaltliche Qualität überprüfen."

    Bei der Suche "ferienwohnung trier" kriegste schon auf Seite 5 ein Ergebnis "ferienhaus-trier.de > Diese Domain steht zum Verkauf". Ganz davon abgesehen, dass "Ferienwohnung'" nicht Ferienhaus ist, solange G solch simpelste Dinge nicht den Griff kriegt, kann ich diese grossmäuligen Ankündigungen nach "Qualitätskritierien" nur als dummes Geschwafel ansehen. Zu "ferienwohnung trier" findet G ungefähr fünf mal soviele Ergebnisse wie die Stadt Einwohner hat.

    Ich sehe das eher so, dass G seine Bestrebungen das Internet zu werden weiter vorantreibt, die entsprechenden Massnahmen plant und sich dann erst Gedanken drum macht wie diese anstehenden Massnahmen der dummen, breiten Masse als "Innovation" verkauft werden können. Und natürlich auch den Juristen und Wettbewerbshütern, die mittlerweile bei G etwas genauer hinsehen.

    „Arme Kinder sind genauso schlau und so talentiert wie weiße Kinder.“ :thumbup:

    US-Präsident Biden 2019 in einer Rede in Iowa,

  • Hmm, wenns nach Qualitätskritierien geht stimm ich [USER="74"]cura[/USER] zu. Noch ist googles Such und Findmaschine eine Linkbasierende. Aber sie werden besser. Gänzlich ohne Links kann ich mir auch nicht vorstellen. Da stellen sich mir Fragen wie was passiert mit den ganzen Reiseseiten die nichts auser interne links zum Thema und iframes, Datenbanken usw. zu bieten haben. Um Texte auszuwerten müssten zum Suchbegriff assoziative Schlüsselwörter herangezogen werden. OK das mag ja noch gehen ist ja keine Hexerei.
    Nur mal so: wenn ich aber nun mal Hotels in Timbuktu suche und jede Seite listet mir die gleichen auf und bietet mir genügend Hintergrundinformationen bis zur Zeit zum Handtuchwechsel wie will die Krake entscheiden was relevant ist und auf die vorderen Plätze schieben? Willkürlich? Gut es gibt Tausend Gründe z.B. Textlänge, Fotos, Videos und und und.
    Das einzige was mir so zu den Thema einfällt sind Querverweise innerhalb eine gesamten Webseite. (wiki läst grüßen) Nur sieht es schauderhaft aus wenn jedes zweite Wort verlinkt ist.

  • Kein Problem, wenn Ihr da anderer Meinung seit, jeder hat halt seine :) Das mit dem jetzigen Zustand sehe ich ja genauso, also dass zu einer Suchanfrage oft nur Mist kommt. Das andere sehe ich aber anders und das eben daher, da ich das in anderer Richtung betrachte. Ich gehe in meiner Betrachtung nicht nach "Suchbegriff" -> "Webseite", sondern nach "Webseite" -> "Wahrscheinlichkeit des Infomationsgehaltes" und dann dann erst indirekt über einen zusätzlichen Flag auf den normalen Weg "Suchbegriff" -> "Webseite" zurück.

    Ganz einfach gesagt wie das "Spam-Flag". Da kann die Seite noch so auf ein Key optimiert sein, wenn das Flag sitzt, dann kommt die einfach nicht als Treffer. Genauso könnte man es mit der Wahrscheinlichkeit machen, die letztendlich für den Moment ein fester Wert ist. 200 Seiten mit identischer Optimierung, 100 davon mit hoher Wahrscheinlichkeit, 100 mit niedriger. Und schon hat man eine Sortierung.

    Eine Art davon, auch wenn wirklich bei weitem nicht so ausgebaut sind ja die News. Schon mal aufgefallen, dass bei der Sortierung nach Relevanz fast nie kleine örtliche Blätter dabei sind, sondern fast ausschließlich überregionale Seiten?

    Das Problem an der Sache ist eigentlich nur die Erkennung der Inhalte und die Berechnung der Wahrscheinlichkeit. Das ist definitv nichts, was von jetzt auf gleich aus dem Boden gestampft wird. Das braucht sehr viel vorherigen Input, dass auf Basis dessen schon mal was "vertrauenswürdiges" da ist. Das wäre z.B. allgemein anerkannte Fachliteratur. Und hier unterscheiden wir uns ja am meisten. Ich bin der Meinung, dass man das auch auf normale Seiten anwenden kann. Warum? Weil eine so einfache Suchanfrage wie "Hotel Spanien" bei keinem eine andere Information liefern würde, also im Grunde nicht. Ob da nun viel Fachwissen drinnen steckt oder nicht ist egal, weil da keiner sonderlich viel haben wird. Der mit dem meisten gewinnt dann halt. Ausschlaggebend ist da, dass es in Übereinstimmung der breiten Masse ist und dann kann Google es als glaubwürdig ansehen. Es geht also primär nicht um das verstehen des Inhalts, sondern der Gleichheit mit anderen. Und solche Funktionen bietet PHP schon seit Jahren, auch wenn in sehr viel kleinerem Umfang und ohne extra Datenbasis, Facebook hat es auch. Inhaltliche Erkennung und Auswertung setzt fast jeder Geheimdienst ein. Also im Grunde ist das alles nichts neues.

    Ein Teil dieser Datenbasis könnte z.B. auch Wikipedia sein oder andere Enzyklopädien. Die werden einfach vorab als Referenz genommen. Kommen nun andere Seiten, die was anderes erzählen, dann fallen die erst mal durch. Kommen zu viele andere Seiten, die gemeinsam das gleiche, aber eben was anderes erzählen, dann verschiebt sich das ganze und z.B. Wikipedia fällt durch.

    Cura, Dein Punkt oben mit dem Aufsatz über "Betreuung, Entmündigung" ist ein besonderer Fall. Ich würde denken, dass Google das anhand des Textes erkennen würde aber dennoch nicht sonderlich gut bewertet. Warum? Weil alleine schon die Schreibart, also die beiden Wörter nie zu verwenden, so gut wie nicht oder wohl nie vorkommt. Oder wie viele fachliche Abhandlungen gibt es, wo die Wörter nicht erwähnt werden? Google hätte dann einen Text, der vielleicht große Übereinstimmungen mit anderen Texten hat, aber das gesuchte Key nicht vorkommt. Und unter der Betrachtung, die ich aber mit dem Weg hatte, würde die Suche die Seite bei der Suchanfrage gar nicht listen oder weiter hinten, weil Key nicht vorhanden. Die Wahrscheinlichkeit würde hier wohl gar nicht zum tragen kommen. Das wäre also, auch wenn der Inhalt vielleicht top oder der beste wäre, wohl ein KO-Kriterium.

    Wenn ein Mensch nicht um dich kämpft, hat er nur gewartet, dass du gehst. ;(