Fahre gerade einen Test.

  • >> Und der Cache ist sehr wohl ein Indiz dafür, wie schnell geprüft wird. Es muss nichts geändert sein, damit der neu gebildet wird.

    Das ist ja meine Aussage. Oder hab ich mich wieder mal missverständlich ausgedrückt?

    Wenn auf eine Seite nicht zugegriffen wird oder nie im Index landet ist das auch eine Aussage. Und die geht klar gegen den Anspruch von Sumas das Web möglichst in seiner Gänze abzubilden, faire Verhältnisse für alle zu schaffen.

    „Arme Kinder sind genauso schlau und so talentiert wie weiße Kinder.“ :thumbup:

    US-Präsident Biden 2019 in einer Rede in Iowa,

  • Nö, missverständlich nicht. Ich hatte nur den Zusatz "und ob etwas hinzuzufügen galt" eben genau so gedeutet. Also neuer Cache, wenn was hinzugefügt wurde / werden musste. Genau dem ist aber nicht der Fall, daher schrieb ich das oben. Der wird auch so neu gebildet.

    Das weitere wird mir nun zu kompliziert..... Eine Suma kann nicht auf alles zugreifen, weil sie nicht alles kennt. Daher gibt es ja so was wie Sitemaps und Co, damit man denen sagen kann, wo was zu finden ist. Wie soll eine Suma auf einer sonst brachliegenden 1-Mio-Seiten-Domain denn einen neuen Post auf Ebene 57 finden? Klar, irgendwann wird sie das, vielleicht aber auch erst in 3 Jahren. Es kommt da also immer drauf an, wie oft auf die vorgelagerte oder eben die verlinkende Seite zugegriffen wird. Und je tiefer (Klicktiefe) es geht, desto langsamer wird es in der Regel.

    Man kann aber davon ausgehen, dass auf fast alles auf normalen Seiten zugegriffen wird. Ob das dann auch gecrawled und / oder indexiert wird, das sind zwei andere Themen. Das passiert ja nicht auf einmal, das sind 3 verschiedene Prozesse, mit Cache sogar 4.

    Nur das so zu erkennen ist fast unmöglich. Da müsste man jeden Zugriff in den Logs auswerten. Dafür gibt es aber so was wie die WMT, denn da steht das ja drinnen.

    Bei meiner HuH z.B. hat an die 9.000 Seiten im Index. Weitere fast 60.000 sind "gefunden aber nicht indexiert". Das sind Seiten, die Google also kennt, auch irgendwo gespeichert hat, sonst könnte er mir die Liste ja nicht anzeigen, aber eben die URLs nicht im Such-Index haben will - warum auch immer. Dann gibt es sicherlich noch welche, die Google gar nicht kennt.

    *** "warum auch immer". Sumas behalten sich halt vor, nicht alles aufzunehmen. Und ja, das kollidiert irgendwie mit Deinem "Und die geht klar gegen den Anspruch von Sumas das Web möglichst in seiner Gänze abzubilden, faire Verhältnisse für alle zu schaffen." Wobei das Problem ja alle haben, allerdings die einen mehr als die anderen.

    Wenn ein Mensch nicht um dich kämpft, hat er nur gewartet, dass du gehst. ;(

  • >> Wobei das Problem ja alle haben, allerdings die einen mehr als die anderen.

    Was die Crux bei der Geschichte ist. Du weisst es, ich weiss es, die Mitglieder hier im Forum wissen es und da draussen gibt es auch noch ein paar die es wissen.

    Wer es nicht weiss ist der normale User. Dem wird vorgegaukelt, dass er der Herr seiner Suche und Suchbegriffe ist und er aus dem vollen Topf bedient wird. Wenn einer mit "Lastminute und Schweissfuss" sucht, warum auch immer, soll er das präsentiert bekommen, was sich zu seiner Suche zusammenhängend findet und das prominent. Wenn sich keine Sites finden, die zu seiner Suchanfrage passen sollen sie ihm das sagen und ihm nicht Ergebnisse zu einmal "Lastminute" und zum anderen Ergebnisse zu "Schweissfuss" präsentieren, denn, wenn er Ergebnisse zu Schweissfuss, Einzahl, wünschen würde, hätte er "Lastminute" weggelassen.

    "Du findest was Du suchst und gibt es dazu nichts ist das nicht unser Problem, sondern Deines".

    Davon unbenommen könnte ihm ja stichwortsortierte Werbung gezeigt werden oder jedweilige Werbung, die auch als solche zu erkennen ist. Interessiert in das, könnte er klicken.

    Was Google angefangen hat und die anderen dann kopierten erinnert mich immer an die aufdringlichen Markthändler hier.

    Wenn ich nach einem blauen T-Shirt in Grösse XXXL mit langen Armen suche und frage, sagen die nicht einfach "Nein, hab ich nicht". Nee, sie wollen mir ein schwarzes, mit kurzen Armen in XL andrehen. Oder Schuhe in blau. Deren Redeschwall sind die 100 000 unbrauchbaren Ergebnisse, welche mir die Sumas als angebliches Ergebnis meiner Suche verkaufen wollen, wobei dann aber z. B. bei Google schon bei 500 oder 1000 Schluss mit dem Anzeigen ist.

    Niemand versucht bis Pos500 oder Pos1000 zu suchen und schon gar nicht versucht jemand zu sehen, was sich auf Pos9999 verbergen könnte. Der User merkt also nicht, dass er vergageiert wird und hält z. B. Google für ne tolle Suchmaschine weil die 100 000 Ergebnisse für ihn findet.

    Niemand hat Google gebeten das Internet abzubilden und zu sortieren, sie haben sich aufgedrängt und zwar so erfolgreich, dass sie zum Quasimonopolisten in den westlichen Ländern aufstiegen. Diese Monopolstellung zu erreichen hätten sie selbst verhindern können. Haben sie aber nicht und mit dem Erreichen der Monopolstellung erreichten sie auch eine Verantwortungsstellung, die es nicht mehr zulässt, dass sie schalten und walten können wie sie wollen. Das aber glauben sie immer noch tun zu können, bzw., sie versuchen mit allem denkbaren Tricks den scheinbar nicht verantwortlichen Zustand so lange als möglich zu erhalten. Es ist Z. B. Google lange Zeit gelungen die Juristen durch Verschweigen und Verklausulierungen von einer zielführenden Denke abzulenken. Facebook und so einige andere auch fahren dieselbe Tour. Aber auch die Juristen (und damit auch Politiker) haben sich mittlerweile Leute ins Haus geholt, die von allem was verstehen. Forderungen wie die, dass G Suchergebnisse erklären soll, was im Klartext nichts anderes heisst, als dass sie ihren Algo offenlegen sollen deuten darauf hin, dass es auch für Google in Zukunft enger wird. Für Google und somit auch die sonstigen Sumas. Google weiss das sehr genau und beschäftigt deswegen Hundertschaften von Juristen, zusammengefasst in juristischen Denkfabriken, die das alles so lange als möglich ziehen sollen, wenn sie es denn nicht verhindern können.

    Die Sumas haben ein grundsätzliches Problem, sie können nicht von sich behaupten eigenen Kontent geschaffen zu haben. Genaugenommen sind sie dreister als jeder von denen, die z. B. Deine Sachen kopieren und umschreiben Syno, um damit Geld zu verdienen.

    „Arme Kinder sind genauso schlau und so talentiert wie weiße Kinder.“ :thumbup:

    US-Präsident Biden 2019 in einer Rede in Iowa,

  • Das ist alles verständlich, aber der normale User sieht das leider anders. Du hast Recht mit dem, was Du sagtest, habe aber aktuell auch erst bis "blaue Schuhe" gelesen.

    Die User wollen das doch so. Du nicht, ich nicht, andere nicht, aber Du bist da ausgeklammert bzw. hast Dich ja selbst aus der Gruppe der "normalen User" ausgenommen. Der normale User will das genau so haben! Da braucht es noch nicht mal was wie "Lastminute und Schweissfuss", da kann man auch normale Kombis nehmen wie "Ferienwohnung Bodensee". Es gibt schon einen Grund, warum man da mit "Ferienwohnung" sucht. Google liefert aber immer auch Ergebnisse (oder nur) mit "Ferienhaus". Neuerdings auch mit Pension. Bei Ferienhaus stört das die User noch nicht mal, bei Pension aber schon, das sehe ich an der Absprungrate. Die klicken noch auf das Suchergebniss, Google hat seinen Klick also, aber auf meiner Seite dann hauen sie ab. Was sollen sie da auch. Sie wollen eine möglichst große Auswahl an Ferienwohnungen am Bodensee, eventuell auch "nur Häuser", was aber auch schon ein Problem sein kann, aber Google liefert die Zielseite mit drei Pensionen. Naja, was denkt sich der User dann? Richtig. Unbrauchbar, weg, nächstes Ergebnis.

    Sehe das aktuell auch hier. Suche viel technisches wegen einem Serverausfall. Suche extra nach Strings mit "". Das sind alles Fehlermeldungen, die auch Fehlercodes enthalten. Teils auch so wirre Buchstaben- Zeichen-Kombinationen. Was liefert Google? Alles mögliche. Meist lese ich das auch noch durch um dann am Ende zu merken: Scheiße, das ist nicht Debian, sondern CentOS oder nicht Fehlercode XXX, sondern XXY. Aber das sind Feinheiten, ganz spezielle Dinge. Bei 99% aller anderen Suchanfragen normaler User funktioniert das so, wie Google das macht. Bzw, der User kennt es halt nicht anders.

    Und das ist auch nicht nur bei den Suchmaschinen so. Unterkunftsportale, um z.B. mal traum-ferienwohnungen zu nehmen, haben das genauso. Da sucht einer nach "Ort".... Bei Google steht das sogar auf Platz 1. Dann ist man auf deren Seite und "Ort" gibt es in dem Portal gar nicht. Angezeigt werden Unterkünfte in Orten aus der Umgebung. Die User wollen das zum Großteil oder merken es nicht.

    Wenn ein Mensch nicht um dich kämpft, hat er nur gewartet, dass du gehst. ;(

  • Die User wollen das so...

    Hat die mal jemand gefragt? Das ist ne Behauptung von Google, die mal wieder kritiklos übernommen wurde.

    "Die User wollen das so" und ..."es springen viele ab" ist ja schonmal ein Widerspruch in sich.

    „Arme Kinder sind genauso schlau und so talentiert wie weiße Kinder.“ :thumbup:

    US-Präsident Biden 2019 in einer Rede in Iowa,

  • Ich übernehme das in den Fall nicht von Google, sondern von meinen langjährigen Erfahrungen aus dem IT-Bereich und Supporter für normale User. Und die jüngeren unter denen wurden noch schlimmer bzw. die, die erst neu dazu kamen, egal welches Alter. Gib denen doch mal ein Handy in die Hand, lass die was für "sie normales" suchen und als Ergebnis kommt nichts.... Die drehen doch sofort am Rad.

    "Die User wollen das so" und ..."es springen viele ab" ist ja schonmal ein Widerspruch in sich.

    In meinem Fall und Beispiel mit den Ferienwohnungen und Pensionen ist das in der Tat so bzw. auch wieder nicht. Google liefert da Mist aus, unbrauchbar für den User, aber das ist er gewohnt. Dafür macht der nicht Google verantwortlich, sondern den Seitenbetreiber. Schau doch mal solchen Usern zu, vor allem, wenn sie mit dem Handy surfen. Die klicken alles an. 5, 10 15 Ergebnisse und zack wieder zurück zur Suche. Die schauen nicht wie wir die Snippets an und überlegen, was könnte denn sinnvoll sein. Nee, die Klicken. Und wenn ich schreibe "die springen gleich wieder ab", dann ist das sogar ein Nachweis dafür. Denn warum sollten sie "Pensionen" anklicken, wenn sie denn "Ferienwohnungen" wollen? Die haben es schlicht nicht beachtet, unqualifizierter Traffik eben. Das Snippet ist da, also wird geklickt.

    "Die wollen..." im Sinne von, die wollen Ergebnisse, beschäftigt werden. Ob der Treffer dann sinnvoll ist, das wissen sie ja erst hinterher. Im Grunde wie im lokalen Bereich. Da gehen die auch in alle mögliche Läden und suchen einen Artikel. Wenn sie auch noch einen fragen (Suma), wo es das gibt und der sagt in Laden XY (Suchergebnis), dann gehen die da rein (Webseite), auch wenn vielleicht sofort klar sein müsste, dass es dort nicht gibt oder sie zumindest falsch geleitet wurden. Also drinnen, kurz geschaut, wieder raus. Gedanke "Scheiß Laden, der hat das nicht". Vielleicht hat er es wirklich nicht, vielleicht aber auch einfach in einer anderen Etage. Also auch genau die Leute, die blind auf ein Navi vertrauen.

    Bei Bing-Usern ist das ganz anders. Die sind viel zielstrebiger, dafür würden die zu großen Teilen aber auch gar nicht auf "Pensionen" klicken.

    Wenn ein Mensch nicht um dich kämpft, hat er nur gewartet, dass du gehst. ;(

  • >> lass die was für "sie normales" suchen und als Ergebnis kommt nichts.... Die drehen doch sofort am Rad.

    Huhn oder Ei?

    Für mich ist das die Konditionierung durch Google. Hätten die den Usern nicht von Anfang an nicht etwas vorgegaukelt, würde sich keiner drüber aufregen, wenn er mal zu einer Suche kein Ergebnis oder nur wenige Ergebnisse kriegt.

    Aber, das heisst ja nicht, dass etwas was zur Gewohnheit geworden ist auch so bleiben muss.

    „Arme Kinder sind genauso schlau und so talentiert wie weiße Kinder.“ :thumbup:

    US-Präsident Biden 2019 in einer Rede in Iowa,

  • hab oben editiert.

    Klar ist da eine Konditionierung dabei. Du müsstest es eigentlich noch kennen, als bei einer Suche einfach nichts kam. Also ich kenne das sehr gut, das teilweise auch nur, weil ein Schreibfehler drinnen war. Das kennen die Leute von heute aber nicht mehr, daher schrieb ich auch was wie "junge und welche, die neu anfangen".

    Mir persönlich wäre auch lieber es käme nichts, wenn ich was Eindeutiges suche. Dem ist aber nicht mehr so, eben wieder leidlich erlebt. 20 Seiten gelesen um dann mal eine zu finden, bei der es überhaupt um Apache ging. Aber die "jungen" haben anscheinend die Zeit dafür.

    Andererseits ist das mit dem Nichts auch doof teilweise. Merke ich auch immer wieder mal, aber in anderen Bereichen, z.B. Awin und Co. Suche da was und es kommt nix. Erster Gedanke: "Warum kommt da nix? Nach was muss ich suchen?"

    Wenn ein Mensch nicht um dich kämpft, hat er nur gewartet, dass du gehst. ;(

  • >> Aber die "jungen" haben anscheinend die Zeit dafür.

    Nee, die Generation "Jetzt und sofort", mit der Aufmerksamkeitsspanne von 10 Sekunden, hat nicht die Zeit.

    Die Konditionierung durch das Anzeigen von 10 000en, 100 000en Ergebnissen auf jede noch so spezialisierte Frage hat bei denen dazu geführt, dass die sich gar nicht mehr vorstellen können, dass eine Suchanfrage mal ergebnislos bleiben könnte.

    „Arme Kinder sind genauso schlau und so talentiert wie weiße Kinder.“ :thumbup:

    US-Präsident Biden 2019 in einer Rede in Iowa,

  • Ich hab mal geguckt, zu "Lastminute + Schweissfuss" hab ich unter "Ferner liefen" ein einziges halbwegs relevantes Ergebnis gefunden, welches sich jedoch in dem unnötigen Scheiss völlig verlor.

    Dabei ging es darum, dass einer aus einem Flugzeug geworfen worden war, weil er furchtbar gestunken haben muss. Er hatte dagegen geklagt und Schadensersatz gefordert. Und er hatte seine Klage verloren. :)

    „Arme Kinder sind genauso schlau und so talentiert wie weiße Kinder.“ :thumbup:

    US-Präsident Biden 2019 in einer Rede in Iowa,

  • Aber endlich mal was Positives zu Bing. Die haben das Problem wohl erkannt.

    Sie zeigen zu den unnötigen Beiträgen wenigsten an, welches Such-KW in den Ergebnissen nicht vorkommt. Lastminute: Ja, Schweissfuss: Nein.

    „Arme Kinder sind genauso schlau und so talentiert wie weiße Kinder.“ :thumbup:

    US-Präsident Biden 2019 in einer Rede in Iowa,

  • So, Zwischenstand, nach 11 Tagen und dem, was mir angezeigt wird.

    Bing und Duckduck wie gehabt dieselben zwei Ergebnisse. Google nun heute eine Seite, der Cache bringt jedoch einen 404er.

    Da ich ja fast nur Topaktulles veröffentliche bedeutet das Indexieren, dass, wenn mal was in den Index kommt, dass dann Schnee von gestern ist. Ich hab ja manche Sachen schon drin, bevor die grossen Publikationen was dazu veröffentlichen.

    „Arme Kinder sind genauso schlau und so talentiert wie weiße Kinder.“ :thumbup:

    US-Präsident Biden 2019 in einer Rede in Iowa,

  • Da siehste mal wieder die Datencenter-Unterschiede. Das Ergebnis bei Google war schon gestern da, der Cache auch. Datiert auf den "22. Okt. 2021 17:57:13 GMT".

    Vergiss doch mal dieses topaktuell in Bezug auf Dein Forum. So funktioniert das Internet nicht, auch keine Suchmaschinen oder Bots. Für so was gibt es notfalls RSS-Feeds oder Push-Nachrichten. Wenn es topaktuell sein soll, dann muss auch das Umfeld passen. Die Frage wäre alleine schon, warum ist das "Topaktuelle" in einem Forum, in einem Unterordner versteckt, aber auf der eigentlichen Domain ist von den topaktuellen Infos nix zu finden.

    Deine Domain fängt nicht auf der Startseite vom Forum an oder beim ersten Post eines neuen Threads, sondern auf der Startseite der Domain.

    Um was schnell in den Index zu bekommen, muss die Seite auch entsprechen oft hochwertigen neuen Inhalt liefern, am besten mehrfach täglich. Hat sie das nicht, dann kann der Content vom Inhalt her noch so aktuell sein, die Suma wird das nicht merken, weil sie schlicht nicht auf der Seite war.

    Wenn ein Mensch nicht um dich kämpft, hat er nur gewartet, dass du gehst. ;(

  • Syno, jo, das sind die Theorien und die kenne ich mittlerweile.

    Mir geht es darum wie schnell die Sumas indexieren und welche Unterschiede sie nach Gutdünken dabei machen. Das sie bestimmen, welche Inhalte ein Sucher wie schnell zu sehen kriegt. Soll es demnächst in den Universitäten das Studienfach "Suchmaschinen" geben, weil alles unnötig verkompliziert wird? Weil dem User Vollständigkeit vorgegaukelt wird?

    Und mir geht es darum, wer sich als eigenständige Suma präsentiert, aber sich in Wirklichkeit an wem orientiert, denn wie es aussieht bedeutet von Google ingnoriert zu werden von allen ignoriert zu werden.

    Das Forum hier fängt auch beim Forum an und wird blitzschnell aktualisiert. Liefert das Forum hier täglich mehrfach "hochaktuelle" hochwertigen Topkontent zum Thema? Mitnichten. Das meiste hat mit dem Thema des Forums so gut wie nichts zu tun und trotzdem ist jede Nebensächlichkeit innerhalb kurzer Zeit im Index. Und auch hier läuft oft tagelang nichts, kein einziger Beitrag und schon gar nicht ein neues Thema.

    Ich kann an neuen Inhalten nur das einstellen, was es an neuen Inhalten gibt und die kommen manchmal an einem Tag vermehrt und manchmal ist tagelang nichts. So ist das nunmal. Für topaktuelle Inhalte ist das Forum da und nicht die Hauptdomain, wo das dann als DC auftauchen würde. Ist hier im Forum nicht anders.

    Ich weiss, Du hast Dich da auf so einige Theorien versteift und davon bist Du nicht abzubringen, aber bist du sicher, dass es nur so geht und gehen kann, wie Du das folgerst? Irrtum bei allem ausgeschlossen?

    Aktuell ist das an Nachrichten, was heute kommt und es gestern noch nicht gab. Google und die anderen können, wie Du sagst, gar nicht wissen, dass meine Inhalte aktuell oft topaktuell sind, eben weil sie mich ignorieren. Und wenn sie mich über ewige Zeiträume ignorieren, läuft nicht bei mir was falsch, sondern bei denen. So sehe ich das jedenfalls. So viele Foren in meiner Ecke gibt es ja nicht und ich hab das einzige, welches das aktuelle Geschehen, welches ja für jeden von Interesse ist, aktuell darstellt. Das aber ist für die Herren des Internets als Kritierium uninteressant.

    Und ich finde es nicht normal, dass manche Sites im 10minutentakt gespidert und aktualisiert werden und bei anderen monatelang kein Bot vorbeischaut. Das ist reine Willkür.

    „Arme Kinder sind genauso schlau und so talentiert wie weiße Kinder.“ :thumbup:

    US-Präsident Biden 2019 in einer Rede in Iowa,

  • Ja, so ist das nunmal, das stimmt. Sumas sehen das aber nunmal anders ;) Auch wenn ein Thema hochaktuell ist bringt das nix, wenn das veröffentlichende Medium das nicht ist - nicht aus Sicht der Suma. Das wäre als wenn man einen brandaktuellen Artikel in einer Zeitschrift veröffentlicht, die nur einmal im Monat gedruckt wird und der letzte Druck gestern war.

    Und ich finde es nicht normal, dass manche Sites im 10minutentakt gespidert und aktualisiert werden und bei anderen monatelang kein Bot vorbeischaut. Das ist reine Willkür.

    Das ist keine Willkür. Was sollen sie denn anders machen? Du hattest doch auch was von Huhn und Ei geschrieben. Kommt hier auch bei raus. Jeder einzelnen Seite einen Intervall geben, z.B. von 12 Stunden und dann neu abrufen? Ja, dann wären alle gleich. Nee stopp, doch nicht, denn wie findet man dann neue Seiten? Also muss man alles neu abgrasen. Jede Domain jederzeit komplett abklappern? Nicht sinnvoll, denn es macht schon einen Unterschied, ob da im Minutentakt was kommt oder alle paar Wochen. Wobei, auch das geht nicht, noch nicht mal das mit den 12 Stunden. Sollen alle weltweit zum gleichen Zeitpunkt abgerufen werden? Müsste man, sonst hat man ja dennoch ein Zeitfenster von 12 Stunden. Der eine kommt vielleicht schon in 2 Min dran, der andere war erst, kommt erst wieder in 11 Stunden 59 Minuten.

    Liest Du Zeitungen jeden Tag, wo nur alle 3 Wochen mal ein neuer Artikel kommt? Anfangs vielleicht, dann wirst Du Dich auch auf andere konzentrieren, die schneller sind, wo jeden Tag was Neues ist. Und wenn Dich die Zeitung gar nicht interessiert, auch wenn sie jeden Tag was Neues hat, dann liest Du sie gar nicht mehr. Das sind bei Sumas z.B. erkannt Spamseiten.

    Nix anderes machen Sumas. Suchen wo es was Neues gibt und priorisieren, wo sie öfters Erfolg haben und wo nicht.

    Das Forum hier: Dein Thread wegen dem "scrollen ab Seite 4 bei Google", obwohl da auch von mir extra noch Posts dabei waren, dauerte 3 Tage, bis er im Index war. Dein Post wegen Facebook, 4 Tage alt, nicht im Index. Dein "Neues vom Vulkan", ist vom Samstag, nicht im Index. "Betriebssystem zurücksetzen", von letzter Woche Mittwoch, fast 7 Tage alt, nicht im Index. Dein Post bezüglich Cookie-Banner im "Alles bestens" vom 18.10., nicht im Index. Die anderen vom 17.10. und älter sind es.

    Wegen Startseite: Dann schau Dir mal SEO NW (seo-nw.de) an. Da sind die letzten Aktivitäten als auch die letzten Beiträge drauf. Aber das ist noch kein Garant für eine Aufnahme, denn das ist nur ein Ausschnitt der letzten. Kommen zu viele neue auf einen Schlag, dann rattern die eventuell durch und keiner hat es bemerkt. Auch hier ist es also die Frage, wie oft der Bot kommt. Beispiel von meiner FN. Habe 7 Unterkünfte aktiviert, die neuesten drei davon stehen als "Neuzugänge" auf der Startseite, die anderen 4 wurden durchgereicht. Im Index sind die neuen drei. Die anderen neuen 4 fehlen komplett. Ein Lastminute-Angebot vom 19.10. fehlt auch. Bis das im Index ist, ist es wohl schon zeitlich beendet.

    Wenn ein Mensch nicht um dich kämpft, hat er nur gewartet, dass du gehst. ;(

  • Jo, das sind die Geister die Google rief und jetzt möglicherweise nicht mehr beherrscht, die auch die anderen möglicherweise nicht mehr beherrschen. Aber, dass die nicht anders können als sie machen ist ja auch nur eine Vermutung.

    Aber, wenn Google es mit seinen Ressourcen angeblich nicht mehr schafft das Internet zeitnah zu spidern wieso kann sich dann ein Bot wie der von Semrush bei mir tagelang fast 24 Stunden am Tag auf meinen Sites rumtreiben und auch auf Deinen lt. Deiner Aussage und auch auf anderen? Wollen die nicht auch sämtliche Verlinkungen des Internets auffinden? Gut, rein rhetorische Frage, erwarte keine Antwort.

    Würde Google, und natürlich auch die anderen, die von Google übernommen haben, aber in erster Linie Google heute erklären, dass Empfehlungen, Links kein Kriterium mehr für gute Listungen sind, würde sich der Inhalt des Internets innerhalb kurzer Zeit um eine gigantische Prozentzahl verringern. Damit wäre auch der Umwelt geholfen. Wozu taugen denn heute Links noch, wenn sogar die Authoritäten gegen teures Geld enormen Schub bringende Links verkaufen? Bekannte Publikationen platzieren sie ja gerne getarnt im Text.

    Grechtigkeit herzustellen ist mit den derzeitigen Handhabungen, den Listungen in den Sumas von eins bis unendlich (Gogol) eh eine Illusion. Aber es sollte schon etwas gerechter zugehen. Wäre durch Rotation machbar.

    Viele glauben ja, dass Google das Internet ist, es komplett darstellt. Ein Glaube, der durch die Konditionierung durch Google selbst entstanden ist. Dann sollen sie auch verdammt nochmal versuchen diesem Anspruch nachzukommen. Wer für fast 100% der Sucher der Anlaufpunkt ist hat nicht zu entscheiden, welche Seiten ein User sehen soll und welche nicht. Dass Google sich selber kleiner macht, ehrlich macht, indem es z. B. bekannt macht, dass es nur einen Ausschnitt des Internets darstellt ist wohl kaum zu erwarten. Wer glaubt, dass er bei Google alles findet, was es zu finden gibt, wird sich nicht für andere Sumas begeistern lassen: "Was soll ich bei denen schon finden, was Google nicht hat?"

    Und alles kritiklos wie gottgegeben hinzunehmen was Google tut, bzw., nicht tut und zu sagen "Is halt so", ist für mich die falscheste Einstellung überhaupt. Wer keiner Kritik ausgesetzt ist ändert auch nichts. Warum sollte er auch?

    „Arme Kinder sind genauso schlau und so talentiert wie weiße Kinder.“ :thumbup:

    US-Präsident Biden 2019 in einer Rede in Iowa,

  • Die Frage mit Semrush ist nicht rhetorisch. Wollte schon was zu schreiben, hatte es dann aber gelassen. Das ist schlicht was ganz anderes. Die Spidern eine Site, rufen den Quelltext ab, suchen darin Links und speichern die. Das machen sie immer wieder um zu prüfen, ob er noch da ist, ein neuer da ist, oder eine neue Seite gefunden wurde.

    Das macht Google auch. Daher sagte ich schon mal, Du müsstest als aller erstes herausfinden, wie oft Google überhaupt auf Deiner Seite ist. Als Anmerkung, Pagespeed.de von Alex kann das auch. Eine Seite oder eine Hand voll vorgeben und dann lass ihn drauf los. Suche alle Links die da sind, folge allen, suche wieder, folge, suche etc.

    So, Semrush ist permanent bei Dir, bei mir auch. Also nicht immer, aber wenn, dann gerne mal Tage und dann wieder Tage nicht. Warum? Weil die Seiten schon bekannt sind, da werden also bekannte abgesucht und deren Links gefolgt. Stellst Du eine komplett neue Seite ein, dann werden die da nicht kommen, denn sie kennen sie nicht. Sie lernen sie irgendwann kennen, wenn verlinkt und Link gefunden, aber auch das dauert. Oder warum meinst Du, warum selbst die besten Linkchecker auch nur einen Bruchteil der Links finden oder eben nur ein Bruchteil davon überhaupt stimmt? Weil auch dort die Daten "alt" sind. Es kann nicht alles jetzt sofort geprüft werden. Diverse Tools zeigen mir hier noch Links an, die gibt es schon 5 Jahre oder länger nicht mehr.

    So, und weil Du immer sagst, alles wäre nur eine Vermutung.... Klar ist es das, wie vieles im Leben. Es ist auch nur eine Vermutung, dass ich sterbe, wenn ich aus dem 20ten Stock springe. Kann mir schließlich vorher keiner beweisen, dass dem so ist.

    So, die Bots.... Semrush haben wir nun. Google und alle anderen machen erst mal in Phase 1 das Gleiche. Nur dass Googles Datenbasis wohl um Faktor 1000 Mio größer sein dürfte, aber egal. Dieser Step 1 ist der einfachste, aber auch der ist limitiert. Alles gleichzeitig geht nicht, man kann keine mehrere Milliarden Webseiten zur gleichen Zeit abrufen. Selbst wenn das gehen würde wären das ja nur die bekannten und nicht die neuen. So oder so, die neuen Seiten muss man suchen. Wie oft will man denn suchen? Eben war ich da, es war nichts neu. Jetzt, 2 Min später vielleicht? Also noch mal schauen. Wieder nicht. Soll ich gleich noch mal?

    Du gehst zu Lidl um zu sehen, ob was neues im Sortiment ist. Nee, ist nicht. Gehst Du dann 10 Min später gleich noch mal hin um nachzusehen?

    So, immer noch Step 1. Der einfachste, aber limitiert, auch bei Semrush und Co.

    Google hat aber noch Step 2, 3 und 4 und da kommt nun noch mehr Last. Step 1 war nur Quelltext abrufen und auswerten. Das ist Traffik für den Quelltext und Rechenleistung für die Auswertung. Also Step 1b... Sonstige Inhalte abrufen. Bilder, CSS, JS, Video etc. Jetzt haste schon mal richtige Datenlast, die z.B. Semrush nicht hat. Dann haste also die Rohdaten. Also Step 2, rendern ist angesagt, also die Webseite so zusammenbauen, wie sie im Browser ist. Nun ist fast nur Rechenleistung gefragt. Deine Domain hat wie viele Seiten inkl. Forum? Also alle URLs, die es irgendwie gibt und erzeugt werden? Ich würde mal grob schätzen 1500. Wenn Du alles zeitgleich willst, dann mach doch mal im Browser 1500 Tabs auf und lass den rendern ;)

    So, Step 3 und 4 (Seite auswerten und Cache) lass ich nun mal weg.

    Alleine schon der Gedanke, zeitgleich von jeder Webseite auch nur ein Bild zu laden ist unmöglich. Unmöglich im Sinne von "nicht sinnvoll". Alle Seiten einer Domain laden.... Das wird lustig. Wenn Google das machen würde, dann wärst Du sicherlich auch einer der Ersten, der fragen würde, warum stürzt mein Server ständig ab. Naja, weil Google halt die ganzen Ressourcen braucht, die Dein Server so hergeben kann.

    Also sind wir wieder an dem Punkt "Ressourcenverteilung" und "priorisiert einsetzen". Eine Ampelschaltung an einer Kreuzung ist auch unterschiedlich und abhängig davon, ob es eine Haupt- oder eine Seitenstraße ist.

    So, neue Seiten, die muss man erst finden. Dafür gibt es z.B. auch so was wie Sitemaps, damit es einfacher ist. Man muss dann halt nicht die ganze Domain absuchen, sondern nur die Datei lesen. Aber wie oft? Auch hier, es wird priorisiert. Davon gibt es ja auch nicht nur eine oder 10, das sind Milliarden. daher auch der Ansatz mit "IndexNow". Das spart im Grunde (oder könnte) alle Zugriffe sparen, denn die erfolgen nur, wenn was Neues gemeldet wird. Also geht man auch nur in den Lidl, wenn das neue Prospekt da ist, in dem die Neuheiten drinnen stehen.

    Wenn ein Mensch nicht um dich kämpft, hat er nur gewartet, dass du gehst. ;(

  • >Du gehst zu Lidl um zu sehen, ob was neues im Sortiment ist. Nee, ist nicht. Gehst Du dann 10 Min später gleich noch mal hin um nachzusehen?

    Nee, ich denke aber auch nicht: "Nix Neues? Dann kann ich es mir ja ersparen die nächsten 12 Monate da nochmal hinzugehen".

    Weisste Syno, Du sprichst wie jemand der von Google mit seiner Verteidigung beauftragt ist. Könnte Google nicht einfach schlicht die Kapazitäten erhöhen, um dem Anspruch, den sie in die Köpfe der User implantiert haben, gerecht zu werden?

    Dass sie halt einfach nach Gutdünken Seiten unterschlagen, den Usern vorenthalten und diese so bevormunden: "Is halt so". Jo, ist halt so, aber muss es deshalb auch so sein? Dass sie durch das Vorgaukeln von Vollständigkeit auch die Konkurrenz kleinhalten? Jo, ist halt so.

    Facebook wirft man vor Meinungen manipulieren zu können. Der Vorwurf könnte auch an Google gerichtet werden. Aber nein, Google selbst beisst ja nicht, das tut der Algo. Ein Algo, der sich selbstlernend wahrscheinlich schon lange verselbstständig hat und bei dem auch im Hause Google schon lange niemand mehr wirklich durchblickt. Google fährt seit 2002 das gefühlt 100 000ste Update. Wie ein Auto, dass ab seiner Auslieferung, dreimal die Woche für Nachbesserungen in die Werkstatt muss. Dabei versucht Google Missstände zu beheben, die es ohne ihre Logig gar nicht gäbe. Die es ohne die Bemühungen dem User ins Hirn sehen zu wollen nicht gäbe.

    Im Grunde war ein primitiver Katalog wie das DMOZ schon vor 20 Jahren besser geeignet zu finden, als das heutige Google. Den hätte man auch fortführen können, aber es war klar, dass die kostenlosen Helfer irgendwann weniger werden und durch bezahlte menschliche Arbeitskraft ersetzt werden müssen. Und das ist für die ganzen Siliconer eine absolut widerwärtige Vorstellung. Menschen die Geld kosten? Eine Gewerkschaft gründen könnten, krank werden könnten, gar zuhause bleiben, weil sie dafür sorgen, dass die Menschheit nicht ausstirbt? Dass nur, wenn es gar nicht anders geht. Ein Grund, warum auch Wiki heute in vielen Bereichen total überaltert und fehlerhaft ist.

    Und da sind ja auch noch die gierigen Aktionäre, die bei 0,5% Rückgang oder, wenn der Kurs ein Prozent unter den Erwartungen bleibt, sofort abspringen.

    Die wahrscheinlichen Manipulationen am Algo, an den Suchergebnissen, um mehr Geld in die Kasse zu kriegen lassen wir jetzt mal aussen vor.

    „Arme Kinder sind genauso schlau und so talentiert wie weiße Kinder.“ :thumbup:

    US-Präsident Biden 2019 in einer Rede in Iowa,

  • "Könnte Google nicht einfach schlicht die Kapazitäten erhöhen, um dem Anspruch, den sie in die Köpfe der User implantiert haben, gerecht zu werden?"

    NEIN! Um alles irgendwie in Echtzeit zu haben nicht, nein und nimmer. Selbst wenn Google und andere da Serverfarmen in der Größe von Ländern hinstellen, das könnte die Infrastruktur bis hin zu den kleinen popligen Servern der Webmastern gar nicht.

    Es geht doch nicht nur um Google. Google hängt auch nur am "Netz". Oder hat Google zu Deinen Webseiten eine eigene Leitung gelegt? Also so wie die Überseekabel, die quasi von Google alleine genutzt werden?

    Unser Knotenpunkt in Frankfurt ging schon in die Knie, als zu viel Traffik kam, Wasserversorgungen brachen zusammen, weil alle zur Halbzeit beim Fußball aufs Klo rennen, Handys gehen nicht mehr, weil alle Silvester um 0 Uhr Nachrichten schicken und telefonieren.

    Kann man das erweitern, also wäre es technisch möglich? Ja, wäre es. Man kann sich auch einen D-Schlauch in den Garten legen, um seine Rosen zu gießen. Wäre das sinnvoll? Nein.

    Wenn ein Mensch nicht um dich kämpft, hat er nur gewartet, dass du gehst. ;(

  • Was ist ein D-Schlauch?

    Ich hab doch nie von Echtzeit gesprochen. Dass das nicht gehen kann weiss ich auch. Aber wir haben zwei Extreme, Websites, die vielleicht zu oft gespidert werden und Sites, die so gut wie nie, bzw., in ungesund langen Abständen besucht werden; oder auch gar nicht. Es mangelt einfach an Ausgewogenheit, bzw., dem mangelnden Willen eine solche herzustellen. Oder es zumindest zu versuchen.

    Und wenn alle direkt oder indirekt bei Google abkupfern kann das keine gesunde Entwicklung sein. Und danach sieht es nunmal aus.

    „Arme Kinder sind genauso schlau und so talentiert wie weiße Kinder.“ :thumbup:

    US-Präsident Biden 2019 in einer Rede in Iowa,