Beiträge von Synonym

    Hatte schon die Beta vorher drauf. Lief fehlerfrei durch und auch danach ohne Fehler. Ok, einen gab es, das PlugIn QueuedTracking, das lag aber am PlugIn selbst, das hatte noch kein Update bekommen. Jetzt ist das mittlerweile auch schon auf 5.0.2 und geht.

    "Überflüssig" nicht wirklich, also nicht gänzlich, denn die Plus-Ins nutzen ja genau die Kategorien, um daraus dann ihre Ergebnisse zu produzieren. Sieht man leider nicht mehr, die Links oben hatten wohl eine zeitliche Sperre. Aber als Quellen wurden genau derartige Listen genannt und davon dann welche herausgesucht.

    Am Beispiel mit den Unterkünften in Würzburg, nannte mir Bing da 10 Objekte. Gut, die waren schön aufbereitet, aber nach was der da wirklich gefiltert hat, war unklar. Auf der Zielseite jedenfalls gab es 40 und das war nur die erste Seite von einigen.

    Ok, eines davon ist eher eine Abschwächung. Man kann nun die "Web-Suche" deaktivieren. Die anderen sind interessant, aber zielen noch zu großen Teilen auf den US-Markt ab.

    Instacard: Vor allem für Rezepte gedacht. Liefert auch eine Produktliste, die man dann bei Instacard bestellen kann.

    Allerdings ist die Liste ein wenig komisch. Die Namen der Artikel stimmen, die Produktbilder und Beschreibungen nicht.

    Gibt dann eine größere Auswahl an US-Shops, wo man das Zeug sich liefern lassen kann.

    Kayak: Kenne ich nicht, ist aber aus dem Reisebereich. Macht Empfehlungen für Sehenswürdigkeiten, Unterkünfte mit Direktbuchung etc. Für den Test mit Würzburg ganz nett, aber für deutsche Nutzer unbrauchbar. Ehrlich gesagt, zum Glück. Die Ergebnisse kommen dann z.B. von hier Wurzburg, Germany, 12/21 – 12/28 (kayak.com)

    Klarna: Nur USA: Preisvergleich innerhalb der dort angebundenen Shops.

    OpenTable: Alles rund um Restaurants mit Direkt-Reservierung. Da sind zumindets mal ein paar wirklich gute und bekannte dabei:

    Shop: Produktsuche

    Suno: Erstellt Songtexte und kurze Songs. Hier noch nicht verfügbar, fehlt in der Auswahl.

    Und das Nächste von Google, das mal wieder nicht passt. Betrifft aber nur diejenigen, die überhaupt Adsense nutzen und auf den Status von "data-ad-status" reagieren, also hier im Forum wohl keine :(

    Bei Adsense ist das ja so, dass sowohl bei nativen Anzeigen als auch bei Auto-Ads Werbeplätze "erweitert" werden, also an ein Format einer Werbeanzeige vergrößert werden, dann aber nicht befüllt wird. Das ist dann genau der Moment, wo man mitten auf der Seite oder im Text einen Leeren Bereich hat. Das ist super, vor allem Mobil, wenn das das ganze Display betrifft, aber halt nix drinnen ist. Schaut dann so aus, als ob man da einfach beim nächsten Absatz <p> ein "margin-top" von 400 Pixel hätte, also ein sinnloser Abstand.

    Warum das so sein muss, also warum erst ein Container erweitert wird, bevor man prüft, ob überhaupt Anzeigen ausgeliefert werden können, das weiß auch nur Google. Ich würde das jedenfalls in der Reihenfolge machen. Aber egal, Google hat ja eine Lösung dafür und übermittelt den Status auf den man dann offiziell auch reagieren DARF!

    Also es gibt in jedem Ad, egal ob nativ oder Autoad das Data-Attribut "data-ad-status". Das wird, wenn eine Anzeige verfügbar ist, auf "filled" gesetzt oder eben, wenn keine da ist, auf "unfilled". Damit kann man dann, einen bereits vergrößerten Container über den Status erkennen und auf z.B. display:none setzen, mit:

    Dann wird also die Seite geladen, ein möglicher Container erweitert. Wenn befüllt, der Status "filled" gesetzt und fertig oder eben, wenn nicht befüllt der Status "unfilled" gesetzt und dann per CSS ausgeblendet. Wie gesagt, das ist eine offiziell von Adsense erlaubte Funktion bzw. erlaubter Eingriff in die Ads.

    Das Problem nun, wen wundert es, es ist ja ein Google-System.....

    Es werden Container erweitert, Ads eingefügt, die sind also für ca. eine Sekunde sichtbar und dann folgt der Status "unfilled". Das ist also auch eine Lüge, denn das Ad ist ja drinnen.

    In diesem Fall ist es eine Werbung der Deutschen Bahn. Nimmt man das display:none dann nämlich einfach mal temporär raus ist die Werbeanzeige vorhanden. Bedeutet also, wenn man das nutzt, wie von Google vorgegeben, dann ist möglicherweise eine Werbung abgerufen und eingebunden, wird dann aber ausgeblendet, weil Google den FALSCHEN Status setzt.

    Und lässt man das einfach weg, damit Werbung, die da ist, auch angezeigt wird, dann funktioniert das natürlich an anderen Stellen auch nicht mehr, denn es gibt dann wieder teilweise leere Container. Und das, weil ein falscher Status da ist. unfilled = leer, filled = befüllt, kann ja nicht so schwer sein. Bei Google bedeutet es aber teilweise unfilled = befüllt.

    Ich kann so was nicht "abknicken". Das ist ja schlicht einfach nur falsch und alles muss ja irgendeinen Grund haben. Und es macht ja auch keinen Sinn, wenn man da suchen soll / will, wo eine Referenz herkommt und dann steht da eine Sitemap drinnen und keine Webseite.

    Du sagst, Du hast das auch? Wo denn? Ich sehe hier ja nur drei Domänen von Dir und keine davon hat das Problem. Wie gesagt, meine anderen 20 auch nicht, nur die eine.

    Hat einer von euch eine Idee, warum mir Google bei eigentlich allen Seiten einer Domain bei der "verweisenden Seite" (reffering Page) keine interne Seite anzeigt, sondern immer eine XML-Sitemap?

    Wie immer natürlich, kann ich bei Google dazu nichts finden. Also bin ich damit entweder wieder alleine oder es ist halt nicht auffindbar. Was ich immer nur finde sind Aussagen wie "wäre nicht wichtig".

    Das mit der Sitemap da ist aber wohl recht neu, würde mal sagen, maximal die letzten 6 Wochen. Zuerst entdeckt habe ich es gestern.

    Und es ist bei allen Seiten, wobei es unterschiedlich sein kann. Entweder steht da "keine bekannt", also gar keine verweisende Seite gefunden oder eine interne Seite, die uralt ist und nicht existiert (älter als 10 Jahre) oder eine Kombination aus Sitemap und alter URL. Ich habe nun die Nacht über keine einzige Seite gefunden, wo eine halbwegs aktuelle URL als "Referrer" angegeben ist. Noch nicht mal bei der Startseite kommt was, sondern auch "alte URL (ohne SSL) und Sitemap".

    Dieser "Vorübergehende Verarbeitungsfehler" kotzt mich auch an. Der kommt gefühlt auch bei 50% aller Seiten, verschwindet dann aber nach etlichen Reloads, bis er dann irgendwann wiederkommt.

    Und es betrifft nur eine Domäne. Alle Domänen nutzen aber das gleiche Sitemapscript. Da ist also jeweils nur die Domain und halt die URIs anders. Das Script, der Aufbau etc ist alles identisch.

    Das da ist mal eine, wo keine Sitemap genannt wird. Dafür 3 URLs, die es seit über 10 Jahren nicht mehr gibt:

    Oder bei der hier, noch wirrer. Da sagt er "keine verweisenden Sitemaps gefunden" um dann bei der verweisenden Seite ebenfalls eine Sitemap anzuzeigen. Und natürlich ist die anderen URLs auch uralt. Diese "art_Appartements" gibt es seit 2008 nicht mehr. Wobei es in dem Fall aber die genannte XML-Sitemap auch nicht gibt. Auch so seit ca. 2015.

    Fällt mir auch die letzten Wochen auf, aber nur mit webP. Google crawlt die als Seite und führt die dann alle als "Gecrawlt - zurzeit nicht indexiert" auf. Nicht indexiert ist dabei alleine gesehen falsch, denn sie sind indexiert. So wie ich das aber bisher verstanden habe, bezieht sich die Tabelle ausschließlich auf Seiten und Bilder in webP sind keine Seite. Daher "nicht indexiert" als Seite.

    Die Frage wäre nur, warum macht Google das? Warum crawlt Google webp Bilder als Seite? Das machen die ja nicht mit anderen. Habe da in keiner Liste auch nur ein einziges jpg, png, gif oder sonstwas stehen, nur webp.

    Interessant wäre natürlich auch, ob sich das auf das Crawling-Budget auswirkt. Es wird ja schließlich als Seite versucht ?!

    Ich muss hier mal eine Frage stellen bzw. habe was Komisches bemerkt. Glaube nicht wirklich, dass das ein Zufall war, denn es war genau in zwei Momenten, in allen anderen nicht.

    Bisher war und ist es auch hier so, dass Google fast immer nur das erste oder zweite Bild indexiert, aus einem fertigen Beitrag. Normalerweise machte ich das auch so, dass ich einen Artikel erst fertig mache, mit allen Bildern, dann melde. Nun machte ich das mal anders. Also Text und Co fertig, nur ein Bild rein und melden.

    Wie erwartet, das erste und einzige Bild wird genommen. Dann machte ich aber direkt weitere Bilder. Wieder hinzugefügt, eines, und gemeldet. Das machte ich dann mit allen Bildern so, 7 Stück insgesamt. Was soll ich sagen?

    Auf der Seite sind nun 7 Bilder und 6 sind im Index. Es fehlt auf der fertigen Seite das 4te. Auf einer anderen Seite, gleiche Domain, gleiche Art von Seite, nur andere Texte und Bilder machte ich das wieder nicht, sondern alles erst fertig, dann melden. Auf der ist mal wieder nur ein Bild im Index, diesmal aber das letzte aus der Serie.

    Dann noch eine dritte Seite, auch alles einzeln gemacht. Hier sind sogar 4 Bilder von 4 im Index.

    Was ich damit meine oder glaube, ist eher, dass Google da die Reihenfolge beachtet. Die Bilder wurden jeweils oben ergänzt. Also aus dem einst Ersten wurde dann das Zweite und es gab ein neues Erstes. Dann eben wieder und 2 wurde zur 3, 3 zur 4 etc. So als ob Google jedes Mal das Erste nehmen würde, das aber halt immer ein anderes ist. Das fällt mir auch bei meinen und diversen anderen Unterkunftsportalen auf. Dort sind die Kategorien auch nicht statisch, sondern ändern sich immer wieder mal, stündlich, täglich etc. Auch bei denen sind jeweils wesentlich mehr Bilder im Index, als auf einer Seite, die sich nicht ändert oder die Bilder einfach immer nur hinten angehängt werden.

    Was mir auch aufgefallen ist ist, dass Google sich schwer tut, wenn man im Artikel und im Teaser der Kat-Übersicht das gleiche Bild verwendet. Zumindest hier bei mir ist das dann fast immer so, dass das Bild der Übersicht genommen wird und nicht das vom Artikel. Letztendlich wechselt Google das dann, aber das dauert Tage oder Wochen. Aber im Grunde passiert auch hier was Ähnliches. Wenn Teaser und Artikelbild 1 jeweils das gleiche ist, dann nimmt sich Google hier das Teaser-Bild und 2 oder 3 aus dem Artikel. Irgendwann später ändert er das Teaserbild dann auf Artikelbild 1. Somit sind dann auch zwei da. Mache ich das umgedreht, also erst Artikel und kein Teaserbild, dann wird eines vom Artikel genommen und es bleibt bei dem Einen.

    Ähm ja, nein, glaube ich. Ich rede ja primär von geänderten Seiten. Im Index sind die ja schon. Die API ist ja aber auch dazu da, Änderungen zu übermitteln. Und genau das geht nicht.

    Es geht also eigentlich um Update:

    Nagelneue Seiten haben in der Regel kein Problem, das geht zumeist.

    Und das ist ja nicht nur mit der Silvester so. Das ist bei allen Seiten. Also auch bei denen, wo ich die letzten 14 Monate Texte verfasst habe. War das eine nagelneue Seite, zack, im Index. Ist das eine Erweiterung, geht mit der API gar nichts.

    Ich mach das nun halt wieder alles per Hand und melden, aber das ist irgendwie völlig unbrauchbar. Limit ist ja nur noch 10 Seiten und das nicht pro Domain, sondern für den ganzen GSC-Account.

    Die zwei da (vor 5 Stunden) habe ich wieder manuell gemeldet. Dauerte keine 30 Minuten, waren die im Index. Ich meine nun nicht ausschließlich die Bilder, nur an denen erkennt man es am besten. Von den anderen fehlen immer noch alle.

    Sagt mal, wer von euch hat Erfahrungen mit der Indexing-API von Google? Erfahrungen meine ich in dem Fall, mit Beispielen, wo die auch wirklich funktioniert und nicht nur ein Placebo ist.

    Ich übermittle nun seit ca. einem Jahr immer wieder Daten. An der Zahl dürften es bisher ca. 3000 sein. Meine Erfahrungen damit sind recht einfach: Die Indexing-API von Google funktioniert nicht. Also nicht wirklich, nur ein Placebo.

    Bei neuen Seiten, ganz neuen, geht es teilweise. Also deren Indexierung kann schneller sein. Also eine neue Seite erstellen und melden. Dann kommt sofort der Bot vorbei und ruft sie ab. In der GSC steht die URL dann sofort als indexiert drinnen, mit neuem Datum. Ein Cache kommt meist auch recht schnell. Im Index ist sie aber noch nicht. Also eine falsche Meldung von Google eigentlich. Dann kommt irgendwann der echte Bot hinterher, rendert sie und indexiert dann wirklich. Das kann Tage später sein, der Zeitstempel bleibt dann aber gleich. Funktioniert ca. in 80 bis 90% der Fälle. Wobei ich mir da nicht sicher bin, ob das nicht sogar Zufall ist und der reguläre Bot nicht ohnehin gekommen wäre.

    Bei Seitenänderungen ist es noch eindeutiger. Das geht überhaupt nicht. Auch hier kommt der Bot sofort. Datum wird sofort aktualisiert, Cache ebenso. Der Staus wechselt sofort auf "Indexiert" und die ganzen Grafiken zeigen es auch an. Ist ein schöner Anstieg. Huhu, Google hat 1000 neue Seiten indexiert. Falsch, keine einzige davon! Das ist alles nur innerhalb der GSC oder eben im Cache-Datum, aber eben nicht im echten Index.

    Das Spiel machte ich nun schon mit Tausenden an Seiten. In den letzten 2 Wochen mit 800 bei der Silvester-Seite. Nichts passierte. Keine davon ist auch nur ansatzweise zu finden. Also zu finden schon, waren ja vorher schon im Index, aber es sind keine Änderungen an der Seite auffindbar. Auch Bilder etc, alles was neu ist, ist Google unbekannt.

    Die da sind so Seiten und eben neue Bilder. Die 15 Seiten habe ich alle manuell gemeldet. Wie man sieht, die Bilder sind jeweils vorhanden, die Seiten neu abgerufen, neue Inhalte auffindbar.

    Die Meldungen waren jeweils gestern Nacht und vorgestern Nacht. Sieht man auch schön an den Zeitangaben der Bilder. So, Indexing-API: Wo sind die ca. 780 anderen Seiten, die nicht manuell gemeldet wurden, sondern nur per API? Laut GSC sind sie alle vom Stand der letzten Wochen. Im Index aufzufinden ist aber nur der Stand (Inhalte), vom letzten Jahr.

    Und nein, das hat nichts mit der Domain zu tun. Das Spiel ist auf allen Seiten. Auch Texte, die die letzten 14 Monate entstanden sind, auf bereits vorhandenen Seiten, sind per API gemeldet, aber nicht auffindbar. Oder halt erst Tage und Wochen später, wenn der Bot von allein auch schon längst da gewesen wäre. Auch dort ist keine einzige wirklich sofort neu indexiert oder wirklich abgerufen, auch wenn die GSC es behauptet.

    Was meinst Du mit "in meinem Account"? Wenn Du einen für Deepl selbst hast, dann ist das nur die online-Version. Für die Api gibt es einen extra Account, wie CatCat oben verlinkt hat.

    Da wird dann auch die Kreditkarte abgefragt, zur Identitätsbestätigung. Ob das allerdings geht, keine Ahnung. Kann ich auch nicht selbst testen, denn ich habe keine Kreditkarte ;)

    Dieses Layout da oben, das ich nun teilweise sehe, geht einen ganzen Schritt weiter. Das sind nicht nur einfach 10 Bilder, sondern eben 10 Deeplinks mit Bildern.

    Das ist quasi wie die Hauptkategorie Ponge als Suchergebnis mit dann 10 Bildern darunter mit direkten Links zu den Produkten Pongo natur, Ponge weiß, Ponge farbig und was sonst noch alles.

    Nur eben in dem Beispiel mit Unterkünften. Das sind auch immer nur Übersichtlisten von Unterkünften, wo nun eben die Direktlinks zu den Objektseiten dabei sind.

    Und natürlich sehe ich das mal wieder nur bei den Flagschiffen der Branche :(

    Ich stelle mir schon die Frage, ob das was mit Shopping zu tun hat oder der Hotel-Api oder keine Ahnung was. Interessant ist nämlich, dass ich das gerade bei "booking.com" fast überall sehe ....


    Und die eigentlichen Suchtreffer sind ganz normale Seiten, eben wie die hier aus dem letzten Bild:

    https://www.booking.com/apartments/city/at/kaprun.de.html

    Oder eben Expedia, halt auch ein Flagschiff:

    Oder "fewo-von-privat":

    Das Thema hatten wir doch schon. Ich sehe die Zukunft genau wie jetzt. KI ist da und wird es bleiben. Für Webmaster wird es immer schwieriger. In Bezug auf SEO sehe ich es als schwierig an, vor allem weil es schlicht zu viele Leute gibt, die einfach nur KI Texte so wie sie sind in der Welt verteilen. Das mag vielleicht jetzt noch funktionieren, ich bin mir aber sicher, dass der große Knall noch kommt. Und wie schon mal gesagt, dann trifft es alle, also auch die, die zwar KI nutzten, aber sich noch die Arbeit machten, das auszubauen, zu prüfen, zu ergänzen. Letztendlich machen die paar wenigen nur durch Eigennutzen damit alles kaputt.

    Zukünftig wird es natürlich Suchmaschinen geben, muss es auch. Nicht jeder will auf etwas eine Antwort haben, sondern eventuell auch fundierte Quellen um selbst zu lesen. Das sind wohl eher heute die Meta-Suchmaschinen und Co. Wenn es so was dann nicht gibt, dann wird es kommen. Der Großteil aber will auf eine Frage eine Antwort haben und das wird das meiste verändern. Wenn man ein Problem hat, dann möchte man auch eine Antwort auf seine Frage haben und nicht ein technisches Handbuch in die Hand gedrückt oder als Antwort "muss man draus lernen" bekommen. Der Sinn einer Frage ist nun mal, dass eine Antwort kommt und nicht eine Liste von hunderten Texten, wo die Antwort vielleicht drinnen steht, man die aber erst zusammensuchen muss. Genau dazu ist die KI da, das Zusammensuchen vorher machen, aufbereiten, ausgeben.

    Viel spannender fände ich die Frage, was die KI in ein paar Jahren macht. Die wurde ja angelernt mit Daten bis 2021. Da gab es noch keine KI Texte wie Sand am Meer. Was ist, wenn die in 5 Jahren neu angelernt wird? Dann sind die Datenquellen oft selbst KI Texte. Dann lernt die quasi von dem, was sie vorher selbst geschrieben hat. Und das eben auch von den Leuten, die die KI-Texte nie geprüft haben, sondern einfach nur Spam damit betreiben. Bedeutet für mich im Umkehrschluss, da die KI-Texte nie so fundiert sind wie die Originale, sondern immer nur ein Durchschnitt, dass die KI so auf Dauer selbst "verblödet", denn der Durchschnitt vom Durchschnitt vom Durchschnitt ist weniger, als es jeweils vorher war.

    Wenn man etwas 1000-mal sagt, wird es nicht automatisch richtig. Dieser Spruch trifft auf KI aber nicht zu. Wenn die etwas oft genug vorgelegt bekommt, in dem Zusammenhang und Aneinanderreihung von Buchstaben und Worten, dann muss es richtig sein. Wobei die ja nicht richtig und falsch unterscheidet, sondern nur die Wahrscheinlichkeit nutzt, was als nächsten kommen müsste.

    Ob ich dem Tempo mithalten kann? Nee, muss ich? Kannst Du dem Tempo eines Betonmischers mithalten?

    Google hat am 16.11.2023 neue Search Quality Rater guidelines veröffentlicht. In seinen neuesten Richtlinien für die Search Quality Rater legt Google besonderen Wert auf das Verständnis und die Erfüllung der Nutzerabsichten, die Einbeziehung von Feedback für Kern-Updates und die Einführung nuancierter Kriterien für die Bewertung von Foren und Q&A-Seiten. Im Folgenden werden die wichtigsten Änderungen und Erkenntnisse dieser aktualisierten Richtlinien erläutert.

    1. Fokus auf Nutzerintentionen und -bedürfnisse:

    Das Engagement von Google für die Nutzerzufriedenheit steht im Mittelpunkt der aktualisierten Richtlinien. Die Definition von qualitativ hochwertigen Suchergebnissen wurde verfeinert, um einen differenzierteren Einblick zu geben, warum bestimmte Ergebnisse als hilfreicher erachtet werden. Die Richtlinien enthalten detaillierte Informationen darüber, was ein Ergebnis ausmacht, das die Bedürfnisse der Nutzer effektiv erfüllt.

    2. Auswirkung des Bewerter-Feedbacks auf grundlegende Aktualisierungen:

    Das Feedback der Bewerter spielt eine entscheidende Rolle bei der Entwicklung von Googles Verständnis der Nutzererwartungen, was zu erheblichen Verschiebungen in der Suchergebnisabsicht während der Hauptaktualisierungen führt. Die Richtlinien beleuchten die Schwankungen in den Suchergebnissen während der Aktualisierungen und betonen die Granularität des Google-Ansatzes beim Verstehen der Abfrageabsicht.

    3. Leitlinien für die Bewertung von Foren und Q&A-Seiten:

    Ein bemerkenswerter Zusatz in den Richtlinien ist die spezifische Anleitung zur Bewertung der Seitenqualität von Foren und Q&A-Seiten. Besonderes Augenmerk wird auf Diskussionen gelegt, die neu sind oder einen kämpferischen, irreführenden oder spammigen Inhalt aufweisen. Die Betonung des Anstands unterstreicht die Bedeutung respektvoller Interaktionen, und die Bewerter werden aufgefordert, Seiten mit respektlosen oder kämpferischen Diskussionen mit einer niedrigen Qualität zu bewerten.

    4. Einfluss des Kommentarbereichs auf die Qualität der Seite:

    Die Qualität der Kommentare auf einer Seite wird als ein wichtiger Faktor hervorgehoben, der die Gesamtqualität der Seite beeinflusst. Webmaster werden daran erinnert, wie wichtig es ist, problematische Kommentare zu moderieren und anzusprechen, da nicht moderierte oder respektlose Kommentarabschnitte eine ansonsten hochwertige Seite negativ beeinflussen können.

    5. Visuelles Beispiel für die Bewertung von Forumsseiten:

    Um das Verständnis zu verbessern, enthalten die Richtlinien ein visuelles Beispiel einer Forenseite mit "mittlerer" Qualität auf Reddit, das veranschaulicht, wie eine neue Diskussion ohne Antworten standardmäßig mit einer mittleren Bewertung versehen wird. Diese visuelle Hilfe unterstreicht die entscheidende Rolle der Antwortzeit bei der Bewertung neuer Diskussionen.

    6. Nutzerstandort in Suchanfragen:

    Google unterstreicht die Bedeutung des Nutzerstandorts bei Suchanfragen, insbesondere bei Suchen, die sich auf nahe gelegene Orte beziehen. Das Konzept der "geringfügigen Interpretationen" wird eingeführt, mit visuellen Beispielen, die "begründete geringfügige Interpretationen" und "unwahrscheinliche geringfügige Interpretationen" veranschaulichen.

    7. Semantische Leitlinien Zweck:

    Die Richtlinien umreißen den Zweck der semantischen Richtlinien und betonen einen dialogorientierten Ansatz, um tiefer in Themen einzutauchen. Es werden qualitativ hochwertige Ergebnisse angestrebt, die mit den Google-Standards übereinstimmen, und das Nutzerfeedback, möglicherweise von Qualitätsprüfern, spielt eine Rolle bei der Durchsetzung der semantischen Richtlinien (Semantic Guidelines Enforcement, SGE).

    8. Aktualisierungen der Abfrageklassifizierung:

    Google schafft Klarheit mit Beispielen für "Einfache Abfragen kennen", "Abfragen wissen" und erweiterten Beispielen für "Tun"-Abfragen, die sich auf Videos, Bilder oder Anleitungen konzentrieren.

    9. Verfeinerung der Nutzerintention:

    Es wird eine Sprache eingeführt, um "unwahrscheinliche" Benutzerabsichten für bestimmte Schlüsselwörter zu definieren, um die Benutzerabsichten auf vernünftige Erwartungen zu beschränken und die Suchrelevanz zu verbessern.

    10. SERP-Funktionen und Nutzerbedürfnisse:

    Beispiele für Suchanfragen, Nutzerstandorte und Absichten werden vorgestellt, wobei der Schwerpunkt auf der Erfüllung der Nutzerbedürfnisse liegt. Bemerkenswerte Anpassungen und Ergänzungen werden in den Ergebnissen von "Highly Meets" vorgenommen, um Verbesserungen bei der Bereitstellung relevanter Inhalte zu demonstrieren. Zur Veranschaulichung der Ergebnisbewertung wird ein konkretes Beispiel erläutert, bei dem ein Nutzer nach "Cafés in der Nähe" sucht.

    11. Einbindung vielfältiger Inhalte:

    Googles Engagement für Vielfalt wird durch die Aufnahme eines TikTok-Videos als anschauliches Beispiel in die Richtlinien hervorgehoben.

    12. Verbesserte Suchergebnisse:

    Die Richtlinien zeigen Verbesserungen in den Suchergebnissen, wie z.B. die verbesserte Darstellung von "around the world tutorial" im Fußball. Moderne Perspektiven von externen Websites und Googles SERP-Funktionen werden einbezogen und betonen einen nutzerzentrierten Ansatz, um die Bedürfnisse von Fußballfans zu erfüllen.

    Schlussfolgerung:

    Die neuesten Search Quality Rater-Richtlinien von Google bringen eine Fülle von Aktualisierungen und Verfeinerungen mit sich und stellen die Absicht der Nutzer, Forenbewertungen und semantische Richtlinien in den Vordergrund. Durch die Bereitstellung detaillierter Einblicke und Beispiele möchte Google die Qualität der Suchergebnisse und die allgemeine Nutzererfahrung verbessern. Webmaster, Content-Ersteller und Qualitätsbewerter können gleichermaßen von einem gründlichen Verständnis dieser Richtlinien profitieren, um sicherzustellen, dass ihre Inhalte mit den sich entwickelnden Standards von Google übereinstimmen.

    Über diesen Text:

    Der stammt, wie man schon erkennen kann, von einer KI. Er ist aber keine plumpe Übersetzung eines anderen Textes, sondern wurde per Summerize aus zwei anderen Artikeln erstellt. Die daraus entstandene stichpunktartige Liste bekam dann ChatGPT, um einen Text auf Basis der Informationen zu verfassen. Anschließend dann die Übersetzung mit Deepl.

    Keine Ahnung, sehe das nun zum ersten Mal. Hat das schon mal einer gesehen?

    Das sind insgesamt 10 Bilder in einem Slider. Aber nicht nur Bilder, wie bei der Bildersuche, sondern das sind 10 Deeplinks zu Unterseiten auf dem Portal.

    Die Titel unter den Bildern sind jeweils die Titel der Zielseiten. Das Bild jeweils das Hauptbild. Alle Ziele sind entsprechend die Detailseiten der Objekte, Hotels, Pensionen, Ferienhäuser etc. Z.B.

    Also die Nutzung von einem ChatBot auf der Webseite stelle ich mir ganz anders vor. Das was Du da beschreibst, gibt es schon Jahrzehnte und nennt sich Buchungsstrecke. Ein Bot wäre dann sinnvoll, wenn man während der Fahrt einfach ins Telefon spricht "Reserviere mir ein Tipi für 5 Tage, aber nicht neben zwei Russen, die nachts um 3 Uhr immer lautstark telefonieren und bestelle bitte auch täglich am Abend ein Frühstück für den nächsten Tag". Und dann kommt ein einfaches. "Danke, ist erledigt." Das wäre ein Bot :)

    Den Rest verstehe ich nicht bzw. sehe keine Frage.