Beiträge von Synonym

    Fällt mir auch die letzten Wochen auf, aber nur mit webP. Google crawlt die als Seite und führt die dann alle als "Gecrawlt - zurzeit nicht indexiert" auf. Nicht indexiert ist dabei alleine gesehen falsch, denn sie sind indexiert. So wie ich das aber bisher verstanden habe, bezieht sich die Tabelle ausschließlich auf Seiten und Bilder in webP sind keine Seite. Daher "nicht indexiert" als Seite.

    Die Frage wäre nur, warum macht Google das? Warum crawlt Google webp Bilder als Seite? Das machen die ja nicht mit anderen. Habe da in keiner Liste auch nur ein einziges jpg, png, gif oder sonstwas stehen, nur webp.

    Interessant wäre natürlich auch, ob sich das auf das Crawling-Budget auswirkt. Es wird ja schließlich als Seite versucht ?!

    Ich muss hier mal eine Frage stellen bzw. habe was Komisches bemerkt. Glaube nicht wirklich, dass das ein Zufall war, denn es war genau in zwei Momenten, in allen anderen nicht.

    Bisher war und ist es auch hier so, dass Google fast immer nur das erste oder zweite Bild indexiert, aus einem fertigen Beitrag. Normalerweise machte ich das auch so, dass ich einen Artikel erst fertig mache, mit allen Bildern, dann melde. Nun machte ich das mal anders. Also Text und Co fertig, nur ein Bild rein und melden.

    Wie erwartet, das erste und einzige Bild wird genommen. Dann machte ich aber direkt weitere Bilder. Wieder hinzugefügt, eines, und gemeldet. Das machte ich dann mit allen Bildern so, 7 Stück insgesamt. Was soll ich sagen?

    Auf der Seite sind nun 7 Bilder und 6 sind im Index. Es fehlt auf der fertigen Seite das 4te. Auf einer anderen Seite, gleiche Domain, gleiche Art von Seite, nur andere Texte und Bilder machte ich das wieder nicht, sondern alles erst fertig, dann melden. Auf der ist mal wieder nur ein Bild im Index, diesmal aber das letzte aus der Serie.

    Dann noch eine dritte Seite, auch alles einzeln gemacht. Hier sind sogar 4 Bilder von 4 im Index.

    Was ich damit meine oder glaube, ist eher, dass Google da die Reihenfolge beachtet. Die Bilder wurden jeweils oben ergänzt. Also aus dem einst Ersten wurde dann das Zweite und es gab ein neues Erstes. Dann eben wieder und 2 wurde zur 3, 3 zur 4 etc. So als ob Google jedes Mal das Erste nehmen würde, das aber halt immer ein anderes ist. Das fällt mir auch bei meinen und diversen anderen Unterkunftsportalen auf. Dort sind die Kategorien auch nicht statisch, sondern ändern sich immer wieder mal, stündlich, täglich etc. Auch bei denen sind jeweils wesentlich mehr Bilder im Index, als auf einer Seite, die sich nicht ändert oder die Bilder einfach immer nur hinten angehängt werden.

    Was mir auch aufgefallen ist ist, dass Google sich schwer tut, wenn man im Artikel und im Teaser der Kat-Übersicht das gleiche Bild verwendet. Zumindest hier bei mir ist das dann fast immer so, dass das Bild der Übersicht genommen wird und nicht das vom Artikel. Letztendlich wechselt Google das dann, aber das dauert Tage oder Wochen. Aber im Grunde passiert auch hier was Ähnliches. Wenn Teaser und Artikelbild 1 jeweils das gleiche ist, dann nimmt sich Google hier das Teaser-Bild und 2 oder 3 aus dem Artikel. Irgendwann später ändert er das Teaserbild dann auf Artikelbild 1. Somit sind dann auch zwei da. Mache ich das umgedreht, also erst Artikel und kein Teaserbild, dann wird eines vom Artikel genommen und es bleibt bei dem Einen.

    Ähm ja, nein, glaube ich. Ich rede ja primär von geänderten Seiten. Im Index sind die ja schon. Die API ist ja aber auch dazu da, Änderungen zu übermitteln. Und genau das geht nicht.

    Es geht also eigentlich um Update:

    Nagelneue Seiten haben in der Regel kein Problem, das geht zumeist.

    Und das ist ja nicht nur mit der Silvester so. Das ist bei allen Seiten. Also auch bei denen, wo ich die letzten 14 Monate Texte verfasst habe. War das eine nagelneue Seite, zack, im Index. Ist das eine Erweiterung, geht mit der API gar nichts.

    Ich mach das nun halt wieder alles per Hand und melden, aber das ist irgendwie völlig unbrauchbar. Limit ist ja nur noch 10 Seiten und das nicht pro Domain, sondern für den ganzen GSC-Account.

    Die zwei da (vor 5 Stunden) habe ich wieder manuell gemeldet. Dauerte keine 30 Minuten, waren die im Index. Ich meine nun nicht ausschließlich die Bilder, nur an denen erkennt man es am besten. Von den anderen fehlen immer noch alle.

    Sagt mal, wer von euch hat Erfahrungen mit der Indexing-API von Google? Erfahrungen meine ich in dem Fall, mit Beispielen, wo die auch wirklich funktioniert und nicht nur ein Placebo ist.

    Ich übermittle nun seit ca. einem Jahr immer wieder Daten. An der Zahl dürften es bisher ca. 3000 sein. Meine Erfahrungen damit sind recht einfach: Die Indexing-API von Google funktioniert nicht. Also nicht wirklich, nur ein Placebo.

    Bei neuen Seiten, ganz neuen, geht es teilweise. Also deren Indexierung kann schneller sein. Also eine neue Seite erstellen und melden. Dann kommt sofort der Bot vorbei und ruft sie ab. In der GSC steht die URL dann sofort als indexiert drinnen, mit neuem Datum. Ein Cache kommt meist auch recht schnell. Im Index ist sie aber noch nicht. Also eine falsche Meldung von Google eigentlich. Dann kommt irgendwann der echte Bot hinterher, rendert sie und indexiert dann wirklich. Das kann Tage später sein, der Zeitstempel bleibt dann aber gleich. Funktioniert ca. in 80 bis 90% der Fälle. Wobei ich mir da nicht sicher bin, ob das nicht sogar Zufall ist und der reguläre Bot nicht ohnehin gekommen wäre.

    Bei Seitenänderungen ist es noch eindeutiger. Das geht überhaupt nicht. Auch hier kommt der Bot sofort. Datum wird sofort aktualisiert, Cache ebenso. Der Staus wechselt sofort auf "Indexiert" und die ganzen Grafiken zeigen es auch an. Ist ein schöner Anstieg. Huhu, Google hat 1000 neue Seiten indexiert. Falsch, keine einzige davon! Das ist alles nur innerhalb der GSC oder eben im Cache-Datum, aber eben nicht im echten Index.

    Das Spiel machte ich nun schon mit Tausenden an Seiten. In den letzten 2 Wochen mit 800 bei der Silvester-Seite. Nichts passierte. Keine davon ist auch nur ansatzweise zu finden. Also zu finden schon, waren ja vorher schon im Index, aber es sind keine Änderungen an der Seite auffindbar. Auch Bilder etc, alles was neu ist, ist Google unbekannt.

    Die da sind so Seiten und eben neue Bilder. Die 15 Seiten habe ich alle manuell gemeldet. Wie man sieht, die Bilder sind jeweils vorhanden, die Seiten neu abgerufen, neue Inhalte auffindbar.

    Die Meldungen waren jeweils gestern Nacht und vorgestern Nacht. Sieht man auch schön an den Zeitangaben der Bilder. So, Indexing-API: Wo sind die ca. 780 anderen Seiten, die nicht manuell gemeldet wurden, sondern nur per API? Laut GSC sind sie alle vom Stand der letzten Wochen. Im Index aufzufinden ist aber nur der Stand (Inhalte), vom letzten Jahr.

    Und nein, das hat nichts mit der Domain zu tun. Das Spiel ist auf allen Seiten. Auch Texte, die die letzten 14 Monate entstanden sind, auf bereits vorhandenen Seiten, sind per API gemeldet, aber nicht auffindbar. Oder halt erst Tage und Wochen später, wenn der Bot von allein auch schon längst da gewesen wäre. Auch dort ist keine einzige wirklich sofort neu indexiert oder wirklich abgerufen, auch wenn die GSC es behauptet.

    Was meinst Du mit "in meinem Account"? Wenn Du einen für Deepl selbst hast, dann ist das nur die online-Version. Für die Api gibt es einen extra Account, wie CatCat oben verlinkt hat.

    Da wird dann auch die Kreditkarte abgefragt, zur Identitätsbestätigung. Ob das allerdings geht, keine Ahnung. Kann ich auch nicht selbst testen, denn ich habe keine Kreditkarte ;)

    Dieses Layout da oben, das ich nun teilweise sehe, geht einen ganzen Schritt weiter. Das sind nicht nur einfach 10 Bilder, sondern eben 10 Deeplinks mit Bildern.

    Das ist quasi wie die Hauptkategorie Ponge als Suchergebnis mit dann 10 Bildern darunter mit direkten Links zu den Produkten Pongo natur, Ponge weiß, Ponge farbig und was sonst noch alles.

    Nur eben in dem Beispiel mit Unterkünften. Das sind auch immer nur Übersichtlisten von Unterkünften, wo nun eben die Direktlinks zu den Objektseiten dabei sind.

    Und natürlich sehe ich das mal wieder nur bei den Flagschiffen der Branche :(

    Ich stelle mir schon die Frage, ob das was mit Shopping zu tun hat oder der Hotel-Api oder keine Ahnung was. Interessant ist nämlich, dass ich das gerade bei "booking.com" fast überall sehe ....


    Und die eigentlichen Suchtreffer sind ganz normale Seiten, eben wie die hier aus dem letzten Bild:

    https://www.booking.com/apartments/city/at/kaprun.de.html

    Oder eben Expedia, halt auch ein Flagschiff:

    Oder "fewo-von-privat":

    Das Thema hatten wir doch schon. Ich sehe die Zukunft genau wie jetzt. KI ist da und wird es bleiben. Für Webmaster wird es immer schwieriger. In Bezug auf SEO sehe ich es als schwierig an, vor allem weil es schlicht zu viele Leute gibt, die einfach nur KI Texte so wie sie sind in der Welt verteilen. Das mag vielleicht jetzt noch funktionieren, ich bin mir aber sicher, dass der große Knall noch kommt. Und wie schon mal gesagt, dann trifft es alle, also auch die, die zwar KI nutzten, aber sich noch die Arbeit machten, das auszubauen, zu prüfen, zu ergänzen. Letztendlich machen die paar wenigen nur durch Eigennutzen damit alles kaputt.

    Zukünftig wird es natürlich Suchmaschinen geben, muss es auch. Nicht jeder will auf etwas eine Antwort haben, sondern eventuell auch fundierte Quellen um selbst zu lesen. Das sind wohl eher heute die Meta-Suchmaschinen und Co. Wenn es so was dann nicht gibt, dann wird es kommen. Der Großteil aber will auf eine Frage eine Antwort haben und das wird das meiste verändern. Wenn man ein Problem hat, dann möchte man auch eine Antwort auf seine Frage haben und nicht ein technisches Handbuch in die Hand gedrückt oder als Antwort "muss man draus lernen" bekommen. Der Sinn einer Frage ist nun mal, dass eine Antwort kommt und nicht eine Liste von hunderten Texten, wo die Antwort vielleicht drinnen steht, man die aber erst zusammensuchen muss. Genau dazu ist die KI da, das Zusammensuchen vorher machen, aufbereiten, ausgeben.

    Viel spannender fände ich die Frage, was die KI in ein paar Jahren macht. Die wurde ja angelernt mit Daten bis 2021. Da gab es noch keine KI Texte wie Sand am Meer. Was ist, wenn die in 5 Jahren neu angelernt wird? Dann sind die Datenquellen oft selbst KI Texte. Dann lernt die quasi von dem, was sie vorher selbst geschrieben hat. Und das eben auch von den Leuten, die die KI-Texte nie geprüft haben, sondern einfach nur Spam damit betreiben. Bedeutet für mich im Umkehrschluss, da die KI-Texte nie so fundiert sind wie die Originale, sondern immer nur ein Durchschnitt, dass die KI so auf Dauer selbst "verblödet", denn der Durchschnitt vom Durchschnitt vom Durchschnitt ist weniger, als es jeweils vorher war.

    Wenn man etwas 1000-mal sagt, wird es nicht automatisch richtig. Dieser Spruch trifft auf KI aber nicht zu. Wenn die etwas oft genug vorgelegt bekommt, in dem Zusammenhang und Aneinanderreihung von Buchstaben und Worten, dann muss es richtig sein. Wobei die ja nicht richtig und falsch unterscheidet, sondern nur die Wahrscheinlichkeit nutzt, was als nächsten kommen müsste.

    Ob ich dem Tempo mithalten kann? Nee, muss ich? Kannst Du dem Tempo eines Betonmischers mithalten?

    Google hat am 16.11.2023 neue Search Quality Rater guidelines veröffentlicht. In seinen neuesten Richtlinien für die Search Quality Rater legt Google besonderen Wert auf das Verständnis und die Erfüllung der Nutzerabsichten, die Einbeziehung von Feedback für Kern-Updates und die Einführung nuancierter Kriterien für die Bewertung von Foren und Q&A-Seiten. Im Folgenden werden die wichtigsten Änderungen und Erkenntnisse dieser aktualisierten Richtlinien erläutert.

    1. Fokus auf Nutzerintentionen und -bedürfnisse:

    Das Engagement von Google für die Nutzerzufriedenheit steht im Mittelpunkt der aktualisierten Richtlinien. Die Definition von qualitativ hochwertigen Suchergebnissen wurde verfeinert, um einen differenzierteren Einblick zu geben, warum bestimmte Ergebnisse als hilfreicher erachtet werden. Die Richtlinien enthalten detaillierte Informationen darüber, was ein Ergebnis ausmacht, das die Bedürfnisse der Nutzer effektiv erfüllt.

    2. Auswirkung des Bewerter-Feedbacks auf grundlegende Aktualisierungen:

    Das Feedback der Bewerter spielt eine entscheidende Rolle bei der Entwicklung von Googles Verständnis der Nutzererwartungen, was zu erheblichen Verschiebungen in der Suchergebnisabsicht während der Hauptaktualisierungen führt. Die Richtlinien beleuchten die Schwankungen in den Suchergebnissen während der Aktualisierungen und betonen die Granularität des Google-Ansatzes beim Verstehen der Abfrageabsicht.

    3. Leitlinien für die Bewertung von Foren und Q&A-Seiten:

    Ein bemerkenswerter Zusatz in den Richtlinien ist die spezifische Anleitung zur Bewertung der Seitenqualität von Foren und Q&A-Seiten. Besonderes Augenmerk wird auf Diskussionen gelegt, die neu sind oder einen kämpferischen, irreführenden oder spammigen Inhalt aufweisen. Die Betonung des Anstands unterstreicht die Bedeutung respektvoller Interaktionen, und die Bewerter werden aufgefordert, Seiten mit respektlosen oder kämpferischen Diskussionen mit einer niedrigen Qualität zu bewerten.

    4. Einfluss des Kommentarbereichs auf die Qualität der Seite:

    Die Qualität der Kommentare auf einer Seite wird als ein wichtiger Faktor hervorgehoben, der die Gesamtqualität der Seite beeinflusst. Webmaster werden daran erinnert, wie wichtig es ist, problematische Kommentare zu moderieren und anzusprechen, da nicht moderierte oder respektlose Kommentarabschnitte eine ansonsten hochwertige Seite negativ beeinflussen können.

    5. Visuelles Beispiel für die Bewertung von Forumsseiten:

    Um das Verständnis zu verbessern, enthalten die Richtlinien ein visuelles Beispiel einer Forenseite mit "mittlerer" Qualität auf Reddit, das veranschaulicht, wie eine neue Diskussion ohne Antworten standardmäßig mit einer mittleren Bewertung versehen wird. Diese visuelle Hilfe unterstreicht die entscheidende Rolle der Antwortzeit bei der Bewertung neuer Diskussionen.

    6. Nutzerstandort in Suchanfragen:

    Google unterstreicht die Bedeutung des Nutzerstandorts bei Suchanfragen, insbesondere bei Suchen, die sich auf nahe gelegene Orte beziehen. Das Konzept der "geringfügigen Interpretationen" wird eingeführt, mit visuellen Beispielen, die "begründete geringfügige Interpretationen" und "unwahrscheinliche geringfügige Interpretationen" veranschaulichen.

    7. Semantische Leitlinien Zweck:

    Die Richtlinien umreißen den Zweck der semantischen Richtlinien und betonen einen dialogorientierten Ansatz, um tiefer in Themen einzutauchen. Es werden qualitativ hochwertige Ergebnisse angestrebt, die mit den Google-Standards übereinstimmen, und das Nutzerfeedback, möglicherweise von Qualitätsprüfern, spielt eine Rolle bei der Durchsetzung der semantischen Richtlinien (Semantic Guidelines Enforcement, SGE).

    8. Aktualisierungen der Abfrageklassifizierung:

    Google schafft Klarheit mit Beispielen für "Einfache Abfragen kennen", "Abfragen wissen" und erweiterten Beispielen für "Tun"-Abfragen, die sich auf Videos, Bilder oder Anleitungen konzentrieren.

    9. Verfeinerung der Nutzerintention:

    Es wird eine Sprache eingeführt, um "unwahrscheinliche" Benutzerabsichten für bestimmte Schlüsselwörter zu definieren, um die Benutzerabsichten auf vernünftige Erwartungen zu beschränken und die Suchrelevanz zu verbessern.

    10. SERP-Funktionen und Nutzerbedürfnisse:

    Beispiele für Suchanfragen, Nutzerstandorte und Absichten werden vorgestellt, wobei der Schwerpunkt auf der Erfüllung der Nutzerbedürfnisse liegt. Bemerkenswerte Anpassungen und Ergänzungen werden in den Ergebnissen von "Highly Meets" vorgenommen, um Verbesserungen bei der Bereitstellung relevanter Inhalte zu demonstrieren. Zur Veranschaulichung der Ergebnisbewertung wird ein konkretes Beispiel erläutert, bei dem ein Nutzer nach "Cafés in der Nähe" sucht.

    11. Einbindung vielfältiger Inhalte:

    Googles Engagement für Vielfalt wird durch die Aufnahme eines TikTok-Videos als anschauliches Beispiel in die Richtlinien hervorgehoben.

    12. Verbesserte Suchergebnisse:

    Die Richtlinien zeigen Verbesserungen in den Suchergebnissen, wie z.B. die verbesserte Darstellung von "around the world tutorial" im Fußball. Moderne Perspektiven von externen Websites und Googles SERP-Funktionen werden einbezogen und betonen einen nutzerzentrierten Ansatz, um die Bedürfnisse von Fußballfans zu erfüllen.

    Schlussfolgerung:

    Die neuesten Search Quality Rater-Richtlinien von Google bringen eine Fülle von Aktualisierungen und Verfeinerungen mit sich und stellen die Absicht der Nutzer, Forenbewertungen und semantische Richtlinien in den Vordergrund. Durch die Bereitstellung detaillierter Einblicke und Beispiele möchte Google die Qualität der Suchergebnisse und die allgemeine Nutzererfahrung verbessern. Webmaster, Content-Ersteller und Qualitätsbewerter können gleichermaßen von einem gründlichen Verständnis dieser Richtlinien profitieren, um sicherzustellen, dass ihre Inhalte mit den sich entwickelnden Standards von Google übereinstimmen.

    Über diesen Text:

    Der stammt, wie man schon erkennen kann, von einer KI. Er ist aber keine plumpe Übersetzung eines anderen Textes, sondern wurde per Summerize aus zwei anderen Artikeln erstellt. Die daraus entstandene stichpunktartige Liste bekam dann ChatGPT, um einen Text auf Basis der Informationen zu verfassen. Anschließend dann die Übersetzung mit Deepl.

    Keine Ahnung, sehe das nun zum ersten Mal. Hat das schon mal einer gesehen?

    Das sind insgesamt 10 Bilder in einem Slider. Aber nicht nur Bilder, wie bei der Bildersuche, sondern das sind 10 Deeplinks zu Unterseiten auf dem Portal.

    Die Titel unter den Bildern sind jeweils die Titel der Zielseiten. Das Bild jeweils das Hauptbild. Alle Ziele sind entsprechend die Detailseiten der Objekte, Hotels, Pensionen, Ferienhäuser etc. Z.B.

    Also die Nutzung von einem ChatBot auf der Webseite stelle ich mir ganz anders vor. Das was Du da beschreibst, gibt es schon Jahrzehnte und nennt sich Buchungsstrecke. Ein Bot wäre dann sinnvoll, wenn man während der Fahrt einfach ins Telefon spricht "Reserviere mir ein Tipi für 5 Tage, aber nicht neben zwei Russen, die nachts um 3 Uhr immer lautstark telefonieren und bestelle bitte auch täglich am Abend ein Frühstück für den nächsten Tag". Und dann kommt ein einfaches. "Danke, ist erledigt." Das wäre ein Bot :)

    Den Rest verstehe ich nicht bzw. sehe keine Frage.

    Was heißt ist kostenlos? War es doch schon vorher. Version 4 erfordert hier weiterhin ein Premium-Abo und auf meine Texte von vorher komme ich nicht mehr drauf aktuell :(


    Aber ja, Verwirrspiel. Ist weg, wird weg sein, geht vielleicht, ist wieder da. So in etwa in der Reihenfolge habe ich das in den diversen Medien nacheinander gelesen.

    Sagt mal, früher gab es ja in den Google Webmastertools die Funktion, seine Backlinks zu exportieren. Darin enthalten war die genaue URL des Backlinks, dessen Ziel und auch ein Datum, wann ein Link von Google gefunden wurde.

    Nein, ich irre mich nicht, ich habe solche Exporte noch reihenweise da. War ganz brauchbar, konnte man vor allem sortieren nach "von wann" oder "von wo". Weiß noch genau, dass ich eben genau deswegen überhaupt den Chrome nutze, denn zumindest früher war ein Download per Firefox nicht möglich. Der Button schlicht ohne Funktion.

    Wenn ich das jetzt im Chrome mache, dann ist das nur eine völlig unbrauchbare Liste mit den Domänen, von denen Links kommen, ohne die genaue URL zu nennen und vor allem, viel schlimmer, ein Datum ist auch nicht mehr dabei.

    Mache ich was falsch? Mehr als oben rechts auf "Externe Links exportieren" zu klicken kann man doch nicht, oder doch?

    Ich würde damit nicht zu lange warten, nicht dass dann unerwartete Probleme auftreten und Du das ganze nochmal machen darfst....

    Hier steht aber wohl was dazu, wie man die Locals ändern kann. Geht dort anscheinend direkt über das Backend..... Also eigentlich wohl genau das, was Du suchst.

    https://docs.opencart.com/en-gb/system/l…ation/language/

    Und hier gäbe es sogar Sprachpakete für DE / AT / CH alleine oder DACH kombiniert. Allerdings erst Version 4. Und Hinweise beachten. Man kann da wohl nur eines der Länder installieren, oder ganz Dach, nur "DE und CH" geht somit nicht.

    https://www.opencart.com/index.php?rout…ory_id=2&page=2

    Möglichkeiten gibt es da mehrere. Also per Rewrite, wie wir das schon haben oder eben per Apache direkt... So was z.B.

    Apache Configuration
    # greift nur bei domain.ch, nicht bei www.domain.ch oder anderen
    # Exact-Match per ==
    <If "%{HTTP_HOST} == 'domain.ch'">
        AuthType Basic
        AuthName "Password Protected Area"
        AuthUserFile /my/path/to/.htpasswd
        require valid-user
    </If>

    Der Inhalt ist nun egal und nur ein Beispiel. Entscheidend ist das <if>, denn darin wird der %{HTTP_HOST} abgefragt. In dem Fall wäre der Passwortschutz für den kompletten Host "domain.ch" (nicht für http://www.domain.ch), aber eben nicht für andere. Und in das <if> kann man im Grunde alles einbauen, was man sonst so in der Htaccess auch hat. Also auch IP sperren, andere Expires, Header etc. Man muss nur beachten, dass man dann eventuell zwei solche Blöcke braucht, also quasi ein if-else. Kommt aber auf den speziellen Fall an.

    Und da geht eben alles. Direkter Sting-Vergleich (exakt, so wie oben im Beispiel), oder "AND" und "OR", Regex etc....

    https://httpd.apache.org/docs/2.4/expr.html

    Code
    # greift nur bei domain.ch und bei www.domain.ch, nichts anderes
    # Als OR-Bedingung per ||. Beides Exakt-Match per ==
    <If "%{HTTP_HOST} == 'domain.ch' || %{HTTP_HOST} == 'www.domain.ch'">
    Code
    # greift bei allen Subs von domain.ch
    # das =~ bedeutet Regex-Vergleich
    # daher egal was, es muss nur domain.ch vorkommen
    <If "%{HTTP_HOST} =~ /domain\.ch/">

    So kann man sich also innerhalb einer htaccess zwei Bereiche oder mehrere für verschiedene Hosts anlegen. Mehr oder weniger genauso wie beim vHost mit SSL und ohne. Sind auch zwei Blöcke, der eine regiert auf Port 80, der andere auf 443.