Beiträge von Synonym
-
-
Und ich verstehe nicht, was das eine mit dem anderen zu tun hat.
Und sicher, dass das viel Arbeit war? Erster Klick, gleich wieder Fehler gefunden...
Ich werde meine Domänen nicht umziehen. Entweder bleiben die so oder sie werden gelöscht. Aber an sich war mir das schon vorher klar, dass diese speziellen Domains wie .rocks sehr teuer werden würden. Bin mittlerweile glaube ich bei 39 Eur oder so, wobei die Neuregistrierung gerade mal 6 Eur kostet.
-
Oder anders gesagt. Das was Du da nun hast gibt es millionenfach. Das ist das gleiche wie eine Domain erst von nicht www an mit-www zu senden per 301 und dann irgendwann einzelne Seiten mit 410 auszuliefern.
Die einen verschwinden aus dem Index wegen dem 301, das Ziel wegen dem 410. Aber nur das Ziel ist dauerhaft. Sprich, es ist egal, ob Du dann einen 410 oder 404 sendest, denn es zählt nur für das Ziel. Die Seite mit dem 301 wird wieder abgerufen werden. Und klar, logisch stoppt Google erst mal. Die sind ja nicht doof. Du sagst Google tausendfach, sie sollen wo anders hin und dann "ätsch, gibt es nicht". Also lassen sie es bleiben ud versuchen es dann später noch mal.
Wenn Du zu 5 verschiedenen O2-Läden geschickt wirst und überall steht, dauerhaft geschlossen, dann denkst Du auch "leckt mich" und lässt es gut sein. Gehst vielleicht später noch mal hin, wenn Du Lust und Laune hast, aber sicherlich nicht permanent.
-
Alex, natürlich geht es. Sumas sehen die Seite mit dem 301. Das bedeutet automatisch, die Seite soll entfernt werden, im Sinne von "entfernt und durch eine neue ersetzt". Das ist das Prinzip von einem 301. Die neue ist dann aber nicht da, die ist 410. Also verschwindet alles in den Suchergebnissen, das ist logisch. Rein technisch hat aber nur die "geloescht" einen 410. Also die "kommt nie wieder". Die 301 nicht. Wenn Du in 1-2 Jahren hergehst und die "geloescht" wieder offiziell entfernst, dann werden die anderen Seiten wieder kommen, denn die hatten nie einen 410, sondern nur einen "fehlerhaften 301".
Es geht, aber Google denkt sich schlicht dabei. Warum schickt der mich an ein Ziel, das es nicht gibt? Da ist, als wenn Du zu O2 gehst und dort am Fenster steht "wir sind umgezogen nach xy". Bei xy angekommen steht dann aber auch "dauerhaft geschlossen".
-
Ich Maule nicht. Das nervt auch langsam. Natürlich geht das so, ist nur bescheuert. Erst sagen "ist wo anders" und dann das "wo anders" gibt es nicht. Wenn man auf einzelnen Seiten gezielt einen 301 setzen kann, dann kann man auch gleich einen 410 senden.
-
Seine Agentur hat die robots.txt-Datei überprüft und festgestellt, dass diese anscheinend nur sporadisch abrufbar ist
Wurde die robots.txt selbst geprüft, also selbst abgerufen und geht bzw. geht nicht oder ist mit "geprüft" der Status von Google gemeint?
Das Problem bei mir ist von allein wieder verschwunden, so wie es auch gekommen war, dauerte ca. 7 Monate. Aktuell läuft es auf allen Domänen bei drei verschiedenen Hostern normal.
Ich weiß nicht, was es war, aber ich bin mir sicher, es war ein Google-Problem. Hier waren es vier verschiedene Hoster (Hetzner, Strato, Prosite, 1und1), drei verschiedene Hostingangebote / -arten (Root-Server, vServer, Baukasten). Gemeinsam hatten sie nur den Standort Deutschland (Vogtland, Berlin, Hamburg, Nürnberg, Frankfurt). Ich hatte mir damals sogar noch einen neuen Server bestellt, nur für den Test der robots.txt und zack, schon am ersten Tag hagelte es auch dort Fehler. Auf dem war nichts drauf, nur eine statische Datei, die robots.txt.
Ja, schaue in die Logs. Wenn es so ist wie bei mir, dann erscheinen die "erfolglosen Zugriffe" dort gar nicht. Wie oben geschrieben, es gab da nie einen Serverzugriff, aber eben die Statusmeldung von Google. Gehe die Logs durch und schreibe dir alle Zugriffe für die robots.txt auf. Datum, Uhrzeit und IP. Dann vergleich das mit den Daten, die Google anzeigt.
Ich persönlich schließe eine Firewall schon immer vollständig aus. Wie soll das denn technisch auch gehen? Eine statische Datei, die mal geht und mal nicht. Dann müsste a) die Firewall auf eine Datei ausgelegt sein und nicht auf eine IP und b) müsste man die ständig aktivieren und deaktivieren, denn jeder zweite Zugriff geht ja, egal wann der ist, also 10 Sekunden später oder 5 Stunden.
-
Natürlich ist das alles angelerntes Zeug, keine Frage. Meine Hoffnung ist da halt immer nur, dass die doch mal was sagt, was sie sich "selbst ausgedacht" hat. Zwar eben auch alles von irgendwo ist, aber eben nicht in dem Wortlaut sonst wo steht. Weil, die Antworten in der Erstfrage an sich, die würfelt sie sich ja auch zusammen, teils von verschiedenen Seiten. Aber da merkt man ja schon, dass das alles oft nur "erfunden ist", denn das, was die da erzählt, steht gar nicht auf den Seiten bzw. ist eben eine Mischung aus derer, wobei dann der Sinn verloren geht.
Das da war mal von Chat-GPT. Da dachte ich mir auch, Schreibfehler???? War das echt so falsch aus der Quelle übernommen oder hat GPT das in dem Moment nur falsch geschrieben, oder war es vielleicht mal richtig und die OCR erkannte es falsch? Wo also war der Fehler genau?
-
Das ist mir schon klar. Witzig ist es aber. Und wenn sie Quellen nennt, dann möchte ich halt auch wissen, warum sie mir die nannte und daraus wurde dann das Gespräch. Ist ja im Grunde nicht neu, aber sie bestätigt halt mal in Schriftform. Man kann so gut sein wie man will, wenn ein Portal mal "Reputation" hat, was die Öffis alle haben, sagte sie selbst, dann hat man ein Problem. Und es ist dann, laut deren Aussage, auch egal, ob die es auf der Domain dann um ein bestimmtes Thema oder eben um Gott und die Welt geht.
Und die Antworten waren halt immer, dass man als Betroffener was ändern soll. Die kam mit Sozial-Media, um Besucher zu bekommen, Paywall, um Einnahmen zu haben. Nachgefragt, was eine Paywall bringen soll, wenn die Suma keine Besucher mehr schickt, wurde sie dann sehr allgemein und wich vom Thema ab. Auf die Nachfrage, ob das nicht eher ein Problem der Suma sei, dass die bestimmten Seiten einfach mehr vertrauen als anderen kam ein "Ja, ist aber so".
Und dann kam sie noch mit Ausreden, eine Suma würde nicht wissen, welcher Inhalt zuerst da war. Nachfrage deswegen, dass meine Inhalte die ersten im Netz waren, vor 15 Jahren und die anderen alle erst die letzten 7 Jahre kamen. Wäre eine klare Sache, wer zuerst da war und wer nicht. Auch hier dann der weite Bogen zur "Reputation".
Auf die Frage, wie hoch die Wahrscheinlichkeit sei, dass ein Portal, das über 20 Jahre über Computer schreibt, ein Technikportal ist, dass dieses eine höhere Qualifikation zum Thema Geranien hat, nur weil es einen einzigen Artikel mit 500 Wörtern veröffentlicht, als eine Domain, die nichts anderes macht, kam dann auch nichts mehr. Da war es dann wirklich nur allgemeines SEO-blabla.
Dann noch mal nachgefragt wegen Reputation und Co, warum das denn so sei und wie das beurteilt wird. Mit Bezug auf ein anderes Portal, das Anleitungen für Studenten schreibt, was sie wie in einem Nebenjob machen können. Das Portal klaut nur zusammen, von Geranien bis FI-Schalter wechseln über Tapezieren und Gebäudereinigung. Hier kam auch nur ein "hat eine hohe Reputation". Dann spezieller gefragt, was daran bitte Reputation sein soll, wenn die Seite technische Daten zu Satelliten nennt, wie man eine SAT-Schüssel ausrichten soll, aber mit Angaben, die es seit 5 Jahren gar nicht mehr gibt? (Transponter eingestellt). Da meinte sie, es sei ein Fehler und sollte nicht sein. Ich sollte eine alternative Suchmachine wählen.
-
Also ich hatte vorhin ein nettes Gespräch mit Google, äh Gemini. Das Thema war, warum Google und eben auch Gemini Seiten wie WDR oder NDR bevorzugt, wenn man was zu Geranien fragt. Und eben auch, dass die meine Inhalte kopieren.
Sinngemäß war die Antwort (war über 7 Seiten lang, langes Gespräch halt). Die Seiten hätten eine höhere Reputation und Glaubwürdigkeit. Google und Gemini würden das bevorzugen und daher eher als Quelle auswählen. Als Lösung hat mir Gemini vorgeschlagen, eine andere Suche als Google zu verwenden.
-
Was meinst du damit? Bei der /wetter?
Wie schon erwähnt, das "Gefühlte TemperaturGefühlt wie". Das ist nur bei Dir so, bei keinen anderen Seiten mit genau der gleichen Version der Software, z.B. https://kreuzau24.de/wetter/cumulusraspi/index.php
Das andere ist halt alles Zusatz bzw. Korrektur, damit man auch versteht, was gemeint ist. Ich selbst habe z.B. noch immer keine Ahnung, was das mit den "0,12 μSv" auf sich hat. Man findet zu diesem Schwellenwert auch nichts. Einen Grund wird es aber wohl haben, warum genau der so dargestellt wird. Sinn bei so einer Seite ist ja, zu verstehen was da steht und nicht, dass man erst mal alles googlen muss, was damit gemeint ist.
-
Jo, und noch die gleichen und mehr Fehler drinnen wie vorher. Ist ein langes "heute"

Neu:
Falsche Bezeichnungen bei den Wetterdaten
Google-Fonts
Fehlende Wetterdaten "Die Luftfeuchtigkeit liegt bei X %."Alt:
Siehe oben.
-
Ah, ok. Was ist aber eigentlich "uSv"? Universelle Stromversorgung oder was? Steht da ständig auf der Seite und auch noch "pro Stunde". Wenn Mikrosievert gemeint ist, dann sollte man auch Mikro schreiben, also "μSv".
Und was genau hat es mit den "0.12" aufsich? Warum dieser Grenzwert und kein anderer? Wird nirgends erwähnt, da steht nur "0 bis 0,3 µSv/h" als Erklärung. Nachdem das aber so extrem auffallend rot geschrieben ist, muss da ja wichtig sein und da es sehr häufig vorkommt, sollte man wohl von Bertingen fernbleiben, oder?
Und was ist CPM? Soll das "Cost-per-Mille" sein?
-
Na, die Seite ist so ganz ohne Bilder. Mach doch mal welche von Deinen Messeinrichtungen, damit man die auch sehen kann bzw. weiß, welche Geräte die Daten da so liefern. Sollte ja nicht so schwer sein, seine Wetterstation etc. zu fotografieren, wie sie da auf dem Mast hängt oder auf dem Dach steht. Interessant wäre natürlich auch, wo die denn stehen. Auf dem Campingplatz? In der Ortsmitte? An der Straße? Auf dem Dach der Feuerwehr? Mitten im Feld?
-
Was ich eigentlich erwarte.... Alle Rechnungen stornieren. Dieses fehlerhafte System stoppen. Alles was schon abgebucht wurde dem Konto gutschreiben. Alle Rechnungen und Laufzeiten etc manuell prüfen und korrigieren. Dann eine neue Rechnung erstellen und mit dem Kundenkonto verrechnen. Den Restbetrag mir erstatten.
-
Das versuche ich lieber nicht, das ist schon Choas genug. Mittlerweile hat sich ein echter Mitarbeiter gemeldet, aber nur damit, dass das "Script" nun läuft und alles korrigiert wird.
Dann meldete sich 2 Stunden später wieder die AI plötzlich zu Wort.
Anschließend wurden zwei Rechnungen storniert, zwei von 8. Bezahlt waren sie schon.
Weitere zwei Stunden später kamen 3 neue Rechnungen, welche, die es vorher noch nicht gab und auch diese sind komplett falsch.
-
Habe da gerade ein Problem mit einem Unternehmen, das mir völlig falsche Rechnungen ausstellt, also falscher Betrag, falscher Leistungszeitraum und dann dazu auch noch andere Summen vom Konto abbucht, als in den falschen Rechnungen stehen.
Super ist das. Da blickt ehe schon keiner mehr durch.
Schreibe da nun schon 8 Tickets und bekomme immer wieder ein "tut uns leid, ist gerade viel los, es dauert noch etwas, hinterlassen sie mehr Details, damit es schneller geht"
Auch super, Details waren schon mehr als genug genannt. Alles geht nicht, da müsste man ein Buch schreiben und wäre Wochen beschäftigt, stimmt ja schließlich gar nichts und das rückwirkend bis ist Jahr 2022.
Das so in etwa geschrieben und nun eine andere Antwort bekommen, von Arisa. Die sagte mir aber auch nicht viel. Dann in der Signatur gefunden:
"Please note: This is an AI-generated response and is part of our experimental feature to improve customer service efficiency. Our support team will review and follow up as necessary to ensure your inquiries are fully addressed. We appreciate your understanding and patience as we work towards enhancing your support experience."
-
-
Man kann es sich ja noch anzeigen lassen....
Einfach auf Suchfilter klicken, dann stehen die Daten rechts oben. Was das aber mit einem Suchfilter zu tun hat, weiß wohl selbst Google nicht. Geht aber nur mit "Suchfilter". Wenn der Punkt "Suchoptionen" heißt, was auch manchmal vorkommt, dann geht es nicht.
-
Naja, die Verweildauer gehört auch zu SEO. Genau genommen müsste man erst mal definieren, was SEO überhaupt ist, denn letztendlich ist das auch was wie, welche Schriftfarbe nutzt man.
Ich bezweifle aber, dass die Verweildauer einen sonderlich großen Einfluss hat, auch wenn das immer wieder behauptet wird. Das ist halt typisch SEO. Es wird immer gesagt, wiederholt, von anderen gesagt etc, aber keiner kann einen Beweis oder Beleg vorlegen.
Ich bezweifle es aus schlicht technischen Gründen, denn wie soll Google die berechnen? Du hast den Tagmanager drauf, ok, der kann Zugriff und Absprung erkennen. Google behauptet aber, dass die Daten nicht fürs Raning benutzt werden. Andere haben Adsense drauf, auch da könnte man das erkennen, aber auch hier angeblich nicht benutzt,
Was unumstritten ist ist, die Zugriffe über die Suche und die Rückkehr zu ihr. Nur das ist ja alles andere als zuverlässig. Was ist denn, wenn man aus den Suchergebnissen 3 Seiten öffnet, zeitgleich, im neuen Tab? Wie lange war man nun auf einer Seite? Für Google nicht messbar. Oder wenn man eine Seite öffnet, die grottenschlecht ist, aber man erst mal einen Kaffee tringt, bevor man auf den "zurück-Button" klickt?
Oder, nimm als Beispiel eine Seite, die schlicht, einfach und sehr übersichtlich ist. Nach 20 Sekunden hast Du gefunden, was Du wissen willst. Dann nimm eine andere, bei der suchst Du 2 Minuten in den Untiefen, bist frustriert und hast dennoch nicht das gefunden, was Du wolltest. Welche ist nun besser? Die mit den 20 Sekunden oder die mit den 2 Minuten Verweildauer? Die Länge kann also nicht wirklich viel aussagen.
Das Einzige, wie Google es recht zuverlässig messen kann ist Lighthouse, also über alle User, die Chrome benutzen, denn das sendet ja Daten an Google. Das sind eben dort in der Auswertung die "Feld-Daten". Das sind Daten, die nicht rein statistisch ausgewertet wurden, sondern individuell für jeden Besucher auf der Seite. Feld-Daten haben aber nur Seiten, die auch recht viele Besucher haben. Je weniger, desto ungenauer.
Ich habe hier z.B. eine Domain, die hat eine durchschnittliche Verweildauer von 13 Sekunden. Das ist eine der besten Seiten, die ich habe, in Sinne vom Ranking. Eine andere hat eine Dauer von durchschnittlich 2 Minuten und ist im Ranking eher auf den Plätzen 50 bis 100.
-
Meiner Meinung nach kann man die ganzen SEO-Tools in die Tonne kloppen. Die sind vielleicht brauchbar, wenn man seine eigene Domain vergleichen will, aber für fremde wird das kompliziert. Zahlen und Grafiken, schön, bunt, übersichtlich, aber was genau sagt das aus?
Schönes Beispiel ja Deine beiden Bilder. Wenn man nach der Länge der Balken geht, müsste zweite Domain ja viel schlechter sein. Also stellt sich berechtigterweise die Frage, was da genau ausgewertet wird und ob das überhaupt eine Relevanz hat. Und wenn es eine hat, wie viel dann aus Sicht von Google. Ich meine, diese 100% bei den Tools kann auch nur ein Faktor mit 1% von den vielen bei Google sein.
Wennste Dich mal in meinem Bereich (Unterkünfte / Reise) umschaust, dann wirst Du bemerken, dass die Big-Player ganz vorne, TFW, Booking, AirbnB und Co alle Seiten haben, die eigentlich gegen alles verstoßen, was Google so vorschreibt. In den Tools können die froh sein, wenn die auf 10 Punkte oder 10% kommen. Ladezeiten von teils über 10 Sekunden etc. Ist das wichtig? Wohl nicht wirklich, denn sie stehen ja allesamt in den Top10. Also wichtig wohl schon, aber nicht mit dem Gewicht, was diese Tools da suggerieren.
Und Dein Mitbewerber.... Das steht ja nicht in der Grafik. Wie viele Links hat der denn? Von welchen Seiten? Wie viele Links haben die jeweiligen Seiten? Wie alt ist die Seite und die Linkseite? Was hat die für Content? Diese Tools zählen, wenn überhaupt, nur Wörter auf der Seite, aber ob das sinnvoll ist oder "Lorem ipsum" wissen die nicht.
"Metaangaben" steht da in der Grafik. 100 und 80%, Was sollen das denn für Metaangaben sein, die da ausgewertet werden? Wichtig ist NUR ein unique Title pro Seite. Bei der Länge geht es schon los. Da gibt es Richtwerte, aber die sind bei Desktop und Mobil unterschiedlich und kommen nicht auf die Anzahl der Zeichen, sondern der Laufweite der Buchstaben an und welche Schrift verwendet wird, also auch die Laufweite beeinflusst, entscheidet Google. Also kann man die so gar nicht beziffern. Alle anderen Angaben in den Meta sind nutzlos. Ok, robots könnte noch was sein, wenn man da falsche Daten setzt.
Server 0%. Wie schlecht muss ein Server denn sein, dass man 0% erreichen kann? Das bedeutet ja eigentlich "nicht erreichbar", offline, Stecker gezogen.
Seitenqualität. Was genau ist das? Wer oder was entscheidet, ob eine Seite oder ein Buch gut oder schlecht ist? Kommt das nicht auf den Betrachter an, der drauf ist oder sich das Buch kauft?
Als Tools, so einfach nutzbar, mit wenigsten ein paar handfesten Hinweisen, auf was sich deren Berechnung der Rangpunkte beziehen ist Lighthouse. Entweder hier https://pagespeed.web.dev/ oder eben im Chrome in der DEV-Console. Wobei es bei denen aber eher um Ladezeit, Usability, Technik geht. Aber auch hier wirst Du merken, dass meine oben erwähnten Reise-Mitbewerber auch grottenschlecht abschneiden, aber dennoch auf Platz 1 stehen.