Beiträge von Synonym

    Finde ich interessant, denn eine meiner Seiten ist da wohl seit dem 2. Februar drinnen. Zumindest habe ich einen entsprechend neuen Tab in der GSC und Impressionen und Klicks dazu. Nutzen und mal selbst schauen, was da so kommt oder drinnen ist? Nö, geht nur, wenn man Google auch gleichzeitig erlaubt, alle Suchanfragen (App- und Web-Aktivitäten) etc. zu speichern und auszuwerten. Selbst Interessen manuell festlegen ist nicht, geht nur in Kombination. Genau das habe ich aus und werde den Teufel tun, das zu erlauben.

    Und es gibt laut Google technische Anforderungen, die eine Seite erfüllen muss, um überhaupt in Discover erscheinen zu können. Wundert mich dann, dass eine von mir drinnen ist, denn die Anforderungen erfüllt sie sicherlich nicht, also keine von der ganzen Domain.

    Was genau bringt an Redis denn Nachteile? Welche sind das? Erläutere das mal bitte. Redis sammelt die Requests und wenn es dann, je nach Einstellung, 10, 100 oder 1000 sind, dann werden die mit einer einzigen Query in die Datenbank geschrieben. Ohne Redis muss jeder einzelne Request geschrieben werden. Also ein Mysql-Zugriff mit einem Insert, anstelle von 1000x einer.

    Dazu kommt das Tracking selbst. In Redis schreiben dauert vielleicht 20ms. Wie lange dauert es, direkt in die DB zu schreiben?

    Daher die Frage, was das für Nachteile sein sollen, denn du schreibst ja, es hat nur Nachteile.

    Beim Seitenaufruf generieren ist kein Problem, wenn man nicht ständig drauf ist. Wichtiger ist da, im Dashboard die Live-Ansicht zu deaktivieren, denn die verursacht richtig Traffik bzw. Requests. Nginx macht hier bei mir keinen Unterschied, die Scripte laufen lokal auf jeder Domain, verteilen sich also und dann kommt erst mal Redis. Und ob dann Apache oder Nginx einen DB-Zugriff auslöst, macht keinen Unterschied.

    Hatte dazu gestern just das hier in einem Newsletter bekommen.

    https://medium.com/@whytryai/how-…es-e272e64d22c3

    Ich weiß nicht mehr, aber Stable Diffusion hatte da auch was. Ich weiß nicht mehr, wie das hieß, habe nur noch die Erklär-Grafik im Kopf. Da wurden Bilder von Personen und Gesichtern quasi "erkannt" wie mit einer Bilderkennung und dann konnten die über diese erkannten Werte in andere Positionen gebracht werden (motion). Also aus einem stehenden Mann in einer Straße, wurde eine Person, die in die Luft sprang etc. Hab aber echt keinen Schimmer mehr, was das war. War ein Addon / Model für SD.

    Also so was wie das da, aber ein anderes halt: https://www.nextdiffusion.ai/tutorials/how-…table-diffusion


    ContrelNet war aber auch beteiligt.

    Also Du meinst, da kommt einer auf Deine Seite. Sieht erst mal alles Netto. Sucht sich was aus, geht in den Bestellprozess und wählt dann dort EU aus jetzt wird das Cookie gesetzt. Dieses Cookie sorgt dann dafür, wenn er beim nächsten mal auf der normalen Seite ist, er alles Brutto sieht?

    Echt jetzt? Also so?

    Was denn das für ein Schwachsinn. Entweder nutzt man die Auswahl dann nur für den Bestellprozess oder man wählt eben vorher, also schon auf der normalen Seite aus, für wo man bestellen will. Das könnte man dann ja auch ändern, wie bei einer normalen Seite auch, hin und her springen zwischen "Privatkunde" und "gewerblich".

    Cookies löschen. Na klar geht das, warum auch nicht, Du kannst es ja auch setzen. Auch das mit dem Button würde gehen. Die Frage wäre da nur, was der Shop zulässt und wie, also per PHP oder eben per Javascript.

    Mit JS z.B.

    Code
    document.cookie = 'blkcookietest=1; path=/; SameSite=Lax; Secure; expires=Thu, 01-Jan-1970 00:00:01 GMT';

    Du musst quasi genau das machen, was vorher gemacht wurde, um das Cookie zu setzen, also mit den gleichen Daten. Nur das Verfallsdatum wird auf eine Zeit in der Vergangenheit gesetzt.

    Das da oben ist von mir aus einem Cookietest. Da wird per JS ein Cookie gesetzt, abgefragt, ob es gesetzt wurde und dann direkt wieder gelöscht.

    Theoretisch, wenn in dem Cookie noch andere Dinge sind und nur das Land entfernt werden soll, könntest Du das Cookie auch einfach überschreiben.

    Genauso, also mit JS oder PHP könnte man das auch mit einem Button machen. Wobei Du halt dann wieder wissen musst, was in dem Cookie genau drinnen steht. Es muss halt exakt das gleiche sein, damit es gelöscht wird.

    Anmerkung: "Das gleiche sein". Also die gleichen Parameter wie aus der Erstellung. Der Inhalt als solcher ist egal.

    Sicherlich wurde es ja schon bemerkt, Google zeigt bei den Suchergebnissen keinen Cache mehr an. Bisher war es nur noch mit Anmeldung am Google-Konto möglich, nun ist es auch dort verschwunden.

    Es geht aber dennoch, sogar einfacher als vorher und ohne extra Add-ons. Einfach etwas Javascript direkt als Favoriten ablegen, fertig.

    Ist eigentlich nur für mich gedacht gewesen, weil ich es hasste, dass das nicht mehr ohne Anmeldung geht, aber ich schreibe es dennoch mal hier rein. Kann sein, dass es hier und da nicht funktioniert, das wichtigste geht aber, wenn denn ein Google-Cache überhaupt vorhanden ist.

    Einfach ein Lesezeichen manuell anlegen und als Webseite / URL den Javascript-Code eingeben. Fertig. Bei einem Klick darauf wird dann der Cache von der aktuellen Seite in einem neuen Tab geöffnet. Sollte es zumindest, im Firefox geht es.

    Code
    javascript:void function () { (function() { let OpenGoogleCache = function(w, d) { let url = location.href; let cache_url = 'https://webcache.googleusercontent.com/search?q=cache:'+encodeURI(url); w.open(cache_url, '_blank').focus(); }; let gc = new OpenGoogleCache(window, document); })() } ();

    Ich gehe davon aus, dass Du Personen meinst, die die KI erstellt hat und keine echte, die irgendwo im Netz ist, ala Deep-Fake.

    Da musst Du etwas mit rumspielen. Das dauert, aber geht durchaus (aber nicht perfekt). Wobei "ein und dieselbe" dann eventuell nicht 100% passt.

    Ansatz 1: Nutze eine gute und klare Vorlage der Person. Also am besten nur die Person selbst, ohne einen Hintergrund oder eben alles, was ablenkt. Wenn ein Bild da nicht ausreicht, dann nimm mehrere. 3, 4 8, keine Ahnung. Die können dann auch unterschiedliche Blickrichtungen haben, das ist eigentlich egal, solange die Person selbst als solche erkennbar ist, dass es die gleiche ist. Mit dem Prompt muss man dann wirklich experimentieren und vor allem auch eine Gewichtung auf die Bilder setzen (--iw x) und eventuell den Style auch auf "raw" setzen, damit die KI nicht zu viel selbst erfindet.

    Ansatz 2: Ein Bild mit der Person erstellen lassen, die man möchte. Dieses Bild dann variieren. Aber nicht mit "vary subtile/strong", sondern mit "vary region". Dann im Bild das auswählen, was geändert werden soll, also alles außer der Person eben und einen neuen Prompt eingeben. Die KI lässt denn dann den nicht ausgewählten Bereich eigentlich unangetastet und füllt dann mit dem neuen Prompt den markierten Bereich. Damit sollte zumindest der Hintergrund änderbar sein, aber der Blickwinkel dann nicht. So sind eigentlich die Bilder zu Halloween entstanden. Die Personen und Kostüme waren eigentlich gut, der Hintergrund aber falsch. Also eben das alles ändern lassen.

    Ansatz 3: Mit dem Seed arbeiten. Also erst mal ein Bild erstellen mit einer Person, die einem dann gefällt. Nichts anders mit dazu. Das passende Bild dann skalieren und downloaden. Den Seed dazu abfragen. Dann (wie in Ansatz 1) neuen Prompt. Bild von vorher, Seed von vorher und wichtig, Prompt von vorher. Man kann den dann erweitern, aber nicht initial ändern. Der Original-Prompt muss enthalten sein. Eignet sich für kleinere Änderungen, wie "gib der eine Tasse Kaffee in die Hand".

    Ansatz 4: Auch mit Vary-Region, aber umgedreht. Bild von der Person erstellen lassen und downloaden. Neues Bild mit anderer Position, Handlung erstellen. Dann per vary region das Gesicht oder die Person auswählen zum Ersatz. Im Ersatzpromt dann das Bild von vorher nehmen. Anders ausgedrückt: Das Gesicht des neuen Bildes mit dem von vorher ersetzen.

    Das geht alles nicht 100%, kommt aber eigentlich ganz gut hin.

    Sagt mal, kann es sein, dass Google nun vermehrt URLs spidert, die als reiner Text da stehen? So seit dem 10.1.?

    Oder noch seltsamer, Links, die in Foren gepostet werden, deren href korrekt ist, aber der Anker-Text über einen Shortener geht, also mittig per "..." gekürzt ist?

    Bei mir schlagen da nun immer mehr dieser Links auf, natürlich alle mit einer Mail, wegen kritischer Fehler, 404, sollte behoben werden. Gab es früher auch schon, aber in dem Ausmaß kenne ich das eigentlich nicht.

    Hier im Forum z.B. ist so einer. Der Href ist korrekt, Google ruft aber die sichtbare URL bis zum "..." ab.

    Die anderen sind viele verschiedene, aber eine ganz besonders. Wieder so eine Spamseite, die in dem Fall die Suchergebnisse von Bing kopiert und online stellt. Die schreiben auch die URL der eigentlichen Seite dazu, allerdings mit einem Fehler, denn an jeder URL hängt ein "/1000". Und was macht Google, spidert die falsche URL als Text mit dem /1000 und meldet Fehler wegen 404. Beispiel:

    Und natürlich ist diese Spamseite wieder mal so eine, die nur der Google-Bot sieht und man als normaler User nicht. Ok, geht schon, JS abschalten und UA faken, dann sieht man den Inhalt. Ansonsten gibt es Porno und Glücksspiele.

    Wie ich schon gestern sagte, das Problem dabei ist nicht unbedingt der Fehler selbst. Eventuell ist es auch nur ein Bug in der Anzeige oder sonst was.

    Das Hauptproblem ist, dass Google das Crawling einstellt, wenn die robots.txt fehlerhaft ist. Und das eben auch, wenn das nur ein Bug ist und gar nicht fehlerhaft, aber als fehlerhaft protokolliert wird. Das macht Google nicht, wenn es einen 404 oder einen 410 gibt, denn das würde als "gültig" zählen. Bei den hier angeblichen Statuscodes ist es aber ein Fehler und das führt dazu, dass das Crawling gestoppt wird.

    Ich habe hier auf Seiten teilweise am Tag bis zu 60 robots.txt-Abrufe im Log stehen, aber nur einen oder gar keinen regulären Bot-Zugriff. Also genau das, was Google in der Hilfe schreibt.

    Dann kommt eben auch dazu, dass die robots.txt auch abgerufen oder geprüft wird, wenn die ads.txt für Adsense getestet wird. Auch hier hagelt es mittlerweile im Stundentakt Fehlermeldungen, von wegen ads.txt nicht abrufbar, Umsatzverluste deswegen usw. Aber auch da natürlich. Adsense schreibt ja nur, dass die ads.txt nicht abrufbar war. Sie schreiben aber nicht welcher Tag, welche Uhrzeit oder welche Domain. Und in der Liste der Domänen, immer wenn ich reinsehe, ist alles "gültig". Da steht aber auch nur der letzte Zugriff und kein Protokoll.

    Und das Schlimmste ist ja, dass man von Google wegen jedem Scheiß sofort eine Mail bekommt. Da geht ein Scheme nicht, da fehlen wichtige Angaben, da ist was anderes, dort ist ein (berechtigter) 404 usw. Alles belangloses Zeug, das aber sofort benachrichtigt wird. Bei so was wie "Crawling wird beendet, wegen robots.txt-Fehler", kommt keine einzige Nachricht.

    Und wie ich schon gestern sagte, Alex. Dieser doofe Spruch, das ist nicht wegen Google, sonst müsste es viel mehr Leute mit dem Problem geben, ist völlig hirnrissig, denn wer bitte schaut schon in die Einstellungen und dann robots.txt-Status oder Host-Status. Da muss man ja erst dreimal was anklicken, bevor man das überhaupt erreicht. Logisch, dass das viele nicht merken oder wissen. Ich hab es auch nur durch Zufall gefunden, weil ich danach suchte, warum meine Seite massiv am 15.12. abgeraucht ist. Und siehe da, da waren dann die robots.txt-Fehler ab dem 15.12. Hätte ich nicht danach gesucht, hätte ich es auch nicht gesehen. So viel also zu "müssten viel mehr sein".

    Dazu eben, dass es genau diese Fehlermeldung die Google da ausgibt, in der Hilfe der möglichen Fehlermeldungen gar nicht gibt. Dann hieß es ja, das wäre angeblich nur ein Übersetzungsfehler, der nur in Deutsch auftritt. Komisch, denn wenn ich meinen Account auf Englisch umstelle, dann steht das "Not fetched - N/A" und diese Fehlermeldung gibt es in der Hilfe auch nicht.

    Dieses "nicht verfügbar" in Deutsch heißt für mich eigentlich so viel wie, die Datei ist nicht verfügbar. Aber das N/A hat ja eigentlich eine andere Bedeutung, nämlich dass nicht die Datei nicht verfügbar ist, sondern die Fehlermeldung nicht verfügbar ist. Zu deutsch gesagt, Google weiß nicht, warum das "not fetched", der Grund dafür ist "N/A". Wir würden schreiben "nicht zutreffend".

    Ein gutes Beispiel dafür ist nämlich auch, dass ich ja wirklich einen Ausfall hatte über 24 Stunden. da war ein Server aus. Und auch da protokollierte Google die gleiche Fehlermeldung. So was wie "timeout" oder "server nicht erreichbar", gibt es bei Google in den Gründen gar nicht, da gibt es immer nur "200, 404, 410" für "alles in Ordnung" oder eben "500, 429, 403, 401" für "fehlerhaft". Und das ist ganz einfach, ein Server, der aus ist, kann nichts senden. Es wird aber dennoch ein angeblich fehlerhafter Statuscode als Grund genannt. Und nun sind wir wieder beim aktuellen Zeitraum. Die Zugriffe kommen hier gar nicht an. Also auch da möglich, dass Google schlicht gar nicht auf die robots.txt zugreift, warum auch immer, also wie wenn der Server aus wäre oder die Verbindung unterbrochen und dann eben dennoch behauptet "500, 429, 403, 401".

    Verstehe ich das richtig? Du hast keine robots.txt Probleme?

    Du bist doch auch auf Alex Servern, oder?

    Wenn Du keine Probleme hast und bei Alex bist, dann kann man ein standortbedingtes Problem auch ausschließen. Das war der letzte noch mögliche Ansatz.

    Meine Domänen haben das Problem alle. Alle Hetzner, aber verschiedene Server. Also am Server selbst liegt es auch nicht. Eine Domain hat das Problem nicht, die ist bei Cloudflare. Von Alex kann ich nur in drei Domänen reinsehen, auch die haben das Problem.

    Also jede Seite, auf die ich zugreifen kann in der GSC, hat die Probleme. Daher der Gedanke mit standortbedingt, Vogtland.

    Meine Config kann ich ausschließen. Sind zwar verschiedene, aber dennoch von mir. Aldx hat aber eine ganz andere und das Problem eben auch.

    Also ich bin hier gerade in einer Pizzaria :)


    Und draußen sind noch andere Gebäude, keine Ahnung welche, eine Galerie mit Bildern, ein Audiotrom, da war aber alles still und keiner da und eine Art Schwebebahn, mit der man über den Platz schweben kann usw. Muss aber nun sprichwörtlich weg ;)

    Also anfangs erst mal die "Einweisungen" durchlaufen und die Aufgaben erfüllen, dann kann man aus der Liste https://decentraland.org/places/worlds/ auswählen, wo man hin will.

    Die Leute da kann man auch anquatschen. Dann baut das System eine Verbindung mit denen auf.

    Habe das aber bisher auch erst ein paar Stunden getestet.

    Dann tippe ich halt mal alleine für mich hin.... Witzig. Das ist ein Problem, das gravierend ist, wenn es denn wirklich eines ist und keine Fake-Meldung.

    Laut Google sind die Fehler allerdings korrekt. Es gibt auch bei denen auf der Seite keine Probleme, das liegt also an den Clients.

    Also das hier:


    Das hier


    oder das hier:


    sind angeblich alles Probleme, die der Client verursacht. Und das "nicht verfügbar" kommt nur, wenn der Client einen Status 500, 429, 403 oder 401 sendet. Ein 404/410 wird als "verfügbar" gewertet, steht aber als "404" in der Liste.

    Witzig dann, dass das Client-Antworten sein sollen, bei mir in den Logs dazu aber nichts steht. Die Zugriffe haben nie stattgefunden, wie von einer Firewall oder einem anderen vorgeschalteten Dienst gesperrt.

    Was sagt der Hoster dazu? Es gibt kein Problem, keine Sperren, keine Firewall oder sonst was, das nur den Zugriff auf die robots.txt blockieren würde.

    Fakt ist, ich kann teilweise noch nicht mal Seiten indexieren lassen, weil dort der Fehler auch kommt.