Typosquatting kann man auch humorvoll machen:
Wer statt wetter.de weter.de eintippt landet hier ->
*** Link veraltet ***
:p
Weiter gehts dann zu wetter.com ...
Typosquatting kann man auch humorvoll machen:
Wer statt wetter.de weter.de eintippt landet hier ->
*** Link veraltet ***
:p
Weiter gehts dann zu wetter.com ...
Zum Kennenlernen:
*** Link veraltet ***
ganz unverbindlich ...
Hi cura,
anstöpseln und scannen geht gar nicht.
Weil da läuft ja Dein verseuchtes System noch.
Rechner neu starten und dann von CD oder USB booten.
CD laden von: *** Link veraltet *** ca. 250 MB
Wenn Du kannst das iso nehmen und mit eigenem Brennprogramm auf CD brennen.
Oder die exe, die hat das Brennprogramm mit drin.
Dann Rechner neu starten und im BIOS das Bootmenue(z.B. F8, F11,...)
aufrufen oder bei älterem Rechner auf booten von CD umstellen.
USB nach dieser Anleitung: *** Link veraltet ***
erstellen und s.o. den Rechner davon booten.
Dabei für das Erstellen unbedingt einen sauberen Rechner benutzen.
Die iso bzw. exe haben immer die aktuellsten Virensignaturen mit drauf und sollten auch ohne Update
funktionieren.
Gruss ...
Happy birthday
Monster Movie heisst das Machwerk
von
CAN
fiel mir zu dem Thema ein.
Ich möchte Dir lieber Frido das nicht vorenthalten.
Zwinker ..
Freiheit und Glück
Respekt für Deine Handlungen.
Respekt vor den Anderen.
Respekt vor Dir.
Eins geht nicht ohne das Andere.
...
Das böse Wort hat damit nix zu tun, ich fühle mich respektlos behandelt
wenn ich son Rotz hier lesen muss.
Geh doch Zuhause ...
yah
deep doodoo
Hi ihr Mitmenschen,
ich meine, dass es manchmal ein Segen sein kann etwas nicht zu haben.
Deshalb nicht mehr leben zu wollen ist schon irgendwie paradox.
Da hast Du das Glück, das Du Dich selbst auf das wesentliche schubst
und siehst die Chance die darin liegt erst wenn sie an Dir vorbei gegangen ist.
Mit mitfühlenden Grüssen ...
ImgBurn brennt gut iso
mussu mit was anderem bauen ...
:-)*** Link veraltet ***
Blogs weniger, aber sowas:
*** Link veraltet ***
*** Link veraltet ***
*** Link veraltet ***
Ich sach dann Bescheid ...
Moin,
mal genauer:
LINUX Webserver mit Apache
einige Domains
Beispiel Domain .htaccess:
RewriteEngine On
RewriteCond %{HTTP_HOST} ^www.domain.de$ [NC]
RewriteRule ^(.*) https://beispiel.rocks/beispiel.rocks/domain.de/$1 [L,R=301]
RewriteCond %{REQUEST_METHOD} ^(TRACE|TRACK)
RewriteRule .* - [F]
#Bots
RewriteCond %{HTTP_USER_AGENT} (magichnicht) [OR]
...
RewriteCond %{HTTP_USER_AGENT} (magichauchnich) [OR]
RewriteCond %{HTTP_USER_AGENT} (magichschongarnicht)
#RewriteRule ^(.*)$ - [F]
RewriteRule ^.*$ https://beispiel.rocks/beispiel.rocks/127.0.0.1/
#Klauer
<FilesMatch "\.(jpg)$">
RewriteEngine On
RewriteCond %{HTTP_REFERER} ^https://beispiel.rocks/beispiel.rocks/(www\.)?doofseite.com/.*$ [NC,OR]
...
RewriteCond %{HTTP_REFERER} ^https://beispiel.rocks/beispiel.rocks/(www\.)?dummseite.com/.*$ [NC,OR]
RewriteCond %{HTTP_REFERER} ^https://beispiel.rocks/beispiel.rocks/(www\.)?gehblossweg.de/.*$ [NC]
RewriteCond %{REQUEST_FILENAME} !extra.jpg$
RewriteRule .*\.(jpg)$ https://beispiel.rocks/beispiel.rocks/domain.de/fotos/extra.jpg [R]
</FilesMatch>
Alles anzeigen
Nehmen wir als Beispiel den Teil unter #Bots:
Das soll auf allen Domains greifen.
Ich will nicht das irgendwelche SEO-Supertools die Seiten einlesen und auswerten
hab ich nix von und hilft nur denen die das benutzen.
Ich will aber nicht auf jeder domain die .htaccess von Hand damit befüllen.
Über diesen Ansatz denke ich gerade nach:
*** Link veraltet ***
Soweit erst mal ...
Ich hoffe doch sehr dass in 10 - 15 Jahren sich sowas wie Siri überholt hat und wir per Neocortex-Schnittstelle mit dem großen Bruder kommunizieren...
Nuja brauch ich doch,
ich will weder einen Honigtopf aufstellen, noch in jede Seite ein script einbauen.
Danke aber die Varianten sind sozusagen kalter Kaffee ...
Gruss
Hi,
nachdem ich ein nettes kleines voting-script auf einer Seite eingebaut habe, musste ich feststellen, das es ein paar Probleme gab. Diverse web-spider legten neue Kategorien an indem Sie query-strings absetzten die noch nicht existente Id´s aufriefen und damit Neueinträge in die Datenbank schrieben.
Auch wurden aus einem bekannten Bot/Crawling-Netzwerk querys gesendet die einzelne Seiten runterwählten ...
Das hat sich erledigt aber:
Beim Durchsehen der server-logs fand ich neben diversen hot-linkern auch jede Menge spider die einiges an traffic verursachen.
Hot-linker bekommen statt den Dateien ein "kostenloses" Werbebild ...
Einige spider sind anhand ihrer UserAgent-angabe ausgesperrt.
Beides per .htaccess und von Hand.
Frage?
Welche spider würdet ihr zulassen und welche nicht.
Ich möchte die .htaccess aber nicht dauernd von Hand bearbeiten und überlege ein script zu schreiben mit dem sich das komfortabler erledigen lässt.
Eventuell auch zentral über httpd und RewriteMap.
Frage?
Muss ich das Rad nochmal erfinden und ist wer daran interessiert sowas als gemeinsames Projekt zu realisieren?
Gruss
Wenn Du denkst Du denkst dann denkst Du nur Du denkst.
(Juliane Werding)
WRT54GL
Kucks Du hier:
*** Link veraltet ***
Heisst der router läuft mit Linux. Heisst der benutzt ip-tables.
Wenn Du openwrt nutzt solltest Du Dir das so zurecht basteln können.
googeln : openwrt
Gruss und Schluss ...
Dabei sein ist alles.
19. mai
bin dabei
...