Grade noch was gefunden, was zu http-Aufrufen passen könnte:
*** Link veraltet *** und *** Link veraltet ***
Frage zu fail2ban
-
-
Wenn ich das überdenke, dann müsste mit f2b ganz simpel eine Sperre für böse bots zu konfigurieren sein. Ein verstecktes Verzeichnis, dass durch robots.txt ausgeschlossen wird - Syno denk mal weiter, wie bekomm ich dort ohne Aufwand und serverlast ein error produziert?
Ein error - 1 Monat gesperrt.
-
Du meinst sowas: www . seidenhandel . com/admin/?
Das wird mittel IPTrap gemacht und wirkt totsicher^^
Eigentlich ist das für die Kiddies da, weil bei diesem Shopsystem der Admin per default unter /admin/ liegt. Bei mir halt nichEDIT: Ich hab die URL mal editiert. Wenn hier der googlebot aufschlägt, kann der meine Site nich mehr spidern^^
-
Zitat
Syno denk mal weiter, wie bekomm ich dort ohne Aufwand und serverlast ein error produziert?
Guter Ansatz. Ich persönlich finde die Analyse eines access-log nämlich nicht sonderlich gut. Es geht, aber es braucht wesentlich mehr Ressourcen, als ein echtes Fehlerlog. Grund: Im Access-Log steht viel zu viel drinnen, was analysiert werden muss, aber gar nicht relevant ist.Wie Du da einfach einen Fehler produziert / geloggt bekommst? Mit PHP. Eine index rein, die aufgerufen wird und die macht dann nichts anderes, als einen Eintrag in ein bestimmtes Log zu schreiben.
error_log hilft hier weiter:
*** Link veraltet ***Dann halt einen Filter dafür erstellen (aber Beispiele gibt es nun mehr als genug, gehören nur angepasst) und los kann es gehen.
-