• Wenn ich das überdenke, dann müsste mit f2b ganz simpel eine Sperre für böse bots zu konfigurieren sein. Ein verstecktes Verzeichnis, dass durch robots.txt ausgeschlossen wird - Syno denk mal weiter, wie bekomm ich dort ohne Aufwand und serverlast ein error produziert?

    Ein error - 1 Monat gesperrt.

    Frei nach Dieter Nuhr
    Das Internet ist zum Lebensraum der Dauerbeleidigten geworden, die immer einen Grund finden, anderen irgendetwas vorzuwerfen, um sich selbst moralisch zu erhöhen.

  • Du meinst sowas: www . seidenhandel . com/admin/?

    Das wird mittel IPTrap gemacht und wirkt totsicher^^
    Eigentlich ist das für die Kiddies da, weil bei diesem Shopsystem der Admin per default unter /admin/ liegt. Bei mir halt nich :D

    EDIT: Ich hab die URL mal editiert. Wenn hier der googlebot aufschlägt, kann der meine Site nich mehr spidern^^

    Wer zuerst "Datenschutz" sagt, hat verloren.

  • Zitat

    Syno denk mal weiter, wie bekomm ich dort ohne Aufwand und serverlast ein error produziert?


    Guter Ansatz. Ich persönlich finde die Analyse eines access-log nämlich nicht sonderlich gut. Es geht, aber es braucht wesentlich mehr Ressourcen, als ein echtes Fehlerlog. Grund: Im Access-Log steht viel zu viel drinnen, was analysiert werden muss, aber gar nicht relevant ist.

    Wie Du da einfach einen Fehler produziert / geloggt bekommst? Mit PHP. Eine index rein, die aufgerufen wird und die macht dann nichts anderes, als einen Eintrag in ein bestimmtes Log zu schreiben.

    error_log hilft hier weiter:
    *** Link veraltet ***

    Dann halt einen Filter dafür erstellen (aber Beispiele gibt es nun mehr als genug, gehören nur angepasst) und los kann es gehen.

    Wenn ein Mensch nicht um dich kämpft, hat er nur gewartet, dass du gehst. ;(