htaccess Sicherheit und Bandbreite sparen durch Bots

  • Ich denke der ein oder andere kann sicherlich damit auch was anfangen. Mich regte das nicht nur hier im Forum auf ( manchmal 10k User Online durch Bots ), deswegen sperrte ich die einfach per htaccess


    Die htaccess kann aber noch mehr für die Sicherheit einer Webseite tuen. Die htaccess bzw die Auszüge davon stammen von 7G Firewall und Admin Tools von Joomla. Ich weiss das einiges Redundant ist, allerdings bin ich zu faul um das auseinander zu klamüsern.



    Beachtet bitte das bei der 7G Erweiterung ein PHP Script mit Logs eingebunden werden kann. Davon rate ich ausdrücklich ab! Hab mich dadurch selber ausgesperrt :)

    Ich habe das Script um bestimmte Bots erweitert. Also wer Semrush, Seekbot etc drin haben will, einfach entfernen aus der htaccess.


    Meine htaccess sieht in punkto Sicherheit noch etwas erweitert aus. Du kannst KEINE PHP bei Joomla direkt aufrufen, es sei denn es gibt eine Regel dazu. Das würde aber bei anderen Sachen nicht funktionieren, deswegen habe ich das hier nicht mit aufgenommen. Hinzugefügt habe ich die interessanten Dinge für die htaccess Sicherheit, die Allgemeingültigkeit besitzen sollten.


    Wer mehr über 7G wissen möchte, es ist Open Source und kann durch PHP und Logs erweitert werden ( rate ich an dieser Stelle nochmals ab )

    https://perishablepress.com/7g-firewall/


    Es spart nicht nur Bandbreite, es ist auch ein klein wenig sicherer durch diese htaccess Regeln.

    wenn etwas möglich erscheint mach ich das, wenn das nicht klappt gehts ans unmögliche und ansonsten das undenkbare.

    Ich denke, also BING ich!


    Support 24h Bereitschaft 0163 2161604 - NUR Für Kunden von SEO NW!

  • Code
    SetEnvIf user-agent "Go!Zilla" stayout=1

    1997 laesst gruessen.


    Ich hab mir gerade die verlinkte seite durchgelesen. Was ist denn das fuer eine loesung, die sich ausschlieslich auf den user_agent verlaesst der sich ohnehin beliebig setzen laesst? Was ist mit headless browsern die sich genauso wie ein normales google chrome oder firefox verhalten?


    Das ding sieht mir nach einer ueberstuerzten loesung aus von jemandem der die problematik nur zu haelfte verstanden hat.

    Prinzipiell gehoeren solche regeln in eine richtige firewall wo man die requestst auch loggen kann und sieht wann und wie oft welche regel zum einsatz kam um false-positives zu finden, oder in ein backend der seite damit man ggf auch sieht welche pageviews geblockt wurden.


    Nur weil man in der htaccess prinzipiell ips und requests blocken kann, heisst das nicht dass es die firewall ersetzt. Ich fahre ja auch nicht mit meinem auto ueber einen haufen suedfruchte um mir ein glass multivitaminsaft zu pressen...