Beiträge von Synonym

    Also ich muss da Lorem recht geben und einfach mal "ja" sagen.

    Warum sollte FB das nicht dürfen. Die Frage hier ist viel mehr, dürfen das die anderen Leute, die einfach mal ganze Postfächer hochladen und somit auch Daten fremder Leute... Die bekommen einen Hinweis, was mit den Daten gemacht wird, dass diese auf FB übernommen werden und dass die berechtigt sein müssen, dies zu tun. Diese Hinweise müssen bestätigt werden.

    Die Frage ist also weniger, ob FB die Daten haben darf sondern viel mehr, ob sie FB gegeben werden durften.

    Ja, Margin, das meinte ich doch. Wesitebaker war hier wohl etwas falsch gesagt. Ein zentrales System, das die Dateien nach extern verteilt. Im Grund so wie die Softwareverteilung von MS innerhalb von Firmennetzwerken. Diese Funktion hat mein FTP-Prog allerdings auch so in der Art drinnen. Einmal die Config bennenen, dann, welche Server betroffen sind und alle auf einen schlag hochladen / updaten ;)

    Ok, dann kann ich es mir denken. Ist wohl eine Art "Webseitbaker", der aus den Bausteinen direkt fertige HTML-Dateien erzeugt und die dann auf dem Server liegen. Ehrlich gesagt, das wäre gar keine schlechte Idee.... Dann wären die komplett statisch :) Wobei. Geht bei mir leider nicht wirklich, hab ja auch Kommentare drinnen und so.

    Zitat von peterhobbert;28494

    Naja was heisst ob wp etwas hat was man unbedingt braucht. du hast halt ein geringen zeitaufwand im gegensatz zu etwas komplett selber machen. und es lässt sich leicht etwas einpflegen. und da es ja sowieso nichts großes sein soll ist das doch genau das richtige oder?


    Genau deshalb war es ja die Frage, ob WP was hat, was man unbedingt braucht ;) Ich habe hier 3 WP-Installationen laufen, da schreibe ich keine 10 Artikel im Jahr. Schreiben muss man es sowieso, also kann man die Zeit nicht rechnen. Einstellen geht schnell. 2 Min pro Artikel. Aber! Und genau das ist das Problem an der Sache: Für Updates, die ja alle Schiss lang kommen brauche ich immer mehrere Stunden, bis dann wieder alles läuft wie zuvor und das für jede der drei Installationen. Updates, die Funktionen bringen, die ich gar nicht brauche (99% sind ungenutzt) oder eben Updates gegen Sicherheitslücken, die nur deshalb so gefährlich sind, weil es ein bekanntes CMS ist bzw. weil es eben jeden "Mist" kann.

    Daher die Frage, ob WP was spezielles hat, das man braucht. Wenn nämlich nicht, dann kann ich mir den ganzen Update-Mist und Anfälligkeit von freien CMS-Systemen sparen. Hab ja schon mein System. Ist noch nicht fertig, aber es läuft. 4 Stunden Entwicklung. 2 Min. um einen Artikel einzustellen und KEINE Updates notwendig! In vier Stunden würde ich es aber gar nicht schaffen meine WP2.5 auf die 3.x upzudaten, das dauert wesentlich länger und neu einlernen muss ich mich dann auch wieder.

    Frank-L
    Genau das war der Grund, warum ich nicht 100% statisch wollte. Ich hab jetzt quasi mein eigenes CMS, bestehend aus Core mit genau den Funktionen die ich brauche und dem Template. Einlernen geht da auch in 12 Monaten wieder sehr schnell, denn das ist zu 99% reines HTML. Bei den WP-Templates ist da ja mehr PHP drinnen als HTML. Und, das ganze "System" besteht aus 7 Dateien. Allerdings muss ich die Artikel aktuell noch in die DB eintragen. Reicht mir aber auch, einen Adminbereich brauch ich nicht wirklich ;)

    Kommt drauf an, was das für ein Trojaner ist und was Du so alles gemacht / installiert hast. Rein theoretisch könntest Du auch einen Wiederherstellungspunkt von vorher setzen bzw. wiederherstellen. Bezüglich der Daten allerdings, mehr als scannen geht da wirklich nicht, wenn man kein Backup hat.

    Daten sichern ja, das ist eigentlich das Wichtigste und auch alles. Nur, Du musst halt auch sicherstellen, dass die Daten virenfrei sind, sonst sicherst Du den Trojaner ja mit ;) Also Daten in einem speziellen Ordner sollten eigentlich sauber sein, aber bei den Dingen aus dem persönlichen Profil ist das nicht unbedingt so.

    ... Hm, ich habe nun einfach den Beutel von gestern genommen und nochmal Kaffeepulver oben drauf :floet: Ich vermisse aber meine Bodum-Kaffekanne... Da gab es keine Filter...

    Zitat

    Setzte mal ein guten link gehts 2 Plätze vor 3 Tage später biste wieder hinten. Sieht so als als ob der Gockel momentan alle links entwertet.


    Davon gehe ich ganz stark aus. Ist bei mir nämlich auch so, auch bei ganz einfachen Kombis. Links drauf und schon geht es vor von 20 auf 5 oder so. Wenige Tage später ist es wieder 20.

    Und meine beiden Seiten, bei denen ich nicht reagiert habe sind auch weiterhin im freien Fall. Links aufbauen / abbauen, nichts wirkt, die fallen weiter. Meine dritte Seite, mit gestelltem und abgelehntem Neuantrag ist zwar auch gefallen, aber dennoch stabil auf den hinteren Plätzen.

    Ist nicht sonderlich schwer. Bei der Cond sonst sind ja die Zeichen ^ oder ! mit dabei. Also beginnt (^) oder beginnt nicht (!^) mit xyz. Die fehlen hier aber.

    Da muss man nur eine Besonderheit wissen, in der sich die Cond von einer Rule unterscheidet.

    Bei einer Rule muss "yxz" immer exakt matchen, also von Anfang bis Ende. Bei einer Cond nicht. Dort wertet der Apache es immer selbst als "*yxz*", wenn keine anderen Bedingungen wie "^!*+" etc da sind. Der String muss also nur enthalten sein. Genau genommen zählt also alles was darauf zutrifft "*alte-domain.de*". Hinter dem .de kann aber nichts mehr kommen, da nach der TLD schluss ist. Was anderes nimmt der Apache (vhost) ja gar nicht an. Davor können beliebige Zeichen kommen, müssen es aber nicht. Wichtig ist nur, dass "alte-domain.de" im Host vorkommt.

    Einschränken muss man das nur, wenn es eventuell andere Hosts auf dem System hibt, die da auch zutreffen würden. z.B. "alte-domain.de.domain2.com", also "alte-domain.de" als Name für eine Sub. Hier wurde die Cond auch matchen, da der String ja enthalten ist, wäre hier aber falsch, da nicht Hauptdomain, sondern Subdomain.

    Geht mir seit ca. 2 Wochen genauso. Das hat wieder extrem zugenommen. Bundesfinanzministerium, Visa, Master, PayPal, Post, diverse Banken etc... Mich regt das auch auf. Wirklich als Spam anlernen geht aber auch nicht, da ich bei vielen halt auch in Wirklichkeit bin und die hin und wieder mal Mails schicken :(

    Die Option (egal wo eingestellt), zählt für alle, die auf diese php.ini zugreifen. Wenn das also 5 Hosts sind, die alle das gleiche PHP mit der gleichen .ini nutzen, dann zählt es auch für die 5. Wenn Du die Möglichkeit hast, einzelne .ini pro vhost zu haben, dann ist es auch nur einzeln.

    Was passieren kann: Eigentlich so gut wie alles, wenn die Scripte unsicher sind oder der Server kompromittiert wird. Wie oben schon mal kurz geschrieben kannst Du ja per file_get_contents() Inhalte aus einer anderen Datei einlesen und weiterverarbeiten. Wenn nun allow_url_fopen aus ist, dann funktionieren da nur lokale Dateipfade. Ist allow_url_fopen aber an, dann funktionieren da auch externe Pfade, URLs eben. Oder eben auch bei fopen und einige andere Funktionen, die intern Dateisystemoperationen durchführen können.

    Wenn Du so was also nutzt und eventuell ungeprüfte Usereingaben verarbeitest, dann kann der unter Umständen eben jede x-beliebige URL aufrufen und Dein Server verarbeitet die Daten dann.

    Hauptproblem war früher da vor allem, dass das auch für include() und require() funktionierte. Man konnte also direkt externen PHP-Code einschleusen (wenn das Script fehlerhaft ist)! Dem ist nun aber nicht mehr so. Wird allow_url_fopen aktiviert, dann ist allow_url_include noch immer aus - das muss man nun extra aktivieren.

    Auch schön hier nachzulesen:
    *** Link veraltet ***

    Im Grund bietet das allow_url_fopen also nur einen vorgetäuschten Schutz. Es kann zum einen nicht alle "Angriffe" unterbinden, erschwert aber gleichzeitig die Nutzung des eigenen Systems, wenn man auf externe Daten zugreifen muss. Es ist und bleibt eben eine Sache vom Scriptentwickler, die Scripte sicher zu machen und vom Hoster, den Server sicher zu halten. Aber eben nicht von PHP. Genau aus dem Grund ist die Option bei PHP auch per default aktiviert.

    Das steht z.B. auf einer Webseite:

    Zitat

    Setzen Sie diesen Wert nur auf on, wenn Sie diese Funktionalität unbedingt benötigen. Denn schon ein include($_GET["filename"]) stellt ein erstklassiges Sicherheitsrisiko dar. Hier sind allerdings auch die PHP-Programmierer gefragt. Denn solche Konstruktionen sind leichtsinnig.

    *** Link veraltet ***

    Das zählt aber eben nicht für PHP 5.2.x, denn da ist der Include() von http nicht möglich. Und grundsätzlich, da es damals ja funktionierte. Ein Programmierer, der so etwas macht, der sollte ganz schnell seinen Beruf wechseln. Es ist schließlich nicht die Aufgabe einer Scriptsprache, die Dummheit eines Programmierers zu beseitigen.

    Ansonsten sah man das ja durchaus öfter. Das waren dann so Seiten, wo in der URL ein ?modul=blablub.php stand. Da könnte man dann natürlich jede andere URL eintragen und das eigene Script würde das ausführen. Aber eben auch nur, wenn das Script nicht prüft.

    So, soviel dazu. Aber Alex muss ich soweit recht geben, dass cURL besser ist. Zum einen unterliegt es nicht den Speicher- und Laufzeitbeschänkungen von PHP, zum anderen kann es simultan nebenbei laufen. Aber gerade für sowas wie getimagesize() ist es ungeeignet. Um das zu lösen müsste man also mit cURL erst mal das ganze File laden um dann lokal getimagesize() zu verwenden.

    Zitat

    Dann werd ich mal die php.ini suchen gehen.


    schau mal im Bereich
    /etc/php5/apache2 (wenn mod_php)
    oder bei
    /etc/php5/cgi (wenn FCGI)
    Kann aber auch bei Dir im Dir liegen, je nach Serverconfig.

    Alternativ, wohl schneller und genauer. In der phpinfo() oben die Zeilen 5, 6, 7 und 8 beachten. Da steht, wo die globale Ini liegt, welche verwendet wird und welche zusätzlichen auch eingebunden werden.