Na ich bin grade weiter am PR Abfrage Script dranne. Jetzt liest er schon alle URL´s einer Webseite mit Tiefe aus, die ich festlegen kann. Leider darf das nicht direkt an Google so schnell geschehen, jetzt hab ich ein Delay festgelegt was aber
nach echo die ganze zeit chläft bis das script durchgelaufen ist. das ist suboptimal, kann man nicht irgendiwie eine andere funktion nutzen, die dann echo macht und dann schon ausgibt, dann wieder ne pause macht usw
ich hab dazu nichts brauchbares gefunden, sleep weiss nicht was man da machen soll
PHP Sleep ()
-
-
flush ist auch nicht mein freund
-
eine Datenbank mit allen urls anlegen und dann über Cronjob alle 10 min aktualisieren, angefangen bei dem ältesten Eintrag, wäre mein Ansatz
-
hmm.. es ist ja für die seite:
*** Link veraltet ***
hab version 2 des scripts fertig, jetzt wird per curl die erste ebene ertmal ausgelesen und es kann der pagerank dann für alle ausgelesenen ermittelt werden. da problem ist das die anfrage in millisekunden geht, und wenn dann auf einer seite 100 links sind werden 100 pageranks in einem brchteil einer sekunde bei google abgefragt, da soll ja nicht ist auch nicht erwünscht von google..
weiss nicht wo ich da ansetzen. sleep oder die anderen php sachen sind unbrauchbar, da einfach nur die laufzit des script verlängert wird und einen timeout auslöst.
ajax wäre ne idee, kann i aber net, das man das irgendwie dynamisch nachlädt.
kann datt einer?
oder ne andere idee. javascript fällt ja eigentlich auch raus... -
manchmal weisss ich auch nicht.. die lösung ist so einfach. einfach die urls buffern, und aus der schleife nehmen. dann kann man neue schleife machen mit sleep, und das abarbeiten. hmm evtl ogar nen random sleep, man weis ja nie
-
Also ich würde das irgendwie aufteilen. Habe jetzt nicht wirklich eine Lösung, aber so einen Gedanken. Du liest ja alle URLs der Seite aus und willst die dann abfragen. Das sind für mich also zwei getrennte Bereiche. Das Auslesen geht sehr schnell und das Ergebnis der Anzahl ist unklar. Die Abfrage ist die definiert an der Anzahl, aber die Dauer wird manuell gedrosselt. Also würde ich das wirklich trennen und
1. Die Links auslesen aus der 1. Ebene. Liste Anzeigen mit "Wert" oder "in Bearbeitung"
2. Wenn das erfolgt ist, die Abfrage starten und den Wert dann an die entsprechende Stelle packen. Ajax ist da Dein Freund. Eventuell sogar lokales JS mit Ajax gemischt, dann können die Abfragen direkt über den Client laufen (wenn ich da nun keinen Denkfehler drinnen habe)... Server ruft URLs ab und listet sie auf. JS fragt den PR ab und kann den dann auch per Ajax an den Server übergeben zum Speichern (wenn gewünscht). Wenn das erfolgt ist (oder kurz vor Ende), dann kann per Ajax der Abruf der zweiten Ebene erfolgen und die wird genauso abgearbeitet.
So in etwa müssten die dynamisch nachladenden Listen bei FB ja auch gehen oder Twitter oder auch die Pins inkl. Markenmanager bei den G-Maps oder ähnliches.
Kann aber auch sein, dass ich da einen großen Denkfehler drinnen habe
-
Zitat von Alex07;8114
manchmal weisss ich auch nicht.. die lösung ist so einfach. einfach die urls buffern,
wo dusde das buffern ....... würds auch so machen wie Gupy sagte ....
... alles in eine SQL reinlegen und dann via Cron wieder auslesen -
ist mir zu kompliziert, hab da stunden dranne gesessen. naja guter gedanke aber. ist zu schwer für mich. hab das in ein multidimensionales array gespeichert, dann mit javascript funktion warten (1) , also eine sekunde. ist mir zu hoch
-
sowas fragt man mit proxies ab, dann braucht man nicht warten