• Na ich bin grade weiter am PR Abfrage Script dranne. Jetzt liest er schon alle URL´s einer Webseite mit Tiefe aus, die ich festlegen kann. Leider darf das nicht direkt an Google so schnell geschehen, jetzt hab ich ein Delay festgelegt was aber
    nach echo die ganze zeit chläft bis das script durchgelaufen ist. das ist suboptimal, kann man nicht irgendiwie eine andere funktion nutzen, die dann echo macht und dann schon ausgibt, dann wieder ne pause macht usw
    ich hab dazu nichts brauchbares gefunden, sleep weiss nicht was man da machen soll

    wenn etwas möglich erscheint mach ich das, wenn das nicht klappt gehts ans unmögliche und ansonsten das undenkbare.

    - nun stolz rauchfrei - Ich denke also Bing ich!

    Support 24h Bereitschaft 0173 6107465 - NUR Für Kunden von SEO NW!

  • eine Datenbank mit allen urls anlegen und dann über Cronjob alle 10 min aktualisieren, angefangen bei dem ältesten Eintrag, wäre mein Ansatz

    Frei nach Dieter Nuhr
    Das Internet ist zum Lebensraum der Dauerbeleidigten geworden, die immer einen Grund finden, anderen irgendetwas vorzuwerfen, um sich selbst moralisch zu erhöhen.

  • hmm.. es ist ja für die seite:

    *** Link veraltet ***
    hab version 2 des scripts fertig, jetzt wird per curl die erste ebene ertmal ausgelesen und es kann der pagerank dann für alle ausgelesenen ermittelt werden. da problem ist das die anfrage in millisekunden geht, und wenn dann auf einer seite 100 links sind werden 100 pageranks in einem brchteil einer sekunde bei google abgefragt, da soll ja nicht ist auch nicht erwünscht von google..
    weiss nicht wo ich da ansetzen. sleep oder die anderen php sachen sind unbrauchbar, da einfach nur die laufzit des script verlängert wird und einen timeout auslöst.
    ajax wäre ne idee, kann i aber net, das man das irgendwie dynamisch nachlädt.
    kann datt einer?
    oder ne andere idee. javascript fällt ja eigentlich auch raus...

    wenn etwas möglich erscheint mach ich das, wenn das nicht klappt gehts ans unmögliche und ansonsten das undenkbare.

    - nun stolz rauchfrei - Ich denke also Bing ich!

    Support 24h Bereitschaft 0173 6107465 - NUR Für Kunden von SEO NW!

  • manchmal weisss ich auch nicht.. die lösung ist so einfach. einfach die urls buffern, und aus der schleife nehmen. dann kann man neue schleife machen mit sleep, und das abarbeiten. hmm evtl ogar nen random sleep, man weis ja nie

    wenn etwas möglich erscheint mach ich das, wenn das nicht klappt gehts ans unmögliche und ansonsten das undenkbare.

    - nun stolz rauchfrei - Ich denke also Bing ich!

    Support 24h Bereitschaft 0173 6107465 - NUR Für Kunden von SEO NW!

  • Also ich würde das irgendwie aufteilen. Habe jetzt nicht wirklich eine Lösung, aber so einen Gedanken. Du liest ja alle URLs der Seite aus und willst die dann abfragen. Das sind für mich also zwei getrennte Bereiche. Das Auslesen geht sehr schnell und das Ergebnis der Anzahl ist unklar. Die Abfrage ist die definiert an der Anzahl, aber die Dauer wird manuell gedrosselt. Also würde ich das wirklich trennen und

    1. Die Links auslesen aus der 1. Ebene. Liste Anzeigen mit "Wert" oder "in Bearbeitung"
    2. Wenn das erfolgt ist, die Abfrage starten und den Wert dann an die entsprechende Stelle packen. Ajax ist da Dein Freund. Eventuell sogar lokales JS mit Ajax gemischt, dann können die Abfragen direkt über den Client laufen (wenn ich da nun keinen Denkfehler drinnen habe)

    ... Server ruft URLs ab und listet sie auf. JS fragt den PR ab und kann den dann auch per Ajax an den Server übergeben zum Speichern (wenn gewünscht). Wenn das erfolgt ist (oder kurz vor Ende), dann kann per Ajax der Abruf der zweiten Ebene erfolgen und die wird genauso abgearbeitet.

    So in etwa müssten die dynamisch nachladenden Listen bei FB ja auch gehen oder Twitter oder auch die Pins inkl. Markenmanager bei den G-Maps oder ähnliches.

    Kann aber auch sein, dass ich da einen großen Denkfehler drinnen habe ;)

    Wenn ein Mensch nicht um dich kämpft, hat er nur gewartet, dass du gehst. ;(

  • Zitat von Alex07;8114

    manchmal weisss ich auch nicht.. die lösung ist so einfach. einfach die urls buffern,


    wo dusde das buffern ....

    ... würds auch so machen wie Gupy sagte ....
    ... alles in eine SQL reinlegen und dann via Cron wieder auslesen

  • ist mir zu kompliziert, hab da stunden dranne gesessen. naja guter gedanke aber. ist zu schwer für mich. hab das in ein multidimensionales array gespeichert, dann mit javascript funktion warten (1) , also eine sekunde. ist mir zu hoch

    wenn etwas möglich erscheint mach ich das, wenn das nicht klappt gehts ans unmögliche und ansonsten das undenkbare.

    - nun stolz rauchfrei - Ich denke also Bing ich!

    Support 24h Bereitschaft 0173 6107465 - NUR Für Kunden von SEO NW!