• Willkommen im Geoclub - dem größten deutschsprachigen Geocaching-Forum. Registriere dich kostenlos, um alle Inhalte zu sehen und neue Beiträge zu erstellen.

Spidern stoppt nach 20 chaches

einherjer

Geocacher
Hallo,

ich hab folgendes Problem:

Wenn ich von geocaching.com spidere findet er immer nur 20 caches, auch wenn ich mitten in München einen Umkreis von 10km eingebe.

Vorher ging das aber einwandfrei, da hat er auch mal 80 oder mehr caches runtergeladen.

Das Problem tritt auf dem PC und auf dem PDA auf, ich nehme daher an das es an einer Einstellung liegt.

Was muss ich umstellen das er wieder alle Caches findet?
 

Luki Luchs

Geocacher
Bei mir stoppts nach dem Laden der ersten Seite. Im Laufe des Abends war die Groundspeak-Seite wegen Wartungsarbeiten nicht erreichbar. Vermutlich sind Einstellungen geändert worden, sodass das Spidern momentan nicht möglich ist.
 
OP
E

einherjer

Geocacher
Grade nochmal mit neuen Koordinaten fürs Zentrum probiert, bei mir lädt er immer noch 20. Aber eben nicht mehr.

Vielleicht sperrt sich GC ja wenn es einen spider erkennt, wär ja nicht die einzige Seite die unfreundlich reagiert wenn sie abgezogen wird ;-)
 

Robin888

Geomaster
Hm. Gleiches Problem hier...

10km Umkreis in München? Das sind über 700 Caches!
Ist das nicht ein "bißchen" happig? Oder war das nur ein Versuch um mehr als 20 Caches zu provozieren? *hoff*

Robin(888)
 

MiK

Geoguru
Dann gibt es wohl wirklich Änderungen. Ich fürchte das kann ich mir frühestens heute Abend anschauen.
 

MiK

Geoguru
Bitte beachtet, dass es für die Kritik am Spidern einen eigenen Thread gibt. Dann brauch ich nicht so viel verschieben.
 
OP
E

einherjer

Geocacher
@Robin888:
Das war natürlich nur ein Versuch, schätze bei 500 - 1000 Caches könnte das Laden der Liste etwas länger dauern ;-) Obwohl auch das mal nen Versuch wert wäre, auf der Speicherkarte ist ausreichend Platz.

@MiK:
Sorry, den hab ich nicht gesehen.

Noch ne andere Frage:
Bieten die GPX Dateien von GC die selben Infos wie sie der spider zieht? Also Beschreibungen, logs, bilder etc.?
Und kann man sich die auch vom Umkreis X zu Koordinate Y zeigen bzw. schicken lassen?
 
OP
E

einherjer

Geocacher
Wikipedia hat fast immer eine Antwort ;-)
http://de.wikipedia.org/wiki/Webcrawler

In dem Fall "saugt" der Spider die Infos zu den gewünschten Caches von der Webseite in Cachewolf.
 

xtb

Geomaster
einherjer schrieb:
Noch ne andere Frage:
Bieten die GPX Dateien von GC die selben Infos wie sie der spider zieht? Also Beschreibungen, logs, bilder etc.?
Und kann man sich die auch vom Umkreis X zu Koordinate Y zeigen bzw. schicken lassen?

Beschreibung: Ja
Logs: Die letzten 5, kann man aber per Macro mehr nachziehen
Bilder: nein, (ich zieh sie mit GSAK und Spoilersync automatisch nach)

Umkreissuche: ja

Es gibt auch eine schöne Funktion Caches along a Route :)
 

MiK

Geoguru
Könnt ihr bitte Kommentare, die nichts direkt mit dem aktuellen Spiderproblem zu tun haben im Nachbarthread oder einem neuen Thread absetzen?
 

Carsten

Geowizard
xtb schrieb:
Logs: Die letzten 5, kann man aber per Macro mehr nachziehen

Das Makro kann man sich aber auch sparen (wie ja schon geschrieben wurde ist das nämlich auch nichts anderes als spidern). Ich erkläre mal kurz am Beispiel von GSAK (spricht ja nichts dagegen, so etwas auch in Cachewolf zu implementieren): Man kann dort per Makro die PQs von einem Email-Konto abrufen. Mein normaler Aktionsradius kommt so z.B. 2x die Woche automatisch in die Datenbank und mehr als 5 Logs sammeln sich so auch ganz schnell an, weil die alten Logs ja nicht aus der DB gelöscht werden. Als Datenbestand für das normale Spontancachen unter der Woche hat das die letzten 4 Jahre immer ausgereicht. Müssen es doch mal schnell mehr als 5 Logs sein (oder ein Cache für den schnellen FTF zwischendurch), kann man sich für einzelne Caches die GPX-Datei direkt von der Cacheseite importieren, da sind dann 20 Logs (bzw. 0 im FTF-Fall *g*) drin.
 
OP
E

einherjer

Geocacher
Dann hab ich noch eine allgemeine Frage zum spider ;-)

Was macht er eigentlich wenn ich die caches aktualisiere? Zieht er dann alles nochmal oder nur veränderte/fehlende Informationen?

Falls letzteres zutrifft könnte man doch die GPX Dateien importieren und dann die caches nochmal aktualisieren? Das wäre weniger Arbeit für den Spider und weniger Traffic für GC? Wobei der Hauptanteil am Traffic wohl die Bilder sein werden...
 

jennergruhle

Geoguru
einherjer schrieb:
Was macht er eigentlich wenn ich die caches aktualisiere? Zieht er dann alles nochmal oder nur veränderte/fehlende Informationen?
Es wird eine HTML-Seite pro gewähltem Cache nachgeladen und ausgelesen. Wenn mehr als 5 Logs gefordert sind, die Langversion mit allen Logs, sonst die Kurzversion.

einherjer schrieb:
Falls letzteres zutrifft könnte man doch die GPX Dateien importieren und dann die caches nochmal aktualisieren? Das wäre weniger Arbeit für den Spider und weniger Traffic für GC? Wobei der Hauptanteil am Traffic wohl die Bilder sein werden...
Importieren und Aktualisieren ist auf jeden Fall sparsamer als immer alles neu spidern. Allerdings werden WIMRE nur neue Caches dann gespidert, die bestehenden muss man per "Aktualisieren" neu laden.
 

-Adi-

Geocacher
Hi,

ich wollte mal horchen, ob es schon schon eine Info zum oben genannten "20er"-Problem gibt?
Hat jemand was gehört, oder eine Idee?
 

MiK

Geoguru
Der wichtigste Fix ist im heutigen NB drin. Der Fix für TBs ist dann morgen drin. Auch die Pakete für die stabile 1.0-Version gibt es erst morgen.
 

-Adi-

Geocacher
Dann nur noch ein blöde "Newbie-Frage" an MiK:
Du hattest mich schon einmal erfolgreich supportet.
:hilfe: Wie aktualisiere ich? :hilfe:
 

MiK

Geoguru
Wenn Du auf ein NB updaten möchtest, dann lies den angepinnten Thread dazu. Der ist auch in meiner Signatur verlinkt.
 

-Adi-

Geocacher
Ne, ne.
Ich habe die NightBuilder-Version schon.
Muss ich einfach nur neu ziehen und die vorhandenen Dateien ersetzen?
 

MiK

Geoguru
Genau so vorgehen wie beschrieben. Ob man vorher ein NB hat oder nicht spielt keine Rolle.
 
Oben