• Willkommen im Geoclub - dem größten deutschsprachigen Geocaching-Forum. Registriere dich kostenlos, um alle Inhalte zu sehen und neue Beiträge zu erstellen.

PQ-Datenbestand aktuell halten - Bitte um Empfehlungen

walkin'Simon

Geowizard
Hllo zusammen,
ich möchte meine Cache-Daten aktuell halten und erhoffe mir von Euch ein paar Tipps.

Ich lade aus einer bestimmten Region (z.B. NRW) per PQ alle Caches in GSAK. Damit das klappt, habe ich mehrere PQs mit versch. Zeiträumen. (Gibt es hier eine Datumsliste, damit ich mir die "Experimentierarbeit" ersparen kann?)
Anschl. sollen diese Daten per Option "Updated in the last 7 days" aktuell gehalten werden. Nun ist meine Frage, mit welchem Umfang ich diese Updates laufen lassen soll/kann. Reicht es dies für eine Region (die z.B. erwähnte Region NRW) ein Update-PQ oder muss ich auch hier mehrere mit versch. Zeiträumen laufen lassen? Wenn die Zeiträume erforderlich sind, gibt es hierbei Erfahrungen und/oder Empfehlungen (z.B. pro 2500 Caches ein Update-PQ oder ähnliches)?
Ich möchte halt in einer Datenbank auf möglichst aktuelle Daten (aktiv/nicht aktiv, letzte Logs usw.) zurückgreifen können.

Ich danke Euch.
 

1887

Geomaster
walkin´Simon schrieb:
Hllo zusammen,
ich möchte meine Cache-Daten aktuell halten und erhoffe mir von Euch ein paar Tipps.

Ich lade aus einer bestimmten Region (z.B. NRW) per PQ alle Caches in GSAK. Damit das klappt, habe ich mehrere PQs mit versch. Zeiträumen. (Gibt es hier eine Datumsliste, damit ich mir die "Experimentierarbeit" ersparen kann?)
Anschl. sollen diese Daten per Option "Updated in the last 7 days" aktuell gehalten werden. Nun ist meine Frage, mit welchem Umfang ich diese Updates laufen lassen soll/kann. Reicht es dies für eine Region (die z.B. erwähnte Region NRW) ein Update-PQ oder muss ich auch hier mehrere mit versch. Zeiträumen laufen lassen? Wenn die Zeiträume erforderlich sind, gibt es hierbei Erfahrungen und/oder Empfehlungen (z.B. pro 2500 Caches ein Update-PQ oder ähnliches)?
Ich möchte halt in einer Datenbank auf möglichst aktuelle Daten (aktiv/nicht aktiv, letzte Logs usw.) zurückgreifen können.

Ich danke Euch.

Moin,

mit dem von Dir angedachten Verfahren kannst Du die Caches nicht aktuell halten, da Dir die archivierten Caches nicht auffallen. Da wirst Du schon mit rund 45-50 PQs immer ein Gesamtupdate machen müssen. Gut dass wir hier nicht über Sinn und Unsinn diskutieren müssen...

Grüße
1887
 

team-noris

Geomaster
walkin´Simon schrieb:
Anschl. sollen diese Daten per Option "Updated in the last 7 days" aktuell gehalten werden.
Du solltest bedenken, daß Caches die archiviert werden, in dieser Update-PQ nicht enthalten sind. Du bekommst also keinerlei Rückmeldung, daß ein Cache ins Archiv gewandert ist.
 

Astartus

Geowizard
Du könntest ein Gebiet maximal Wochenaktuell halten, also nur sehen was sich während einer Woche so getan hat.

Dazu könntest du mehrere PQ's des Gebiets z.B. nach Platzierungsdatum der Caches anlegen, und diese immer wöchentlich laufen lassen. Wenn du mit einem Datenbank Tool wie z.B. GSAK arbeitest und dort regelmäßig die PQ's reinlädst, dann sind Caches, die das letzte mal vor 8 oder mehr Tagen aktualisiert wurden mit sehr großer Wahrscheinlichkeit archiviert und können aus der Datenbank gelöscht werden.

In Nordrhein-Westfalen gibt es im Moment inklusive Events ca 21.752 Caches, das würde bedeuten du brauchst mindestens 44 PQs um alle Caches in Nordrhein-Westfalen zu erfassen.

Auf CacheWiki gibt es eine Übersicht über mögliche Zeiträume der Platzierung, leider nur nicht für NRW (liegt wohl an der großen Menge an PQs)
 
OP
walkin'Simon

walkin'Simon

Geowizard
OK, ich sehe, dass dieses nicht wirklich durchführbar und dadurch nicht sinnvoll ist.
Aber wie kann ich denn einen realistischen Überblick behalten, um zu wissen, ob meine Caches im GPS (bzw. in meiner Datenbank aktuell sind, bedeutet: aktuell findbar)?
@Astartus, gibt es dazu eher ein sinnvolles Makro für GSAK?
Danke, dass ihr mir die Augen geöffnet habt, bevor ich :kopfwand:
 

folti

Geocacher
Du könntest, wenn du die Caches als POIs auf dein GPS packst, in die jeweiligen CSVs das Datum der letzten Aktualisierung per Variable einfließen lassen. (%name, %datepl, %ownerName, etc. müsste es auch für lastgpxupd. geben)
Das würde dir aber im Prinzip auch nichts bringen, wenn der Owner zum Beispiel einen Cache deaktiviert, wenn du gerade dabei bist ihn anzugehen. Die wohl einzige sichere Lösung ist ein Smartphone/UMTS-Laptop, mit dem du live nachsehen kannst.

Ich machs in GSAK bei mir so, dass ich nach dem Füttern mit PQs alles nach "last gpx update" sortiere und dann per "Waypoint --> Status Check" diejenigen Caches überprüfe, bei denen das letzte Update mehr als einen Zyklus zurückliegt. Das lässt sich übrigens auch mit einem Shortcut/Tastenkürzel für 20-30 Caches schnell erledigen. Die so ermittelten archivierten Dosen wandern dann in meine persönliche Archivdatenbank.
 
OP
walkin'Simon

walkin'Simon

Geowizard
folti schrieb:
Ich machs in GSAK bei mir so, dass ich nach dem Füttern mit PQs alles nach "last gpx update" sortiere und dann per "Waypoint --> Status Check" diejenigen Caches überprüfe, bei denen das letzte Update mehr als einen Zyklus zurückliegt.
Vielen Dank, wieder etwas hinzu gelernt.
 

argus1972

Geowizard
dann sind Caches, die das letzte mal vor 8 oder mehr Tagen aktualisiert wurden mit sehr großer Wahrscheinlichkeit archiviert und können aus der Datenbank gelöscht werden.
Bitte was? Nach einer Woche ohne Fund? :???:
Das halte ich aber für extrem übertrieben, dann gleich das Archiv zu befürchten.

Im Umkreis von 60km um meinen Wohnort mitten in NRW sind hunderte Caches seit Beginn der Schneefälle nicht mehr gefunden worden. Wäre echt ein Jammer, wenn die alle archiviert wären. :roll:

8 Wochen halte ich da für realistischer.
Ganz nebenbei kann man die Archivierungen ja per Hand aus Notifications nachpflegen. Sooooo viele sind es ja nun nicht. ;)
 

movie_fan

Geoguru
Es gibt ein Archivmacro, was die caches, die seit einer vorgegebene Zeit nicht mehr in PQs drin waren, als archiviert markieren.
Dazu muss man aber immer alle PQs im entsprechenden Umkreis aktualisieren lassen.

Dazu kommt noch, das es mMn mehr Sinn macht, es nach Umkreisen zu gestalten, denn ich komme (in meinem Fall) eher nach Mainz oder Aschaffenburg als nach Kassel...
 

Astartus

Geowizard
argus1972 schrieb:
dann sind Caches, die das letzte mal vor 8 oder mehr Tagen aktualisiert wurden mit sehr großer Wahrscheinlichkeit archiviert und können aus der Datenbank gelöscht werden.
Bitte was? Nach einer Woche ohne Fund? :???:
Das halte ich aber für extrem übertrieben, dann gleich das Archiv zu befürchten.

8 Wochen halte ich da für realistischer.
Nein, wenn du beim Import der PQ's auf "Update: Always" aktiverst ist es egal ob der Cache gefunden wurde oder nicht. Solange der Cache aktiv ist wird er auch in GSAK aktualisiert, das heißt das "Last GPX Update" Datum wird auf den aktuellen Tag gesetzt. Wenn nun das "Last GPX Update" Datum älter als 8 Tage ist, muss der Cache in der PQ nicht mehr enthalten sein. Und da ich mir in einer PQ nur aktive (und deaktivierte, aber keine archivierten) Caches ausgeben lasse ist der Cache archiviert und kann somit gelöscht werden.
 

John-Deere

Geomaster
Ich möchte mal schreiben, wie ich es so mache:

Ich habe nach Legedatum alle Caches für Schleswig-Holstein und Hamburg PQ´s erstellt.
Es sind gesamt 23 PQ. Jeden Donnerstag pflege ich diese immer mit einem Makro in die gleiche Datenbank in GSAK ein.
Zusätzlich lasse ich über Notify-Emails mir die Caches zusenden, die archiviert sind.
Da dieses Notify-Meldungen nur per Radius von einem Punkt aus erstellt werden, habe ich
Schleswig-Holstein und Hamburg in drei Kreise aufgeteilt.
Da diese sich überschneiden erhalte ich zwar öfters bis zu drei Notify-Meldungen bei Archivierung eines Caches, aber immerhin ich erhalte diese Meldung.
Über ein Makro lese ich dann diese Emails ein.
GSAK aktualisert dann nach Einlesen der aktuellen PQ´s und filtert dann die archivierten Caches heraus.

Mit einem anderen Makro filtere ich nun bestimmte Cachetypen in GSAK und erzeuge CSV-Dateien mit eigenen Icons. Mit dem POI-Loader wird dann eine POI-Datei erstellt.

Netter Gruß
John Deere
Schleswig-Holstein
--------------------------------
Webcam-Cache in 25355 Barmstedt
http://www.viele-augen.de
 
OP
walkin'Simon

walkin'Simon

Geowizard
John-Deere schrieb:
Es sind gesamt 23 PQ. Jeden Donnerstag pflege ich diese immer mit einem Makro in die gleiche Datenbank in GSAK ein.
...
Netter Gruß
Hallo John,
Danke für Deine netten Grüße und Dein handling.
Nur wie kriegst Du jeden DO 23 PQs? Oder sind die die Woche über reingekommen?
Welche Macros benutzt Du denn? Das wäre noch ganz nett zu erfahren?

Nette Grüße zurück,
walkin´Simon
 

John-Deere

Geomaster
Hallo Simon,
da meine Wochenend-Touren meistens am Sonntag enden, kommen auch am Sonntag die ersten 5 PQ, dann bis Do. die letzten rein. Halt 5 pro Tag.
Makros benutze ich:
EmailReader.gsk
GarminCsvPoiExport-v2.gsk

Da mein Vista HCx ja keine Logs ausgibt, arbeite ich parallel mit meinem Handy, falls ich wirklich mal nicht weiterkomme und die Logs, Hints oder Spoilerbilder benötige.
Habe auf meinem WindowsMobile-Handy das Programm Cachbox mit 1GB-Datenbank Volumen. Hat mir der Hannes extra fertig gemacht.
Von GSAK erstelle ich eine GPX-Exportdatei mit meinem bestimmtem Filter, diese
importiere ich dann in Cachebox. Dann habe ich so bei jedem Cache bis zu 100 Logs, Hints und so manche andere Informationen.
Mit dem Programm SpoilerSync ziehe ich mir dann noch alle Spoilerbilder in Cachebox.
So habe ich dann zur Not auch noch die möglichen Bilder dazu.
Also völlig paperless caching!

Dein Problem wird eher sein, daß Du für NS nicht alle Caches in die möglichen PQ´s bekommst.
Da wirst Du wohl mit Radius arbeiten müssen und Prioritäten setzen.
Da wo Du selten hinkommst, halt nur dann dafür eine Umkreis-PQ erstellen lassen.

Happy hunting
John Deere
 

John-Deere

Geomaster
Ich habe da gerade bei CacheWiki etwas über Update-PQ gelesen,
Wie ist denn das gemeint, was wird da upgedatet?
Vielleicht kann ich mir einige PQ sparen?
Ich lasse mir alle Cache nach Legedatum vom 01.01.2000 bis 08.04.2010 in 18 PQ´s packen. Da kommen ja keinen neuen hinzu, da das Legedatum ja überholt ist.
Kann ich mir da nur eine Update-PQ in diesem Zeitraum senden lassen?
 
OP
walkin'Simon

walkin'Simon

Geowizard
Tja, das habe ich mich auch gefragt (http://www.geoclub.de/viewtopic.php?f=41&t=43903)
Du kannst ja bei den PQ-Einstellungen "updated in the last 7 days" oder so ähnlich einstellen. Aufgrund der Rückmeldung sollten wir davon ausgehen, dass jede "Veränderung" des Listings ein Update bedeutet: Found,-Log, DNF-Log, Coin-dropped, Änderung der Beschreibung, Änderung der Attribute und und und. Ich denke auch, wenn jemand den Cache nachloggt (z.B. mit einem Datum von vor 1 Jahr oder 8 Tagen reicht ja auch aus).
Auch ich habe meine PQs zunächst anhand des Legedatums in mehrere PQs aufgeteilt. Meine Update-PQ jedoch hat die gleiche Zeiteinteilung, da es ja durchaus sein könnte, dass genau diese 487 Caches in den letzten 7 Tagen ein Update erfahren haben und ansonsten (bei einem größeren Zeitrahmen) aus dem Rahmen fallen. Der einzige Vorteil ist, dass die PQ kleiner ist und GSAK schneller aktualisiert hat. An PQs - glaube ich - sparen wir da nicht.
Ich habe derzeit um meine Homezone insgesamt 7 PQs (wobei der Umkreis jetzt auch nur 50km ist). Ansonsten hole ich mir tagesaktuelle für eine bestimmte Region, die ich besuchen möchte.
 

John-Deere

Geomaster
Ich habe es mal probeweise so eingestellt, daß ich über einen großen Zeitraum nur auf Update geklickt habe. Da wird mir schon gleich mehr als 500 Caches ausgeworfen.
Bedeutet also daß es trotzdem auf 500 begrenzt bleibt. Naja hätte man sich ja auch denken können, daß über einen Zeitraum von einem Jahr mehr als 500 Cache eine Änderung erfahren haben binnen einer Woche.
Tja, dann bleibt es wohl bei der Aufteilung. Verstehe nur dann die zweite Phase nicht, die bei CacheWiki erklärt wird :irre:

Servus erstmal
 
Oben