MiK
Geoguru
Das steht außer Frage. Nur müsste das eben jemand machen. Hatte sich dazu nicht schon jemand gemeldet?pfeffer schrieb:eine Option in Cachewolf wäre jedenfalls die schönere Lösung.
Das steht außer Frage. Nur müsste das eben jemand machen. Hatte sich dazu nicht schon jemand gemeldet?pfeffer schrieb:eine Option in Cachewolf wäre jedenfalls die schönere Lösung.
Das kann ich machen. Prinzipiell würde ich an dieser Stelle ansetzen:Engywuck schrieb:MiK, wenn ich das einbaue - würdest Du Dich zu einem Sourcecodereview bereit erklären?
//first check if coordinates are available to prevent deleting existing coorinates
String latLon = getLatLon(completeWebPage);
if (latLon.equals("???")) {
pref.log(">>>> Failed to spider Cache. Retry.");
ret = 0;
continue; // Restart the spider
}
Die Stelle hatte ich auch im Kopf.MiK schrieb:Prinzipiell würde ich an dieser Stelle ansetzen
Es wäre noch eine Idee, dafür einen Wegpunkt (automatisch? Direkt auf Blacklist?) anzulegen, damit beim nächsten Mal nicht wieder versucht wird, die Seite zu spidern. Macht weniger Traffic und das Spidern wieder einen Cache schneller...MiK schrieb:Einfaches Ignorieren und Überspringen sollte genügen. Nur einen Eintrag ins Log würde ich dafür machen.
Und ich habs vor ein paar Minuten manuell in die Blacklist eingetragen.Engywuck schrieb:Es wäre noch eine Idee, dafür einen Wegpunkt (automatisch? Direkt auf Blacklist?) anzulegen, damit beim nächsten Mal nicht wieder versucht wird, die Seite zu spidern. Macht weniger Traffic und das Spidern wieder einen Cache schneller...MiK schrieb:Einfaches Ignorieren und Überspringen sollte genügen. Nur einen Eintrag ins Log würde ich dafür machen.
Das würde ich dann aber auf jeden Fall konfigurierbar machen. Sonst bekommt man nicht mit, wenn der Cache wieder "normal" wird. Das kam hier in der Gegend schon vor, nachdem ich den Owner darum gebeten hatte.Engywuck schrieb:Es wäre noch eine Idee, dafür einen Wegpunkt (automatisch? Direkt auf Blacklist?) anzulegen, damit beim nächsten Mal nicht wieder versucht wird, die Seite zu spidern. Macht weniger Traffic und das Spidern wieder einen Cache schneller...
Man kann doch auch die Blacklist alleine aktualisieren, dann merkt man es, oder?MiK schrieb:Das würde ich dann aber auf jeden Fall konfigurierbar machen. Sonst bekommt man nicht mit, wenn der Cache wieder "normal" wird. Das kam hier in der Gegend schon vor, nachdem ich den Owner darum gebeten hatte.Engywuck schrieb:Es wäre noch eine Idee, dafür einen Wegpunkt (automatisch? Direkt auf Blacklist?) anzulegen, damit beim nächsten Mal nicht wieder versucht wird, die Seite zu spidern. Macht weniger Traffic und das Spidern wieder einen Cache schneller...
das schon, aber dafür muss man sich daran erinnern das etwas auf der blacklist ist. ich hab mal vergessen dass ich mit der funktion gespielt hatte und mich dann gewundert dass wir bei einer cachetour an einer stelle gehalten haben an der ich noch nicht war und an der auch kein cache verzeichnet war. hat ein wenig gedauert bis ich herausfand, dass ich vor monaten mal rumgespielt hatte. falls die funktion das blacklicten automatisch macht, ist die chance dass man sich erinnert noch geringer. und eigene funde die später zum soc werden, will man ja auch nicht automatisch ausgeblendet haben.Geo-Johnny schrieb:Man kann doch auch die Blacklist alleine aktualisieren, dann merkt man es, oder?
Gegenfrage, wie oft kommt es vor, daß ein MOC "normal" wird? Man müsste halt dann den einen manuell aus der Blacklist nehmen. Ansonst finde ich die Idee von Engywuck, gar nicht so übel. Wozu, solche Caches nochmal abspidern?UncleOwen schrieb:Naja, wie oft aktualisiert man die Cache aufs der Black list? Ich wuerds schon gerne automatisch merken, wenn ein Cache wieder verfuegbar ist.
Okay, und wie wäre es mit einem Häckchen, "Blacklist auch aktualisieren" oder so ähnlich?MiK schrieb:Ich habe mal beim Cachen im Feld aus Versehen den Knopf erwischt und dann war der Cache weg, den ich gerade machen wollte. Habe dann erfolglos versucht ihn neu zu laden. Hat alles nichts genutzt. Bis ich auf die Idee kam, dass er auf die Blacklist gerutscht sein könnte... Im Allgemeinen denkt man wirklich nicht daran.
Das wäre das Einfachste, wer weiß lohnt sich ein größerer Aufwand überhaupt? So interessant sind die paar MOC's auch wieder nicht.MiK schrieb:Bei der geringen Zahl an diesen Caches würde ich das aber lieber komplett im Hintergrund abwickeln. Ohne dass man dafür etwas einstellen muss. Dann wird eben ab und zu diese Fehler-Seite geladen.
die bekommen die daten brav angezeigt, denn sie sind ja nach dem login als M erkennbarGeo-Johnny schrieb:Mir fällt gerade ein, so einfach ist es doch nicht. Was machen die PM's die ihre (MO)-Caches mittels spidern aktualisieren?
Auch wieder wahr. Klar ... ps:Kappler schrieb:Bei den PMs dürfte es eigentlich den Fehler nicht geben und somit das Aktualisieren klaglos durchlaufen.