• Willkommen im Geoclub - dem größten deutschsprachigen Geocaching-Forum. Registriere dich kostenlos, um alle Inhalte zu sehen und neue Beiträge zu erstellen.

OutofMemory

brownsugar66

Geocacher
Beim Import der eigenen Funde bekomme ich die Fehlermeldung im Anhang.
Cachewolf bleibt danach stehen, lokales oder Cachewolf Problem?
Nutzer z.Zt. Version 2187.
 

Anhänge

  • cachewolf_outofmemory.jpg
    cachewolf_outofmemory.jpg
    27,6 KB · Aufrufe: 578

MiK

Geoguru
Wenn man z,B. die Funde in einer Datei hat und diese importieren möchte, muss man erst mal Hand anlegen, bevor man das auf zweimal machen kann.

Generell würde ich es schon als Bug bezeichnen. Nur hatte bisher keiner eine wirkliche Idee, wo der Speicher hin geht.
 

arbor95

Geoguru
MiK schrieb:
Wenn man z,B. die Funde in einer Datei hat und diese importieren möchte, muss man erst mal Hand anlegen, bevor man das auf zweimal machen kann.

Generell würde ich es schon als Bug bezeichnen. Nur hatte bisher keiner eine wirkliche Idee, wo der Speicher hin geht.
Die Funde kann man ja spidern, oder ? Das ist ein Klick und man kann sich zurücklehnen. Falls das Spidern aussteigen sollte klickt man noch mal.
 

greiol

Geoguru
wieviel speicher hast du dem wolf gegeben? für größere spideraktionen ist der default wegen eines vermuteten memory leaks leider zu knapp bemessen.

java -Xmx ??? -jar CacheWolf.jar

bringt ggf. mehr speicher. wobei der wert von ??? davon ahängt was dein rechner an speicher hat. ??? wird in MegaByte angegeben.
 

MiK

Geoguru
Ich habe den Speicher vor kurzem mal beobachtet. seltsamerweise steigt er bei manchen Caches kaum an oder geht danach wieder auf den Ausgangswert zurück und bei anderen steigt der Speicherverbrauch sprunghaft an und wird auch nicht mehr frei gegeben. Es liegt also wohl an irgendeiner Funktion, die nicht bei jedem Cache aufgerufen wird. Bilder? TBs? Ich weiß es nicht.
 
OP
B

brownsugar66

Geocacher
greiol schrieb:
wieviel speicher hast du dem wolf gegeben? für größere spideraktionen ist der default wegen eines vermuteten memory leaks leider zu knapp bemessen.

java -Xmx ??? -jar CacheWolf.jar

bringt ggf. mehr speicher. wobei der wert von ??? davon ahängt was dein rechner an speicher hat. ??? wird in MegaByte angegeben.
Hallo Greiol, ich benutze die 32bit Windows Version. Kann ich hier auch den Speicher erhöhen, oder stehe ich mit deinem Befehl auf dem Schlauch?
 

greiol

Geoguru
auch die 32 bit variante kann das

je nach betriebssystem können die schreibweisen leicht variieren
-Xmx265m
-Xmx 256m
-Xmx=256m
/Xmx256m
/Xmx 256m
/Xmx=256m

eins davon sollte passen. ich kann es gerade leider nicht ausprobieren
 
OP
B

brownsugar66

Geocacher
Ich möchte dieses Thema nochmal kurz aufwärmen, denn wie es aussieht liegt hier ein "Four Windows" Problem vor.
Ich habe mich jetzt bis zu diesem Fund "vorgespidert" doch bricht CW jedesmal hier mit der unterstehenden Fehlermeldung ab. (er krallt sich immer mehr Speicher)
Kann bitte jemand von Euch dieses Problem nachvollziehen? http://www.coord.info/GCF55A?
Wie kann es das umgehen?
Greift Spider nach eigenen Funden ebenfalls auf die Blacklist zu?
Danke und Gruß
 

MiK

Geoguru
Das Problem sind die vielen Logs (von Leuten die nie dort waren...). Wenn Du in den Einstellungen (oder in dem Dialog vor dem Spidern) die maximale Anzahl von Logs auf 5 stellst, sollte es das Problem nicht geben.
 

arbor95

Geoguru
MiK schrieb:
Das Problem sind die vielen Logs (von Leuten die nie dort waren...). Wenn Du in den Einstellungen (oder in dem Dialog vor dem Spidern) die maximale Anzahl von Logs auf 5 stellst, sollte es das Problem nicht geben.
Könnte es sein, dass dieser Cache dann nicht in seine Funde übernommen wird, weil er nicht unter den letzten 5 logs ist?

Klar, fast 10000 logs auf einer Seite ist viel Memory!
 

Team Lotte

Geocacher
Ich hab das gleiche Problem mit dem "Out of memory" auch, wenn ich eine größere bereits bestehende Abfrage ....... in einem meiner Profile einfach nur aktualisieren will. Und da dürfte eher keiner vom Logformat der 4 Fenster dabei sein.
Der Rechner ist sicherlich nicht schmächtig und es läuft XP mit SP3 drauf, jeweils neueste Java-Version. Aber ich werd das mal mit den Speicherparametern ausprobieren.
 

MiK

Geoguru
Ja, wahrscheinlich wird er dann nicht als solcher markiert, ja. Muss man dann eben bei dem von Hand machen.

Arbeit gibt es an der Stelle genug. Alleine die Webseite braucht ja eigentlich nicht so viel Speicher. Und das Auswerten der Logs müsste man auch effizienter machen können.

Außerdem könnte man beim Laden der eigenen Finds das direkt setzen. Nur die eigenen Logs geben da noch Probleme...

Im Moment kann ich selbst aber mit den Unzulänglichkeiten und Workarounds leben...
 

MiK

Geoguru
Team Lotte schrieb:
Ich hab das gleiche Problem mit dem "Out of memory" auch, wenn ich eine größere bereits bestehende Abfrage (60km Umkreis, ca 4600 Caches) in einem meiner Profile einfach nur aktualisieren will.
Du willst 4600 Caches auf einmal aktualisieren? :kopfwand:
Da braucht man sich nicht wundern, dass immer mehr gegen das Spidern gewettert und unternommen wird.
Eigentlich ist das ein guter Anlass nichts gegen diesen Bug zu unternehmen.
 
OP
B

brownsugar66

Geocacher
MiK schrieb:
Wenn Du in den Einstellungen (oder in dem Dialog vor dem Spidern) die maximale Anzahl von Logs auf 5 stellst, sollte es das Problem nicht geben.
Hallo Mik,
leider falsch, ich hänge quasi jetzt an der Stelle, es reicht also aus wenn ich "Logs auf 1" stelle, der CW kommt einfach nicht drüber. Wie kann ich diesen Cache umgehen? Es fehlen dahinter noch gut 200, wollte die eigentlich nicht von Hand eingeben.
Danke und Gruß
 

Team Lotte

Geocacher
MiK schrieb:
Team Lotte schrieb:
Ich hab das gleiche Problem mit dem "Out of memory" auch, wenn ich eine größere bereits bestehende Abfrage ...... in einem meiner Profile einfach nur aktualisieren will.
Du willst .... Caches auf einmal aktualisieren? :kopfwand:
Da braucht man sich nicht wundern, dass immer mehr gegen das Spidern gewettert und unternommen wird.
Eigentlich ist das ein guter Anlass nichts gegen diesen Bug zu unternehmen.
Ok, das war ein Outing der etwas dämlicheren Art......die Abfrage hatte ich vor längerer Zeit erstellt, noch vor PM. Genutzt habe ich die nie, nur einmal auf dem PC erstellt. Vor ein paar Wochen ist mir das Profil mal wieder über den Weg gelaufen und ich hätte das gut gebrauchen können für eine Tour. Nungut, hat nicht funktioniert, Pech gehabt. War auch eher ein Versuchsballon, der PDA kann das Ding nicht laden, da zu groß.
Mittlererweile hab ich das auch gecheckt. Jaja, man lernt ja immer noch dazu. Aber macht es nicht Sinn, das auf eine bestimmte Anzahl zu begrenzen?
 

MiK

Geoguru
brownsugar66 schrieb:
leider falsch, ich hänge quasi jetzt an der Stelle, es reicht also aus wenn ich "Logs auf 1" stelle, der CW kommt einfach nicht drüber.
Das sollte eigentlich nicht passieren. Wo genau hast Du welchen Wert umgestellt?

brownsugar66 schrieb:
Wie kann ich diesen Cache umgehen? Es fehlen dahinter noch gut 200, wollte die eigentlich nicht von Hand eingeben.
Du kannst mal den Wegpunkt von Hand anlegen. Also Verwalten->Neuer Wegpunkt und dann die richtige GC-Nummer eintragen. Dann sollte er nicht mehr versuchen ihn zu laden.
 

MiK

Geoguru
Team Lotte schrieb:
Mittlererweile hab ich das auch gecheckt. Jaja, man lernt ja immer noch dazu. Aber macht es nicht Sinn, das auf eine bestimmte Anzahl zu begrenzen?
Da die sinnvolle Grenze bei jeder Hardware und jedem Anwendungsfall anders ist, möchte ich das nicht fest vorgeben. Beim Spidern kann man ja, die Anzahl vorgeben, so dass man nicht überrascht wird.
 
Oben