• Willkommen im Geoclub - dem größten deutschsprachigen Geocaching-Forum. Registriere dich kostenlos, um alle Inhalte zu sehen und neue Beiträge zu erstellen.

CW 1.3.3107: "Error writing to log file!"

white_rabbit

Geocacher
Hallo.
Ich habe die aktuelle 1.3.3107 NB Version benutzt und wollte damit bei GC ein paar Caches aktualisieren. Leider bekomme ich in der Shell (Java-Version, Linux) unter anderem gemeldet:
Code:
Error writing to log file!
Error writing to log file!
Error writing to log file!
Error writing to log file!
[...]
Zig fach.
Ich habe schon versucht, dem Profile-Ordner die Rechte g+w zu geben - ohne Erfolg.
Das Einloggen klappt zwar - es wird auch "Gefunden ... neue / zu aktualisierende Caches" gemeldet aber danach ist dann offenbar Schluss.
Hat einer ne Idee, was da faul ist?
 

Teleskopix

Geowizard
Bei mir Ubuntu 11.04 läuft die aktuelle 3107 problemlos.
Scheint also ein Problem das CacheWolf.jar bei dir keine Schreibrechte hat.
Bin leider nicht der chmod-freak um dir da groß helfen zu können.

Grüße
Teleskopix
 

MiK

Geoguru
white_rabbit schrieb:
Ich habe schon versucht, dem Profile-Ordner die Rechte g+w zu geben - ohne Erfolg.
Das Einloggen klappt zwar - es wird auch "Gefunden ... neue / zu aktualisierende Caches" gemeldet aber danach ist dann offenbar Schluss.
Hat einer ne Idee, was da faul ist?
Das Log-File (und auch das pref-File) liegen nicht im Profilordner sondern im Programmordner. Wie sieht es denn dort mit den Rechten aus?
 
OP
W

white_rabbit

Geocacher
Code:
-rw-r--r--      2531 2011-09-21 15:21 pref.xml
und
-rw-r--r--  186 2011-09-21 15:21 log.txt
außerdem
-rw-r--r--  bei allen anderen Dateien
im Programm-Ordner. Die Rechte habe ich aber auch nicht geändert. Was kann das sonst noch sein?? Der Fehler wird erst gemeldet, wenn das Spidern losgeht.

Was mir auffiel: Zunächst läuft im CW unten der Zähler (was und wie der genau zählt ist mir nach wie vor schleierhaft) normal. Sobald die Meldung "Error writing to log file!"erscheint ("tausendfach" hintereinander) rattert dieser Zähler sehr schnell -- danach tut sich nichts mehr. Wenn ich dann abbreche erscheint zwar "Saving Index..." aber es passiert nix weiter. Wenn ich auch das abbreche, muss ich für das gewählte Profil den Index neu erstellen. Außerdem ist die pref.xml dann nicht mehr in Ordnung und ich muss jedes Mal ganz vor vorne mit den Einstellungen beginnen. Nervig hoch 10.
 

arbor95

Geoguru
dann bitte erst mal den Fehlersuchmodus einschalten und dann in die Datei log.txt schauen.
CW starten und beenden. dann sollte schon was im logfile drin stehen.
Wenn am Anfang das logfile geschrieben wird und dann nicht mehr, dann könnte auch der Plattenbereich voll sein.
 

MiK

Geoguru
Werden denn geänderte Einstellungen gespeichert und sind nach dem Neustart von CW noch da?
 
OP
W

white_rabbit

Geocacher
Also ich habe gerade nochmal den CW mit dem Kommando
Code:
java -Xms64M -Xmx1024M -cp CacheWolf.jar ewe.applet.Applet CacheWolf.CacheWolf -debug
gestartet. Dabei kam beim Start die Meldung "index.xml not found in directory ..."
Das zuletzt benutzte Profil ist also zerschossen. Ich habe mir vor dem Start eine pref.xml.bak angelegt, die ich jetzt jedes Mal zurück kopieren muss, um nicht *alle* Einstellungen von vorne einstellen zu müssen. Die Rechte sind unverändert -rw-r--r--. (Wenn ich diese Rechte auf rw-rw-rw- ändere und den CW schließe werden beim Schreiben der aktuellen pref.xml erneut zu -rw-r--r-- geändert -- von daher liegt es schon mal nicht an dieser Datei). Ich lasse mit frischer pref.xml also zunächst den index neu erstellen, was auch problemlos klappt und in der log.txt korrekt angezeigt wird.

MiK: Was meinst du mit "geänderte Einstellungen"? Wie gesagt ist es so, dass das Spidern nicht klappt und ich daher jedes Mal die pref.xml zurückholen muss. Die alten Einstellungen sind jedes Mal futsch. Der zuletzt eingestellte Filter sowie die Zentrumskoordinaten werden ja ebenfalls *nicht* in der pref.xml sondern in der Profil/index.xml gespeichert -- auch diese beiden Dinge werden beim Neustart jedes mal vergessen und ich muss sie von vorne einstellen :(
Beende ich den CW ohne zu spidern und lade ihn erneut, ist alles ok. Erst das Spidern zerschießt hier alles.
Wenn ich im -debug-Modus versuche zu spidern erscheint zunächst wunderbar:
Code:
[getAListPage] Got list page: http://www.geocaching.com/seek/nearest.aspx?lat=52.xxx...
Reading file GCxxx.xml
Reading file GCxxx.xml usw usw.
... aber dann:
[SpiderGC.java:updateExists]check DTS calculation!
Error writing to log file!
Checked 151 pages
with 3003 caches
Found 16 new caches
Found 57/27 caches for update
Found 0 caches with changed available status.
Found 0 caches with new found in log.
Found 57 caches possibly archived.
Found 27 ?= 0 caches to update.
Found 171 Premium Caches (for non Premium Member.)
Error writing to log file!
Download properties :
maxLogs: completepage nr.:250
with pictures     : yes
with tb           : yes
Error writing to log file!
Problem creating index.xml ewe.io.IOException: Could not write to file!
Error writing to log file!

Was den Plattenplatz angeht:
/dev/sda6 40G 36G 3,0G 93% /home
hat bisher immer gelangt. Der Fehler tritt erst seit kurzem auf.

Update: Das Aktualisieren einzelner, markierter Caches klappt übrigens problemlos. Die Datei gcxxxx.xml wird also ohne Probleme neu geschrieben.
 
OP
W

white_rabbit

Geocacher
Also mit der Festplatte habe ich sonst überhaupt keine Probleme ... ausschließen kann man das aber nie.

Der Fehler tritt zum ersten Mal hier auf:
Code:
Reading file GC22FW1.xml
Error writing to log file!
[SpiderGC.java:updateExists]check DTS calculation!
Rechte (extra nochmal mit a+w geändert):
Code:
-rw-rw-r--  68251 2011-07-27 12:15 gc22fw1.xml
Wenn ich den manuell einzeln aktualisiere, klappt es ebenfalls -- genau wie oben.
 

arbor95

Geoguru
ja,ok. Siehe meinen geänderten Beitrag oberhalb.

ich würde aber an deiner Stelle trotzdem mal die Daten auf ner SD-Karten spidern. (z.B.)

Das erste ist auf jeden Fall was mit dem Netzwerk (daten holen),
das zweite was mit dem Plattenzugriff. (logfile schreiben).

Wie / ob da ein Zusammenhang ist bleibt mir ein Rätsel.
 
OP
W

white_rabbit

Geocacher
Also Linux macht ja alle 30 Tage ein Chkdsk ... da wurde bisher nix gefunden.

Was kann denn mit dem Netzwerk ggf nicht stimmen? Habe sonst wie gesagt nie Probleme gehabt und im Netz klappt ansonsten auch alles ...
 

arbor95

Geoguru
ich würd CW erst mal testweise auf nem externen Datenträger checken, sowohl programm als auch daten.
 

arbor95

Geoguru
white_rabbit schrieb:
... Zunächst läuft im CW unten der Zähler (was und wie der genau zählt ist mir nach wie vor schleierhaft) normal....
Erste Zahl : Anzahl geladene Seiten (Listing von GC)
Zweite Zahl : Untersuchte Caches auf der aktuellen Seite (Im Listing sind immer 20 Cache, ausser der letzten Seite)

Muss man aber nicht wissen. Zeigt aber, dass sich noch was bewegt.
 
OP
W

white_rabbit

Geocacher
Habe gerade mal ein anderes Profil geladen und es damit versucht -- problemlos.
Von SD-Karte habe ich es noch nicht versucht aber die "defekte Festplatten-Theorie" halte ich auch für extrem unwahrscheinlich.
Die index.xml wird ja bei "Index neu erstellen" auch geschrieben und funktioniert dann. Erst im Laufe des Spiderns wird sie dann offenbar mit dem Fehler quittiert und irgendwie zerschossen.
 
OP
W

white_rabbit

Geocacher
Gerade habe ich noch ein anderes Profil angetestet. Offenbar ist auch dieses Profil jetzt zerschossen. Dort heißt es:

Code:
Writing file: gc2hnhc.xml (hier ist noch alles ok!)

Fetched: GC2N73J
[getCacheByWaypointName: ]Error reading cache: GC2N73J
ewe.io.IOException: Could not connect
Error writing to log file!
Could not fetch GC2N73J
ewe.io.IOException: Could not connect
Error writing to log file!
Could not fetch GC2N73J
ewe.io.IOException: Could not connect
Error writing to log file!
>>> Failed to spider cache. Number of retrys exhausted.
Error writing to log file!
Im CW erscheint dann ein Fenster mit der kryptischen Meldung:
Code:
Addi: Bezugspunkt
Ok    No    Cancel
Egal, was man da klickt -- es geht nicht weiter.
 

arbor95

Geoguru
Da ist nichts zerschossen.
Das sind alles nur Meldungen, weil das Spidern nicht (mehr) geht.

Ich bastele gerade ein Release 1.2 zusammen ohne die https Änderungen.
Damit sollte dann wieder alles funktionieren, was bis dahin ging (mit manueller Eingabe der UserID).

Wenn Pfeffer dann zurück ist kann er in Ruhe das Problem analysieren und das Spidern wieder zum Laufen bringen.
 
OP
W

white_rabbit

Geocacher
Hab's gerade mit der aktuellen NB-Version 3112 -- das Phänomen ist das gleiche. Es wurden ca 48 neue Caches gefunden aber sobald es ans Spidern geht, erscheint "Error writing to log file!" :(
Da das bei allen Profilen geschieht, schließe ich den Festplatttenfehler mal aus.
 

arbor95

Geoguru
white_rabbit schrieb:
Hab's gerade mit der aktuellen NB-Version 3112 -- das Phänomen ist das gleiche. Es wurden ca 48 neue Caches gefunden aber sobald es ans Spidern geht, erscheint "Error writing to log file!" :(
Da das bei allen Profilen geschieht, schließe ich den Festplatttenfehler mal aus.
du musst auch die Version 3111 nehmen (Verzeichnis rc. bzw http://cachewolf.aldos.de/rc/ ) und damit testen.
 

cteinstein

Geonewbie
Hi,

hatte dasselbe Problem und konnte es auf einen Fehler im Handling der HTTP-Verbindungen eingrenzen. Während des Spiderns werden die Dateihandles nicht richtig geschlossen und so kommt es nach einiger Zeit zu solchen Fehlern. Bei mir (Debian 6) ist die grenze auf 1024 eingestellt, und nach irgendwas um die 950 Caches tritt bei mir derselbe Fehler auf. Konnte das ganze vermeiden indem ich die grenze mit ulimit -n auf 2048 angehoben hab (darf je nach Einstellung nur root).

Hat jemand Zeit sich das eigentliche Problem beim UrlFetcher bzw HttpConnection anzusehen? Da müsste irgendwo das eigentliche Problem mit den offenen Verbindungen zu finden sein.

Gruß
Mathias
 

arbor95

Geoguru
es geht vermutlich noch tiefer als httpconnection. und da hatte ich keinen bock drin rumzustochern. Wenn du magst, gerne.
Ich starte einfach CW neu wenn der Speicherverbrauch sich dem Ende nähert (ev index neu erstellen).
 
Oben