• Willkommen im Geoclub - dem größten deutschsprachigen Geocaching-Forum. Registriere dich kostenlos, um alle Inhalte zu sehen und neue Beiträge zu erstellen.

Kritik am Spidern (was: Spider-Bashing by MIK)

Status
Für weitere Antworten geschlossen.

ElliPirelli

Geoguru
Team Lotte schrieb:
Noch einer, der es noch nicht gecheckt hat....PM und CW schließen sich nicht aus und es gibt genügend PM, die trotzdem den CW nutzen.
Da geb ich Dir recht, ich habe auch lange Zeit den Cachewolf genutzt.
Allerdings hab ich ihn mit PQs gefüttert, und ohne Bilder runterladen.

Wenn es wirklich so wäre, daß die Mehrheit der Cachewolf Nutzer PMs sind, warum heulen sie dann, wenn es auf einmal keine Spiderfunktion für 10km Radius um München gibt? Denn das war das Ausgangsposting, was hier nicht mehr dabei ist.

Warum kann man nicht einfach PQs erstellen? Mit den entsprechenden Vorlieben....

Bei mir sind das: keine Mysteries, Attribute klettern, schwimmen, Bötchen fahren fliegen raus.
Ob ich das dann bei GSAK (aktuell) einpflege, oder bei Cachewolf (Vergangenheit) macht dann keinen Unterschied.

Es nimmt den Nutzern keiner den Cachewolf übel, wohl aber das Gejaule, wenn Spidern nicht geht. Oder wenn großartig rumgepupst wird, daß PM ja so teuer ist und gar nicht notwendig, weil Cachewolf ja spidert.

Letzte Woche zahlte ich €20.80 fürs Jahr, da kann ich jetzt einmal nicht mit den Kindern ins Kino, freu mich aber ein ganzes Jahr über vereinfachte Tourplanung Dank PQs....
 

-Adi-

Geocacher
Harry1999 schrieb:
1) Ich bin PM und hasse PQ'S!
Sowas von schrecklich gelöstem Datentransfer. Grenzt an das tiefste Mittelalter. E-Mail als "geplante" Schnittstelle... ja hallo? Bei so einer Anzahl von zahlenden Kunden, kann ich ja wohl professionellen Umgang mit Daten und deren Weitergabe erwarten.
2) Personen die sich für anderer Leute Belange ohne deren Aufforderung einsetzen, halte ich für menschlich echt fragwürdig. Erinnert mich an Kindergarten-Verhalten. Da lernt man mit sowas umzugehen...
3) Der Preis für PM ist für die gebotene Leistung (letztlich nur der Besitz von Daten und deren Weitergabe) schon echt etwas hoch.

Und trotz alledem bin ich PM.

Da stimme ich ja mal ungesehen zu. Ich bin zwar ein Newbie, aber die Daten die ich als durch CW erhalte sind sauberer und besser als die, die ich als PM von GC. Oder mach ich was falsch?
 

jmsanta

Geoguru
Team Lotte schrieb:
Noch einer, der es noch nicht gecheckt hat....PM und CW schließen sich nicht aus [...]
Noch einer, der es nicht begriffen hat! ich weiß - ich nutze CW auch aber OHNE Spidern. Ich kritisiere CW nicht als solches ich Kritisiere das Spidern - nicht mehr, nicht weniger!
 

Keimix

Geocacher
1. Ich bin Premium-Member (also der Preis ist es nicht!) und nutze trotzdem spidern.
2. PQ per Mail sind keine Lösung, ich bekomme zwar die Daten, kann aber nicht beeinflussen wann, d.h. nur mit einer Genauigkeit von 24h. Das ist für die Anwendung "Wir treffen uns in 30 min an Platz X Y zum Cachen" nicht die Lösung.
3. Spidern wäre unnötig, wenn es eine "echtzeitfähige" wegen mir auch kostenpflichtige API gäbe, die die Daten zur Verfügung stellt.
 

Team Lotte

Geocacher
jmsanta schrieb:
Noch einer, der es nicht begriffen hat! ich weiß - ich nutze CW auch aber OHNE Spidern. Ich kritisiere CW nicht als solches ich Kritisiere das Spidern - nicht mehr, nicht weniger!
Mann, jmsanta.....mein Post bezog sich auf Deine Aussage mit den 1,75 Euro im Monat. Nicht mehr und nicht weniger, das hatte mit dem Spidern erstmal garnix zu tun.

Mir konnte immer noch keiner schlüssig meine Frage von weiter oben beantworten....es wird immer nur auf dem Spidern herumgeritten. Was genau stört euch daran? Seid ihr Anwälte von Groundspeak oder behindert euch das Spidern bei eurem Zugriff auf die Webseite? Oder einfach nur Naturgutmenschen und Reichsbedenkenträger oder was? Wenn jeder immer nur nach allen Regeln spielen würde, wären viele Dinge bis heute nicht erfunden worden.
Wenn GC in der Lage wäre, eine vernünftige Ausgabe *aller* Cachedaten inklusive Spoiler und so weiter in die GPX-Dateien hinzubekommen und das auch noch Userjustierbar, dann hätten sich Programme wie der CW und auch GSAK schon längst erledigt und diese Diskussion auch. Ich würde gerne 10 Euronen mehr im Jahr zahlen und bräuchte das ganze Gehampel mit GPX-Daten per Mail schicken (Was an sich der Witz schlechthin ist) und Einlesen und Makros drüberbügeln und was weiss ich noch überhaupt nicht.
 

-Adi-

Geocacher
Also ich schaue mir das Elend hier ja jetzt schon eine Weile an.
Vielleicht sollten wir doch einfach abwarten und sehen was passiert.
Der eine hofft, das CW wieder läuft und der andere halt nicht.

Letztendlich heißt es doch: "Der Weg ist das Ziel!"
Und den nimmt sowieso jeder auf seine Art.

Ich zähle zu denen die darauf hoffen, weil es einiges vereinfacht und zahle aber trotzdem braf ein.
 

snaky

Geowizard
Wie kann man denn per Macro mehr Logs ziehen? Über GSAK? Das dürfte dann aber "rechtlich" nicht besser sein, als gleich zu spidern...
 

xtb

Geomaster
Ja, richtig - das GSAK Macro heisst: AddLogs.

GC hat doch nur Probleme mit dem Spidern, da da komplette Cachebeschreibungen gezogen werden und damit das Geschäftsmodell PM gefährdet sieht. Da sehe ich bei einer mit PQ befüllten Datenbank kein Problem, wenn die Logs noch zusätzlich nachgezogen werden.
 

omabande

Geocacher
Warum hört Ihr nicht endlich mit Eurer "Raubkopierer-Mentalität" auf und leistet Euch eine Premium-Mitgliedschaft für 30 $ im Jahr, das sind bei heutigem Kurs 20,16 € pro Jahr, also umgerechnet 1,68€ im Monat.

Ihr spidert jeden Tag, treibt den Traffic in die Höhe und wundert Euch warum gc.com öfters mal down ist?

:kopfwand: :hilfe: :zensur: :irre:
 

huzzel

Geowizard
omabande schrieb:
Ihr spidert jeden Tag
Sagt wer???

Wann hören die PMler endlich auf die GC-Seiten mit dem Browser aufzurufen, Ihr habt doch schon alles Daten per PQ. So treibt den Traffic in die Höhe und wundert Euch warum gc.com öfters mal down ist?

:ironie2:

P.S.
Die Beiträge gehören in den anderen Thread. Sorry MIK, ich wollte gleich antworten und nicht warten, bis der drüben aufschlägt.

edit: hat sich erledigt ;)
 

MiK

Geoguru
Noch ein Tipp für diejenigen, die die Daten aus den Emails gelesen haben wollen: Schaut euch doch mal Cachehound an.
 

jhohn

Geomaster
Ich bin kein PM mehr und das hat nix mit dem Geld zu tun (das hat andere Gründe die in diesem Forum auch hinreichend diskutiert wurden), habe aber als PM die PQs nur für "Caches along a route" genutzt weil ich dieses PQ Zeugs auch sowas von unnötig kompliziert fand. Email als API zur Datenübertragung war noch nie eine gute Idee. Da sind FTP-Server ja noch besser. Dann sind in der PQ keine Bilder, die muss ich mir also nochmal extra laden und wenn ich mir dann den Zustand mit den MyFinds-PQs anschaue. 5-10 mal auf den Button klicken bevor das funktioniert damit ich irgendwann im Laufe von 24 Stunden die Daten bekomme, nein Danke. Da kopiere ich mir die gefundenen Caches lieber im Cachewolf in ein separates Profil.
Und zum Spidern: Wenn ich mir die Caches von Hand auf der Webseite raussuche verursache ich mehr traffic als beim spidern. Ich schaue mir die eventuell zu besuchenden Caches normalerweise mehrmals an bevor ich mich entscheide welche ich angehe. Beim Cachewolf lade ich die dafür einmal runter. Ohne Cachewolf lade ich die gleichen Seiten mehrmals innerhalb von ein paar Tagen.
 

jhohn

Geomaster
xtb schrieb:
Ja, richtig - das GSAK Macro heisst: AddLogs.

GC hat doch nur Probleme mit dem Spidern, da da komplette Cachebeschreibungen gezogen werden und damit das Geschäftsmodell PM gefährdet sieht. Da sehe ich bei einer mit PQ befüllten Datenbank kein Problem, wenn die Logs noch zusätzlich nachgezogen werden.

Nee Du, spidern bedeutet automatisiertes Auslesen der Daten, ob es sich da um die ganze Seite oder nur die Logs handelt ist da mal ganz egal. Aber so macht sich jeder seine eigene Realität. Wie willst Du eigentlich nur die Logs lesen, soweit mir bekannt muss dafür die ganze Webseite (mit &log=y) aufgerufen werden egal was davon hinterher genutzt wird und gerade das treibt den Traffic in die Höhe über den die Spidergegner hier sich ja immer so beschweren.

:ironie3: Also Leute, auf zur Hetzjagd auf die GSAK Nutzer, die sind die wirklichen Trafficteufel. :ironie3:
 

jennergruhle

Geoguru
Keimix schrieb:
2. PQ per Mail sind keine Lösung, ich bekomme zwar die Daten, kann aber nicht beeinflussen wann, d.h. nur mit einer Genauigkeit von 24h. Das ist für die Anwendung "Wir treffen uns in 30 min an Platz X Y zum Cachen" nicht die Lösung.
3. Spidern wäre unnötig, wenn es eine "echtzeitfähige" wegen mir auch kostenpflichtige API gäbe, die die Daten zur Verfügung stellt.
Moment mal, sehe ich das richtig? Die Daten können 24 h auf sich warten lassen? Das taugt zwar für die Reiseplanung im nächsten Sommerurlaub, aber doch nicht für die spontane Cachetour nach Feierabend. Dann kann ich verstehen, dass auch PM gelegentlich die Spider-Funktion des Cachewolf nutzen.

Um es zusammenzufassen, gibt es also folgende Möglichkeiten, an die Daten des Caches zu kommen, ohne die GS-Richtlinien (ToU) zu verletzen:

1 GPX-File aus einer Pocket Query (nur PM, nur per Mail nach bis zu 24h)
2. GPX-File eines einzelnen Caches ("GPX eXchange File"-Button) (nur PM)
3. LOC-File eines einzelnen Caches ("LOC Waypoint File"-Button) (enthält nur Waypointname und Koordinaten)
4. LOC-File mehrerer Caches ("Download Waypoints"-Button in der Umkreisansicht oder Suche) (enthält nur Waypointname und Koordinaten)
5. HTML-Daten in der Seite (im Browser manuell abgerufen)

Die Cachewolf-Funktion "Spidern" von Cachewolf tut das selbe wie 5., ist allerdings ncht erwünscht. Ebenso die CW-Funktion "Cache aktualisieren" (die eigentlich die nützlichere ist, man kann ja LOC-Files importieren und die fehlenden Infos per "Aktualisieren" nachladen).

Wenn ein Abruf der HTML-Seite durch Cachewolf (die weniger Last erzeugt als mit dem Browser, schließlich werden etliche eingebettete Objekte gar nicht erst benötigt und somit nicht geladen) nicht "erlaubt" ist, was spräche dann dagegen, die HTML-Seiten aus dem Browsercache zu parsen? Ein neuer Abruf ist nicht nötig, und den Parser gibt es ohnehin schon.
 

jennergruhle

Geoguru
rautaxe schrieb:
Auf die Gefahr,
dass ich mich wiederhole:

Ich bin dafür, dass die Opencaching.de
Funktionen von Cachewolf kostenlos
bleiben und für die kommerzielle
Geocaching.com Seite ein kostenpflichtiges
AddOn gibt ( PQ-Import usw.)
Und was soll das bringen? Der Entwickler, der das anbietet, steckt sich Geld in die Tasche, aber die Last auf den Groundspeak-Servern ist die selbe? Außerdem sind die Quellen des Cachewolf frei verfügbar, jeder mit einer Entwicklungsumgebung kann sich den selbst anpassen wie er will. Einmal veröffentlichtes Wissen kann nicht mehr rückgängig gemacht werden.
 

Carsten

Geowizard
jennergruhle schrieb:
was spräche dann dagegen, die HTML-Seiten aus dem Browsercache zu parsen?

Ich würde mich mal über das "Schicksal" des GCTour-Programmierers informieren. Das Tool hat ja im Endeffekt nichts anderes gemacht.
 
Status
Für weitere Antworten geschlossen.
Oben