• Willkommen im Geoclub - dem größten deutschsprachigen Geocaching-Forum. Registriere dich kostenlos, um alle Inhalte zu sehen und neue Beiträge zu erstellen.

Spidern mit Cachewolf verbieten / Warnhinweis ?[DEV]?

Status
Für weitere Antworten geschlossen.

maierkurt

Geowizard
Aus (leider) immer wieder gegeben Anlass habe ich mal eine Frage:
Sollte im Cachewolf ein Spider-"Warnhinweis" angebracht werden?
Ich vermute (hoffe) mal, viele Nutzer wissen nicht "was sie tuen" wenn sie mal eben zig hundert Caches spidern.
 

stoerti

Geowizard
Glaubst Du allen Ernstes, Du würdest sie mit einem "Sind Sie sicher" Hinweis davon abhalten?

Jeder intelligente Mensch weiss, dass man sowas nicht tut - weil man es eben nicht tut.
Und die anderen interessieren sich sowieso nicht dafür.
Das muss erst weh tun, damit sie es lernen.

Aber wie wäre es denn mit einer Begrenzung?
Man kann maximal 1000 Caches spidern zum Beispiel.
Sollte nicht zu knapp sein, die Begrenzung aber irgendwo könnte man durchaus eine Schmerzgrenze ziehen.
 

MiK

Geoguru
stoerti schrieb:
Aber wie wäre es denn mit einer Begrenzung?
Man kann maximal 1000 Caches spidern zum Beispiel.
Sollte nicht zu knapp sein, die Begrenzung aber irgendwo könnte man durchaus eine Schmerzgrenze ziehen.
Mittlerweile gibt es ja schon eine einstellbare Begrenzung. Ich finde das recht praktisch, da ich so den Traffic besser im Griff habe als wenn ich nur mit dem Radius arbeite. Vielleicht sollte man diese Einstellung nach oben begrenzen.
 

t31

Geowizard
... da muß dem stoerti 3mal zustimmen.

1. Genauso sehe ich das auch, sowas bewirkt gar nichts.
2. weil ich intelligent bin :D
3. Die Grenze könnte man weit tiefer ansetzen (z.B. bei 500, mir würden sogar 200 reichen, die Logs bräuchte ich überhaupt nicht), 1000 ist viel zu viel, wer braucht denn sowas? Lieber mehrmals mit kleinen Radius wenige Caches, dafür aber gezielt das was man auch wirklich braucht.

@maierkurt
Butter bei die Fische. Welcher leidige Anlass?
 

Silas

Geocacher
Jeder intelligente Mensch weiss, dass man sowas nicht tut - weil man es eben nicht tut.
Das glaube ich gerade nicht. Es gibt sicher genug unbedarfte Anwender, die gar nicht wissen, was "spidern" überhaupt bedeuten soll, sich aber darüber freuen, automatisch GC.com-Caches in die DB zu bekommen. Diese würde eine aufschlussreiche Meldung, die das Problem in zwei, drei Sätzen einfach verständlich umreißt, sicher zur zurückhaltenderen Nutzung bewegen. Ich wäre daher für eine solche Meldung. Die muss ja auf dem PDA nicht mal erscheinen, da dort weniger Platz ist und dieser tendenziell sicher weniger zum Spidern genutzt wird -- und wenn, nur für kleinere Mengen.
 

tituz

Geocacher
stoerti schrieb:
...
Aber wie wäre es denn mit einer Begrenzung?
Man kann maximal 1000 Caches spidern zum Beispiel.
Sollte nicht zu knapp sein, die Begrenzung aber irgendwo könnte man durchaus eine Schmerzgrenze ziehen.
Ich schätze, es dauert dann maximal 4 Tage, bis irgendjemand eine Version ohne die Grenze zum Download anbietet. Es ist toll, dass Cachewolf OpenSource ist, aber solche Aktionen sind dadurch zum Scheitern verurteilt.

Gruss, Titus
 

t31

Geowizard
Silas schrieb:
Lieber aufklären.
Gutes Stichwort, da habe ich seinen guten Beitrag hier m Forum gelesen, dort wird eigentlich der ganze "Spuck" sehr gut zusammengefasst. Der Vorgang im vorletzten Absatz wäre dann der Part parsen.
http://www.geoclub.de/viewtopic.php?p=518806#p518806

Alles im Allem eine an sich harmlose Geschichte solange man es nicht übertreibt. GCTour läuft z.B. direkt im Browser und macht auch nichts anderes, nur das dort eben der Schritt über das GPX-File geht, es gebe also sogar Alternativen zu Cachewolf. Ich verstehe daher auch nicht, wieso immer auf Cachewolf geschossen wird, ist dies wirklich so tragisch für PMs?
Wenn GC ein Problem damit hätte (z.B. wegen schwindenden Werbeeinnahmen, obwohl eh jeder vernümftige Browser diese Blockt), dann könnte ich das nachvollziehen, auch wenn mich diese Kommerzerei anbiedert, denn meine Caches kann jeder suchen und dafür verlange ich kein Geld. Aber vielleicht sollte ich auch auf Only-OC umsteigen.
 
Hallo,

Ich muss sagen eine Obergrenze fände ich nicht schlecht, da dann das spidern automatisch ablaufen kann und man es abends anstellt und morgends fertig oder so. Dann funzt das sogar aufm PDA...

Und mehr als 200 Caches in der aktuellen DB sind nicht soo flüssig...

Btw: Könnte man nicht eine Option einbauen, dass er keine TBs lädt? Die Anzeige, dass einer drin ist meinetwegen, aber deren Beschreibungen + Bilder guckt doch eh niemand im PDA an... Belegt nur Platz und kostet vor allem viel Downloadzeit. An der Stelle, wo man Bilderdl deaktivieren kann, wäre das sinnvoll angebracht!

mfG,
Stefan, der jetzt cachen geht ;-)
 

eremiljo

Geocacher
Hallo,

vielleicht gibt es das ja schon, und ich hab es nur übersehen. Aber ganz toll wäre auch eine Filterfunktion beim Spidern, so dass Caches, die mich nicht interessieren, gar nicht erst gespidert werden. (Also z.B. nur Multis in einem Gebiet downloaden oder alle Mikros weglassen usw.)

Das wäre echt hilfreich!
 

Robin888

Geomaster
Also ich fände einen (Warn-)hinweis fair.

Wieviele User haben sich die AGB von Groundspeak wirklich durchgelesen (und verstanden)? Ich glaube durchaus, daß die meisten neuen User eben *nicht* wissen, daß es nicht erlaubt ist und sich auch *keine* Gedanken machen, was sie damit eigentlich bewirken.

Im Forum immer erst zu schreien "Wie kannst Du bloß?!", wenn das Kind schon in den Brunnen gefallen ist halte ich auf jeden Fall für den falschen Weg.

Warum also nicht einen Hinweis darauf, was für Folgen Spidern hat bzw. haben kann? Und zwar *bevor* tausende Caches geladen werden!
Der ein oder andere wird schon darüber nachdenken.

Am besten einmal vor dem ersten Spidern und jedes mal wenn abzusehen ist, daß ein gewisser Traffic überschritten wird. (Also am besten wenn z.B. 100 oder 200 Caches gefunden wurden.)

Zum Thema Einschränkung der Suche: Fände ich auch gut.
Die Frage ist, ob es einfacher ist das selbst zu implementieren oder auf externe Programme zurückzugreifen. ;-)
Zumindest der Cachetyp lässt sich ja, meines Wissens nach, direkt in die URL einbauen.
Andere Attribute (Diff, Terr.) müsste man wohl ggfls. aus der Seite extrahieren.

Robin(888)
 

Robin888

Geomaster
eremiljo schrieb:
Robin888 schrieb:
Zumindest der Cachetyp lässt sich ja, meines Wissens nach, direkt in die URL einbauen.
Wie geht das?
Über den "TX-Tag":
Geh' zum Beispiel mal auf mein Profil und dort auf "Geocaches".
Wenn Du dort mit der Maus auf die einzelnen Cache-Typ-Symbole zeigt, siehst Du in der Statusleiste die verschiedenen Links, bestehend aus der Such-URL plus einen Tag "tx=..." und "&ul=robin888".
"&ul=robin888" ist klar, daß filtert die Caches, die ich gefunden habe.
"tx=32bc9333-5e52-4957-b0f6-5a2c8fc7b257" zum Beispiel zeigt nur Traditionals.

Der Tag "u=robin888" zeigt meine Caches.
"origin_lat=", "origin_long=" und "dist=" dienen zur Umkreissuche.
Dann gibt es noch die "country_id=" (79 ist Deutschland), aber die scheint nicht damit kombinierbar zu sein...

Experimentier einfach mal ein bißchen mit der Suchseite oder den Profilseiten.

Robin(888)
 

raptor_79

Geonewbie
warum macht ihr eigentlich geocaching?
spielt doch lieber computer, oder so.

ich meine, daß es beim cachen doch genau um das geht. etwas rausfinden, kombinieren und suchen.
wenn ihr keinen bock darauf habt, bzw. es euch zu anstrengend ist, macht doch lieber was anderes. cachewolf. was kommt als nächstes? eine final-site? wo die koordinaten der finals sind? das fehlt ja wohl noch. oder gibts das schon. ich finde geochecker ja schon planlos. genau das macht doch die sache aus, nicht zu wissen, was kommt.

ich finde, das "cacher" die eine 100% sicherheit brauchen lieber auf google-earth cachen sollten. da kann man sogar zu hause bleiben. versteckt doch da eure caches.

solche programme machen caching für jeden daher gelaufenen zu einfach. ich mein, wer die einfachen rechnungen z.b. nicht lösen kann, soll den cache halt auch nicht finden.
 

jennergruhle

Geoguru
tituz schrieb:
Ich schätze, es dauert dann maximal 4 Tage, bis irgendjemand eine Version ohne die Grenze zum Download anbietet. Es ist toll, dass Cachewolf OpenSource ist, aber solche Aktionen sind dadurch zum Scheitern verurteilt.
Das wäre bei Closed-Sorce-Software genauso, nur dass es ein wenig länger dauern würde. Nämlich bis der erste Hacker die passende Code-Stelle im Debugger aufgespürt und gepatcht hat.
Im übrigen wären es eher 2 Minuten als 4 Tage.
 

jennergruhle

Geoguru
jennergruhle schrieb:
tituz schrieb:
Ich schätze, es dauert dann maximal 4 Tage, bis irgendjemand eine Version ohne die Grenze zum Download anbietet. Es ist toll, dass Cachewolf OpenSource ist, aber solche Aktionen sind dadurch zum Scheitern verurteilt.
Das wäre bei Closed-Sorce-Software genauso, nur dass es ein wenig länger dauern würde. Nämlich bis der erste Hacker die passende Code-Stelle im Debugger aufgespürt und gepatcht hat.
Im übrigen wären es bei Open Source eher 2 Minuten als 4 Tage.
 

DunkleAura

Geowizard
wie wäre es ganz einfach mit spider modul als plug-in outsourcen?

also einfach nicht mehr im selben paket zum download anbieten und dann einfach das addon herunterladen und ins verzeichniss plugins oder so speichern und gut ist.

evtl. vor dem modul download noch eine warnmeldung anzeigen, dass dieses modul gegen die zur zeit geltenden ToU von groundspeak verstösst.

*aus dem fenster lehn da ich nicht weiss wie cachewolf aufgebaut ist*
vielleicht wäre der vorteil auch noch eine bessere wartbarkeit?
 

t31

Geowizard
Klar, Modularisieren um dann konzentriert auf ungeliebte Module rumhacken zu können. Gefickt eingeschädelt :roll:
 

DunkleAura

Geowizard
t31 schrieb:
Klar, Modularisieren um dann konzentriert auf ungeliebte Module rumhacken zu können. Gefickt eingeschädelt :roll:
seelig sind die… :kopfwand:
du siehst die vorteile lauter ignoranz mal wieder nicht…

import/export filter aller art wären schneller implementiert und könnten unabhängig gewartet werden.

z.B.
import: OC GPX, OC api falls vorhanden, GC GPX, GC PQ, sogar DEIN heiss geliebtes spider plugin ohne das du nicht leben kannst, TC, NC, OC.pl, MC (falls es irgendwann kommt), loc files, …
export: GPX, sqlite, html, csv, vcard, geolog, fieldnotes, OC logs, was auch immer und zwar mit best möglicher performance.

so neben bei könnte jemand der z.B. oc nicht nutzt diese plugins einfach weg lassen und somit wertvolle sessourcen wie ram der endgeräte spaaren.
die aktualisierung eines plugins müsste nicht zwangsweise ein komplett neues build mit sich ziehen…

warum erkläre ich einem tr- :zensur: wie dir das eigentlich :???:
 
Status
Für weitere Antworten geschlossen.
Oben