• Willkommen im Geoclub - dem größten deutschsprachigen Geocaching-Forum. Registriere dich kostenlos, um alle Inhalte zu sehen und neue Beiträge zu erstellen.

Gemerkt?

G

Gelöschtes Mitglied 771

Guest
vor einer stunde war das noch anders.
man kann ja nicht ständig bei gc.com eingeloggt sein. ;-)

mfg M.B.
 

Gnarfy

Geocacher
Trailchaser schrieb:
Damit ist den Spidern erstmal(?) der Zugang verwehrt ...

Nö. Es gibt bereits einen Spider (hat hier im Forum auch zufällig 'ne eigene Rubrik), der sich einloggt. Die anderen werden folgen.

Allerdings kann man so natürlich nachvollziehen, wer da spidert und ggf. Accounts sperren.
 

Gagravarr

Geomaster
Ebenst. Und damit werden dann nicht komplette IP-Bereiche dicht gemacht, sonderen einzelne User gesperrt...
 
Trailchaser schrieb:
Gagravarr schrieb:
Ebenst. Und damit werden dann nicht komplette IP-Bereiche dicht gemacht, sonderen einzelne User gesperrt...
Happy Fake-Accounting ...
Wastl

Oder jemand programmiert etwas P2P-artiges, wo viele einfach nur ihre nearest caches 'spidern' oder Ihr tragt Eure Caches auch hier
http://www.navicache.com
oder da
http://www.opencaching.de
hin. Dann gibt es auch wieder aktuelle Kreuze und Punkte in den Karten auf http://www.geocaching.de und mit der Zeit auch immer mehr aktuelle Logs. Mit Copy&Paste ist das bei den meisten Caches nicht wirklich schwer (Spezial-Layouts mal aussen vor).
Kruemelmonster
 

umhasi

Geocacher
Captchas gehen aber zu Lasten der Usability und wären auch nicht angemessen.

Was mir stinkt ist die Tatsache, dass ich nun mit Spoilersync nicht mehr arbeiten kann. Ein entsprechender Service, der die Daten z.b. für die Caches meiner PQs gezipped vorhält wäre super. Aber das bleibt wohl nur ein Traum.

Grüße,
Harry
 

radioscout

Geoking
Richtig konfiguriert würdest Du wahrscheinlich nie ein Captcha sehen. Wenn das Programm die Benutzereingaben auswertet und nur bei Verdacht auf automatischen Download ein Captcha anzeigt, wird der normale User nicht dadurch gestört.
Ein einfacher Ansatz könnte so aussehen:
- Bis zu 20 Anfragen pro Stunde keine Abfrage.
- Bei mehr als 20 Anfragen keine Abfrage, wenn erkennbar ist, daß ein typisches menschliches Nutzerverhalten vorliegt (Suchanfragen, dann individuell den Links folgen usw.)
 
radioscout schrieb:
Richtig konfiguriert würdest Du wahrscheinlich nie ein Captcha sehen. Wenn das Programm die Benutzereingaben auswertet und nur bei Verdacht auf automatischen Download ein Captcha anzeigt, wird der normale User nicht dadurch gestört.
Ein einfacher Ansatz könnte so aussehen:
- Bis zu 20 Anfragen pro Stunde keine Abfrage.
- Bei mehr als 20 Anfragen keine Abfrage, wenn erkennbar ist, daß ein typisches menschliches Nutzerverhalten vorliegt (Suchanfragen, dann individuell den Links folgen usw.)

Eine weitere Möglichkeit läge darin, oBdA die nächstgelegenen 100 Caches auf die Watchlist zu nehmen. Dann gibt es aktuelle founds eben per email. Schätze mal, dass der plain_text sogar viel leichter zu parsen ist als die bunten hmtl-Seiten.
Die Gegenmaßnahme besteht dann darin, dass die Watchlist limitiert wird oder nach dem Versand von 10 Benachrichtigungen ein Captchacha beantwortet werden muß? :idea: :idea: :idea: :?: :twisted:
 

radioscout

Geoking
kruemelmonster schrieb:
Eine weitere Möglichkeit läge darin, oBdA die nächstgelegenen 100 Caches auf die Watchlist zu nehmen. Dann gibt es aktuelle founds eben per email. Schätze mal, dass der plain_text sogar viel leichter zu parsen ist als die bunten hmtl-Seiten.
Wer will den nur die Logs haben? Es geht doch um das Saugen von kompletten Cachebeschreibungen incl. aller Bilder.
 

radioscout

Geoking
umhasi schrieb:
Was mir stinkt ist die Tatsache, dass ich nun mit Spoilersync nicht mehr arbeiten kann.
Das Problem waren sicher nicht die Leute, die sich mit Spoilersync ein paar Fotos zu den Beschreibungen runtergeladen haben sondern die, die regelmäßig versucht haben, alle Cachelistings in .de (oder mehr) komplett auf ihren PC zu kopieren.

Und auch sicher nicht der eine Spider, der die Daten für gc.de geliefert hat. Denn der war ja sehr defensiv eingestellt.

Richte Deinen Zorn lieber gegen die vielen tausend User in aller Welt, die täglich hunderte MB runtergeladen und damit die Server teilweise vollständig blockiert haben.
Wobei laut Aussagen in den Foren dazu auch nicht die üblichen Programme sondern selbstgeschriebene und besonders effizient arbeitende Software benutzt wird.
 

hucky91074

Geocacher
umhasi schrieb:
Was mir stinkt ist die Tatsache, dass ich nun mit Spoilersync nicht mehr arbeiten kann.

Hi,

bist du dir da sicher? Die Koordinaten interessieren SpoilerSync doch nicht. Auch wenn man nicht eingeloggt ist sieht man die Spoilerbilder. So wie ich es sehe nimmt SpoilerSync den Waypointnamen aus der GPX Datei, schaut in seinem Datenverzeichnis nach. Und wenn die Datei noch nicht da ist werden die Cachebilder aus der gesamten Beschreibung rausgefiltert und runtergeladen. Dafür braucht man wiegesagt nicht eingeloggt sein.

Gruss
Roland
 

goldensurfer

Geoguru
BlackyV schrieb:
Cache Page: You must now log in before you can see coordinates for cache listings."

Also das haben sie dann aber scheinbar wieder geändert. Konnte gerade ganz wunderbar die Cachelist aufrufen und auch einzelne daraus anzeigen - ohne Login.

...ah, jetzt hat's der goldensurfer auch gemerkt, wo der Haken ist :wink:
Okay, nehme das posting zurück. :eek:
 

Team-Crossgolf

Geowizard
So - jetzt gehts wieder zurück zu den Wurzeln - mal ehrlich - ich finde das gar nicht so schlecht.

Also ich lasse schon lange den Finger vom Spidern. Und wenn meine IP gesperrt wird, weils ein anderer mir eingebrockt hat, bin ich wirklich Stinksauer.

Hiermit mein Aufruf - laßt es mit dem Spidern und machts wie früher - OHNE Spider.

Wer stimmt mir zu?
 

Team Spikeman

Geocacher
TEAM CROSSGOLF schrieb:
Hiermit mein Aufruf - laßt es mit dem Spidern und machts wie früher - OHNE Spider.

Das hat doch mit früher oder später nix zu tun. Es gibt halt bestimmte Funktionalitäten die groundspeak selbst PM's nicht bietet/bieten kann. Ich nutze z.B. hier in Hamburg eine Seite ganz gern, die mir die tagesaktuellen Logs der Caches hier anzeigt. Das gibt es so bei geocaching.com nicht, auch nicht für einen PM. Der Seitenbetreiber muß also spidern weil er anders nicht an diese Daten kommen kann.

Und um es noch einmal zu verdeutlichen: Es würde groundspeak vom traffic her im Vergleich zu jetzt ein Lächeln kosten, würden sie ihren Datenbestand über ein P2P-Netzwerk verbreiten. Aber -> kommerzielle Interessen verbieten dies.

Was aber macht groundspeak aus diesen Daten und den Kommerzinteressen? Wie hier schon mehrfach Erwähnt ist das Angebot und die Konfigurierbarkeit der Abfragen doch lächerlich! Sollte sich dieser Umstand ändern, würde auch ich freiwillig auf andere Hilfsmittel verzichten und PM werden. Momentan ist mir der Mehrwert allerdings zu dünn.
 

TKKR

Geoguru
Team Spikeman schrieb:
... Ich nutze z.B. hier in Hamburg eine Seite ganz gern, die mir die tagesaktuellen Logs der Caches hier anzeigt. Das gibt es so bei geocaching.com nicht, auch nicht für einen PM.
Natürlich bietet das Groundspeak sogar als eine Grundfunktion => Watchlist
 
Oben