• Willkommen im Geoclub - dem größten deutschsprachigen Geocaching-Forum. Registriere dich kostenlos, um alle Inhalte zu sehen und neue Beiträge zu erstellen.

Die Zukunft von geocaching.de

Das Problem mit einem zentralen Server ist ja wohl eindeutig der Traffic. 80GB im Monat (und man kann wohl davon ausgehen, dass das in Zukunft nicht weniger, sondern eher mehr wird) sind nicht irgendwo kostenlos zu haben.
Was spricht denn dagegen, trafficlastige Teile zu verteilen? Wir doch bisher auch nicht anders gemacht.

Gruß
Oli
 
hcy schrieb:
Was ist denn das für ein Unsinn? Seit wann sind denn verteilte Systeme unprofessionell?
O.k., Du hast also hinter gc.de einen Load Balancer, der abhängig von Serverload und entsprechend der SLAs die Zugriffe auf redundante Server verteilt? Cool! Du organisierst es, dass zentrale Änderungen sofort auf allen Servern reflektiert werden? Respekt! Und das alles nebenbei mal schnell zusammenprogrammiert? Geilo, Du bist ja eine richtige Konkurrenz zu meinem Arbeitgeber!
hcy schrieb:
Wenn Du gleich alles abwürgst musst Du Dich nicht wundern wenn am ende überhaupt keiner mitmachen will.
Entschuldige bitte, dass ich ein wenig Realität in diese Diskussion bringe. Ich fände es schade, wenn das Projekt ohne realistische Planung gestartet wird und dann ganz schnell vor die Hunde geht. Fände ich als Geocacher schade und als Fachmann vermeidbar.
Wenn Du meine Worte von vorne bis hinten liest, merkst Du vielleicht, dass ich es nicht "abwürgen will" sondern einige aufgepoppte Vorschläge für höchstgefährlich halte. Dass es vielleicht nich so gemacht werden kann wie Du es im ersten Moment möchtest, muss doch nicht zwangsläufig heißen, dass es garnicht gemacht werdne kann, oder?
 

hcy

Geoguru
Schnüffelstück schrieb:
O.k., Du hast also hinter gc.de einen Load Balancer, der abhängig von Serverload und entsprechend der SLAs die Zugriffe auf redundante Server verteilt? Cool! Du organisierst es, dass zentrale Änderungen sofort auf allen Servern reflektiert werden?

genau weil sowas (noch) nicht möglich ist plädiere ich dafür erst mal die Sachen mit dem meisten Traffic (Karten) so zu verteilen, dass man keinen Load-Balancer braucht und Änderungen auf dem einen Server den anderen nicht unbedingt betreffen.
Das geht m.E. am einfachsten indem man die Karten je nach Bundesland physisch verteilt. Wo ist das Problem?
 
Mir is doch wurscht, flickschustert soviel Ihr wollt, Hauptsache irgendwie für lau zusammengeklaubt. Da ertrage ich dann doch lieber auf anderen Seiten ein bisschen Werbung und kaufen hin und wieder mal Merchandising-Kram und bin nicht von zusammengestückelten Privatservern abhängig.
 
He, nu macht mal langsam ihr beiden! Laßt uns doch bitte sachlich bleiben!

Es scheint hier wohl ein klassisches Missverständnis zu geben:
Mit dem Auslagern meinte hcy (und ich übrigens auch) einfach, dass die Karten auf anderen Domains liegen und auf geocaching.de einfach verlinkt werden. So wir's doch im Grunde genommen jetzt auch gemacht: Die Karten liegen auf geocaching.homelinux.net und werden nur verlinkt.

Gruß
Oli
 

wutzebear

Geoguru
Die Sachensucher schrieb:
So wir's doch im Grunde genommen jetzt auch gemacht: Die Karten liegen auf geocaching.homelinux.net und werden nur verlinkt.
Fast, aber es gibt einen kleinen Unterschied: alle Karten liegen auf dem gleichen Server, somit müssen alle Scripte nur 1x laufen. Lege jede Karte auf einen anderen Server und Du hast plötzlich ein Dutzend Scripte, die sich alle die gleichen Daten holen. Groundspeak macht bisher nur halbherzige Aktionen gegen Leute die spidern. Wenn sich aber der spiderbedingte Traffic aus Deutschland vervielfacht, befürchte ich Schlimmes.
 

Eisbaer

Geocacher
wutzebear schrieb:
Fast, aber es gibt einen kleinen Unterschied: alle Karten liegen auf dem gleichen Server, somit müssen alle Scripte nur 1x laufen. Lege jede Karte auf einen anderen Server und Du hast plötzlich ein Dutzend Scripte, die sich alle die gleichen Daten holen. Groundspeak macht bisher nur halbherzige Aktionen gegen Leute die spidern. Wenn sich aber der spiderbedingte Traffic aus Deutschland vervielfacht, befürchte ich Schlimmes.

Könnte man nicht das Script nur einmal laufen lassen und die Daten dann an alle Server in GE verteilen. Damit wird der GC.com Server nicht mehr als bisher belastet und alle Daten haben einen einheitlichen Stand???
 

hcy

Geoguru
Man könnte zentral von einem Server aus spidern und die Daten dann weiter verteilen.
Das Problem mit dem Spidern spricht auch wieder für OC.de: da gibt's einfach eine XML-Schnittstelle um die Daten (ganz offiziell) zu holen.
Aber um GC.com wird man wohl 'ne Weile noch nicht drum rum kommen ...
 
Hab da mal ne ganz verrückte Idee:
Jeder hat ja mehr oder weniger Cachebeschreibungen bei sich auf dem Rechner. Da könnte man doch so ne Art Filesharing-Netz à la Napster & Co aufbauen, welches die Cachebeschreibungen dezentral hält. Und wenn ein neuer Cache dazu kommt, sollte es nicht lange dauern, bis jemand die Daten von GC.com auf seinen Rechner geladen hat, von wo aus sie wieder weiterverteilt werden.

Oli
 

-tiger-

Geowizard
Zum Thema karten:

meine Deutschlandarte auf geocaching.schwarzwald.de bekommt demnächst ein neues, verbessertes Frontend und noch ein paar neue Features dazu. Weiterhin versuche ich kostenlose Feindaten für das Straßennetz von Deutschland zu bekommen, das wird aber noch dauern. Einzelne Bundesländer können vermutlich in Zukunft in höchster Zoomstufe mit TOPO-Karten hinterlegt werden. Technisch klappt das schon, das Problem ist die Lizensierung des Kartenmaterials, die Bundesländer verhalten sich sehr unterschiedlich was die Freigabe von Kartenmaterial angeht. Einzelne Bundesländer sollten aber schon möglich sein, ich bin das zur Zeit am prüfen.

Eine von technischer Seite professionelle und standardkonforme Umsetzung der Cache-Karte (WMS konformer Server + DHTML-Frontend) würde damit bei Interesse zur Verfügung stehen.

Bleiben zwei offene Fragen:

1. Datenquelle: Die Cache-Daten kommen momentan freundlicherweise vom Spider von geocaching.de. Dieser Spider müsste weiterhin irgendwo untergebracht werden, ich kann diesen nicht bei mir betreiben.

2. Hosting des Mapservers / Frontends: Momentan habe ich monatlich ca. 2GB traffic durch die Karten auf geocaching.schwarzwald.de, ein paar mehr GB verkrafte ich noch und könnte zumindest für den Anfang das System hier stehen lassen. Bei steigendem Volumen müsste man sich was ausdenken, vielleicht kann ich einen flat-tarif aushandeln, der sich durch ein Sponsoring decken lassen würde. Der geocaching.schwarzwald.de Server ist meine eigene Hardware, cpu-mässig ist da noch viel Platz, den könnte ich vorerst für die Karten zur Verfügung stellen. Ein Umzug auf ein anderes System ist nicht ganz einfach, da auf dem Server CGIs unterstützt werden müssen und bestimmte Libraries (Proj.4, GDAL etc.) in bestimmten Versionen vorliegen müssen. Es kommt nur ein Linux Root-Server in Frage. Alles einfach belassen, wo es ist, wäre am einfachsten, zumal ich 24h physikalischen Zugang zu dem System habe. Die Anbindung mit derzeit 155MBit sollte auch reichen.

Eine Verteilung der Karten auf verschiedene Server ist zumindest so wie ich das momentan mache nicht möglich, da es sich um eine zusammenhängende, beliebig zoom-bare Deutschlandkarte "am Stück" handelt.

Tiger
 

marco2206

Geocacher
Die Sachensucher schrieb:
Hab da mal ne ganz verrückte Idee:
Jeder hat ja mehr oder weniger Cachebeschreibungen bei sich auf dem Rechner. Da könnte man doch so ne Art Filesharing-Netz à la Napster & Co aufbauen, welches die Cachebeschreibungen dezentral hält. Und wenn ein neuer Cache dazu kommt, sollte es nicht lange dauern, bis jemand die Daten von GC.com auf seinen Rechner geladen hat, von wo aus sie wieder weiterverteilt werden.

Für so verückt halte ich die Idee garnicht! Im Gegenteil!
Man könnte doch die Daten für die Karten aus GPX-Dateien, die von Usern beigesteuert werden gewinnen. Das hätte z.b. auch den Vorteil, das man dann wohl auch GPX zum Download anbieten könnte, die danke der Aktualisierung durch nutzer ziemlich aktuell wären. In den Heutigen GPX-Downloads von Geocaching.de sind leider sehr viele mittlerweile Archivierte Caches enthalten. Ein Angebot von mir an Geocaching.de, ihnen eine GPX-Datei mit mehr als 300 Archivierten Caches zukommen zu lassen, welche ich auf meinen Rechner habe, blieb leider bisher unbeantwortet.

Dank dem Polygonfilter in GSAK könnte man übrigens Kleine Bereiche seht genau abgrenzen. Für jeden dieser Bereiche könnte eine Person die Bereitstellung der Aktuellen .GPX-Daten übernehmen. Ich würde mich in dem Fall für Mittelfranken anbieten!
 

hcy

Geoguru
Also die Karte von schwarzwald.de gefällt mir viel besser als die von GC.de. Aber immer mal verhält sich das ganze etwas merkwürdig (auf Safari).

Ich hab' nur bisher nie reingeschaut weil die Domain vermuten ließ, dass da nur die Karte vom Schwarzwald zu finden ist ...
 

-tiger-

Geowizard
Die Karte funzt prinipiell auch auf Safari, habs ausgiebig auf nem Mäc von nem Bekannten getestet. Was geht denn bei dir schief? Aber wie bereits geschrieben kommt noch ein Frontent-Update mit "on Mouse over" popups für die Caches und direktem "Klick to Cache" auch wenn das Zoomwerkzeug ausgewählt ist. Mit dem Update kommen auch Verbesserungen was die Browser-Unterstützung angeht. Ich brauch nur noch 1-2 Wochen um das hinzufrickeln.

Tiger
 
A

Anonymous

Guest
-Tiger- schrieb:
Mit dem Update kommen auch Verbesserungen was die Browser-Unterstützung angeht. Ich brauch nur noch 1-2 Wochen um das hinzufrickeln.
Wenn ich das richtig interpretiere, wäre damit der Karten-Aspekt gerettet. Bietest Du dann nur noch die an oder planst Du auch weiterhin die aktuellen, puristischen Karten zur Verfügung zu stellen? Für Modem-Nutzer haben die so ihre Vorteile ...

Viele Grüße,
Tobias
 

radioscout

Geoking
Balin schrieb:
Wenn die Karten jetzt aber in einem direkten Konkurenzprojet von GC.com eingebunden würden und das ist OC.de wohl, kann ich mir gut vorstellen das der Druck stärker wird.
gc.com braucht keine Konkurrenz zu fürchten, was daran liegt, daß der Servive sehr gut ist und die Konkurrenzprodukte kaum akzeptiert werden.
Ich bi ja schon froh, wenn ich nur 5 % der gefundenen Caches auch bei nc.com und 0,5 % bei oc loggen kann. Und wenn ich mal einen nc-Only-Cache finde, bin ich richtig happy. Aber das passiert auch nur ca. 1 mal im Jahr.
 
OP
Vinnie

Vinnie

Geocacher
Eisbaer schrieb:
wutzebear schrieb:
Fast, aber es gibt einen kleinen Unterschied: alle Karten liegen auf dem gleichen Server, somit müssen alle Scripte nur 1x laufen. Lege jede Karte auf einen anderen Server und Du hast plötzlich ein Dutzend Scripte, die sich alle die gleichen Daten holen. Groundspeak macht bisher nur halbherzige Aktionen gegen Leute die spidern. Wenn sich aber der spiderbedingte Traffic aus Deutschland vervielfacht, befürchte ich Schlimmes.

Könnte man nicht das Script nur einmal laufen lassen und die Daten dann an alle Server in GE verteilen. Damit wird der GC.com Server nicht mehr als bisher belastet und alle Daten haben einen einheitlichen Stand???

GC.com haelt sich seit laengerem nur noch bedeckt (sprich, spricht nicht mit uns ueber das Thema), aber man hat uns auch schon mal gesagt, dass sie es durchaus schaetzen, dass wir diese Dienste machen. Immerhin halten wir ihnen ne Menge Arbeit aus dem Datenbanken, da die Nutzer ja direkt die (cachfaehigen) Detailseiten abfragen, statt jeweils eigene Datenbankabfragen an GC.com zu senden.

Letzter Kontakt lief so, dass wir nachdem der Spider mal wieder geblockt worden war, ueber Laogai und direkt sehr schnell Antwort bekamen und auch sehr schnell wieder freigeschaltet wurden. Man teilte uns dazu dann nur mit, wenn wir den Traffic irgendwie redutzieren koennten, sollten wir das tun. Seitdem spiedern wir nur noch 1x / Woche.

Uebrigens: Die gesamten oesterreichische Site (und glaube auch die Schweizer) laufen auf 'unseren' Datenfiles, zudem eine tschechische Site (glaube ich) und einige deutsche Anwendungen selbst auch. Heisst: Wir haben immer schon die Daten gern weiterverteilt, um eben dafuer zu sorgen, dass GC.com nicht von jedem, der etwas machen will, neu gespidert werden muss.

OC.de hat ein anderes Ziel - und ja durchaus konkurrierend zu sehen - und will IHMO gar nicht Caches anderer Sites zeigen ;-) Kann aber immer alles neu diskutiert werden ;-)

LG

Nicola aka nici+
 

-tiger-

Geowizard
tobsas schrieb:
Wenn ich das richtig interpretiere, wäre damit der Karten-Aspekt gerettet. Bietest Du dann nur noch die an oder planst Du auch weiterhin die aktuellen, puristischen Karten zur Verfügung zu stellen?

Meine Karten sind unabhängig von geocaching.de (allerdings von Anfang an basierend auf den gc.de Daten) entstanden, mir ging es ursprünglich mehr um eine Machbarkeitsstudie und darum, mit WMS zu experimentieren, als um eine richtige Anwendung. Da die Karten aber dann erstaunlich gut funktioniert haben und viel positive Resonanz kam, habe ich vor einiger Zeit geocaching.de angeboten, ihnen die Technologie zur Verfügung zu stellen. Dadurch, daß Nici und Vinnie sich aus der Sache weitgehend zurückziehen wollen, kam dann von mir das Angebot, einfach meinen Mapserver "as is" zur Verfügung zu stellen. Von den bisherigen Karten habe ich keine Ahnung und sehe mich auch nicht wirklich im Stande, diese zu pflegen oder weiter zu entwickeln. Da es aber kein Problem ist, das Gesamtwerk geocaching.de auf verschiednen Systemen zu hosten, sollte es kein Problem sein, auch die bestehenden Karten irgendwo weiter zu betreiben. Alternativ wäre für Modem-User eine Variante denkbar, aus meinem Mapserver einzelne statische "Kacheln" rauszuziehen und diese ohne pan/zoom Frontend als Einzelseiten anzubieten. Durch die Client-Server Architektur dürfte sich der Programmieraufwand dafür in Grenzen halten.

Tiger
 

DL3BZZ

Geoguru
Apropo Karten, DIE HIER finde ich auch sehr gut.
Die bisherigen Karten bei GC.de finde ich super, auf solch Service möchte ich nicht gern verzichten.
Nochmals vielen Dank an all die Leut, die bisher bei GC.de mitgemacht haben, das die Site so gut wurde. Hoffe, sie bleibt uns noch lange erhalten.

Bis denne
Lutz, DL3BZZ
 

marco2206

Geocacher
radioscout schrieb:
marco2206 schrieb:
Man könnte doch die Daten für die Karten aus GPX-Dateien, die von Usern beigesteuert werden gewinnen.
Die Nutzungsbedingungen lassen das nicht zu.

Schade, :( wusste ich nicht. Gilt das auch für .Loc Files, oder .db-Files, die Cachedaten enthalten?

Aber auch wenn die Daten für die Karten weiterhin über Spider geholt werden, müsste man eine Möglichkeit schaffen, sie "ernsthaft" zu Pflegen, und das nicht nur von einem einzigen betreuer, sondern verteilt. Denn die Aktuellen datenbestände von GC.de belegen leider durch zum teil extrem viele Cacheleichen, das die sache mit Archivierten Caches und Spider eben nicht klappt. Und das Melden von Archivierten Caches, und einpflegen in den GC.de Datenbestand klappt in letzter Zeit auch nicht mehr.
 
Oben