Java 8 brachte mit dem java.util.Stream-API ein modernes, funktionales und mächtiges Tool zur Berechnung von Daten. Einer seiner großen Vorteile ist, dass es viele Aspekte der Iteration und der darunter liegenden Collection-Implementierung versteckt sowie eine parallele Abarbeitung auf Basis des Fork-Join Pool bietet.
Dieser Vortrag wird auf Basis des Stream-API und des Hazelcast-Jet-Frameworks die Berechnung auf mehrere Maschinen verteilen und es so möglich machen, auch Datenmengen zu berechnen, welche mehr Speicher bräuchten, als in einer einzelnen JVM zu verarbeiten ist.
Zusätzlich werden der Hintergrund von Directed Acyclic Graphs (DAGs) erläutert sowie ein Blick in die Hazelcast-Jet-Low-Level-API geworfen, welche viele zusätzliche Möglichkeiten bietet und nahezu “übernatürliche Fähigkeiten” hat.
NoSQL ist in aller Munde und (nahezu) jeder will diese neuen Technologien verwenden. Aber was ist NoSQL eigentlich genau, welche Probleme will es adressieren und lösen?
Der Vortrag will dazu keine allumfassende Antwort geben, aber er will diskutieren und aufzeigen, dass es nach wie vor viele Missverständnisse in der NoSQL-Welt gibt.
Die kleine Reise durch die "NoSQL-Geschichte" beginnt bei Codd und seinen Ideen, welche die relationale Welt begründeten. Lange Zeit galten relationale Datenbanken als alternativlose Datenpersistenzspeicher.
Von hier aus geht es weiter zur Brewerschen Vermutung und dem Beweis des CAP-Theorems. Die Konsequenzen, die das CAP-Theorem auf verteilte Datenbanksysteme, die Hauptdomäne vieler NoSQL-Datenbanken, hat, sind nicht wegzudiskutieren.
Abschließend blicken wir auf die harsche Kritik Stonebrakers am Festhalten an veralteten Techniken und den relationalen Elefanten.
Im Laufe des Vortrags werden gängige Definitionen beleuchtet und einige resultierende Missverständnisse diskutiert. Beispielhaft werden Programmierparadigmen im Umgang mit der alten und der neuen Welt gezeigt. Über allem schwebt dabei die Frage, ob sich hier alte Konzepte in einem neuen sprachlichen Gewand präsentieren, ob wir aus der Vergangenheit lernen können oder ob sich die Geschichte in der verteilten Datenhaltung wiederholt.
ABGESAGT: Ihr redet über Resilience und wisst nicht was CAP & Co. ist?
Description changed:
Wir müssen diesen Vortrag aus Krankheitsgründen leider absagen. Wir hoffen, ihn an einem anderen Tag im Jahr nachholen zu können. Vielen Dank für euer Verständnis!
Mit Joachim Arrasz und Dr. Christian Mennerich
Resilience ist momentan in aller Munde - und gerade im Zuge der wachsenden Verbreitung von Microservices allgegenwärtig im Architekturdesign. Im Kern fordert die Resilience den toleranten Umgang mit Fehlern in Hard- und Software. Gerade in verteilten Systemlandschaften sind Ausfälle und Fehler unvermeidbar: Das System soll sich möglichst automatisiert erholen und seine Services wieder zur Verfügung stellen. Noch immer aber werden für verteilte Systeme Annahmen getroffen, die sie nicht erfüllen können. Hier gelten insbesondere die Implikationen aus dem CAP-Theorem und der Priorisierung von Konsistenz, Verfügbarkeit und Partitionstoleranz im Rahmen der eigenen Systemarchitektur. Dieser Vortrag will das Zusammenspiel aufzeigen zwischen CAP und Resilience in verteilten Softwaresystemen und diskutieren wie wichtig es ist, die Anforderungen und SLAs der Teilsysteme korrekt benennen zu können, um die vorhandenen Techniken gewinnbringend zu kombinieren.
Ihr redet über Resilience und wisst nicht was CAP & Co. ist?
Description changed:
Mit Joachim Arrasz und Dr. Christian Mennerich
Resilience ist momentan in aller Munde - und gerade im Zuge der wachsenden Verbreitung von Microservices allgegenwärtig im Architekturdesign. Im Kern fordert die Resilience den toleranten Umgang mit Fehlern in Hard- und Software. Gerade in verteilten Systemlandschaften sind Ausfälle und Fehler unvermeidbar: Das System soll sich möglichst automatisiert erholen und seine Services wieder zur Verfügung stellen. Noch immer aber werden für verteilte Systeme Annahmen getroffen, die sie nicht erfüllen können. Hier gelten insbesondere die Implikationen aus dem CAP-Theorem und der Priorisierung von Konsistenz, Verfügbarkeit und Partitionstoleranz im Rahmen der eigenen Systemarchitektur. Dieser Vortrag will das Zusammenspiel aufzeigen zwischen CAP und Resilience in verteilten Softwaresystemen und diskutieren wie wichtig es ist, die Anforderungen und SLAs der Teilsysteme korrekt benennen zu können, um die vorhandenen Techniken gewinnbringend zu kombinieren.
Bei der JUGH wurden in der Vergangenheit schon mehrere Vorträge zum Thema Docker gehalten. Mittlerweile ist Docker erwachsen geworden und es stellt sich die Frage, wie man eine solch mächtige Technologie effektiv bändigen und einsetzen kann.
Bei Rancher handelt es sich um eine Container Management Platform, die genau dafür Lösungen anbieten will. Als Aufsatz für bekannte Orchestrierungsplattformen wie Kubernetes, Swarm und Mesos oder durch die Nutzung der Rancher-eigenen Plattform Cattle, erfindet Rancher das Rad nicht neu, sondern erweitert bestehende Technologiestacks um neue Möglichkeiten zur einfacheren Verwaltung.
Ziel dieses Vortrags ist es aufzuzeigen, wie mit Rancher schnell und einfach verschiedene Umgebungen, vom DEV-Environment bis zur Produktion, aufgesetzt werden konnen. Konzentriert wird sich dabei auf die Rancher-eigene Variante mit Cattle, die bei uns in der Produktion erfolgreich eingesetzt wird, und auf das Vorstellen von Stolpersteinen und Lösungen. Eine Live-Demo am lebenden Patienten wird ein Gefühl dafur vermitteln, wie das Arbeiten mit Rancher konkret aussieht.
Eine Voranmeldung ist nicht nötig, der Eintritt ist frei.
Bei der JUGH wurden in der Vergangenheit schon mehrere Vorträge zum Thema Docker gehalten. Mittlerweile ist Docker erwachsen geworden und es stellt sich die Frage, wie man eine solch mächtige Technologie effektiv bändigen und einsetzen kann.
Bei Rancher handelt es sich um eine Container Management Platform, die genau dafür Lösungen anbieten will. Als Aufsatz für bekannte Orchestrierungsplattformen wie Kubernetes, Swarm und Mesos oder durch die Nutzung der Rancher-eigenen Plattform Cattle, erfindet Rancher das Rad nicht neu, sondern erweitert bestehende Technologiestacks um neue Möglichkeiten zur einfacheren Verwaltung.
Ziel dieses Vortrags ist es aufzuzeigen, wie mit Rancher schnell und einfach verschiedene Umgebungen, vom DEV-Environment bis zur Produktion, aufgesetzt werden können. Konzentriert wird sich dabei auf die Rancher-eigene Variante mit Cattle, die bei uns in der Produktion erfolgreich eingesetzt wird, und auf das Vorstellen von Stolpersteinen und Lösungen. Eine Live-Demo am lebenden Patienten wird ein Gefühl dafür vermitteln, wie das Arbeiten mit Rancher konkret aussieht.
Eine Voranmeldung ist nicht nötig, der Eintritt ist frei.
In Zeiten von Docker, Big Data und Microservices wird es immer wichtiger, eine verteilte Anwendung sinnvoll auf ein Cluster zu verteilen und dabei trotzdem noch den Überblick zu behalten. Daher werden Plattformprodukte bzw. Cluster-Management-Systeme wie Kubernetes oder DC/OS immer wichtiger und halten in immer mehr Bereiche Einzug.
In dieser Session werden wir einen javabasierten Service implementieren und ihn mit einer Handvoll umgebenden Services zunächst mit Docker-Compose starten. Danach werden wir sehen, wie einfach es ist, die gleiche verteilte Anwendung in DC/OS auf dem eigenen Cluster zu deployen und zu monitoren. Danach werden wir einzelne Services unabhängig von der restlichen Anwendung skalieren und im laufenden Betrieb aktualisieren. Und das Coolste dabei: Wir können uns alle Vorgänge visualisieren lassen!
Eine Voranmeldung ist nicht nötig, der Eintritt ist frei.
Im Frühjahr 2016 wurden in der Presse die ersten Berichte zu den "Panama Papers" veröffentlicht. Mit knapp 3 TB an Rohdaten war dies das bisher mit Abstand größte Leak an Daten weltweit.
Der Vortrag gibt technische Einblicke, wie das ICIJ (International Consortium Of Investigative Journalists) diese riesige Datenmenge verarbeitet und den Journalisten zur Recherche einfach benutzbar bereitgestellt hat. Neben anderen Technologien kamen dabei auch Graphdatenbanken als Schlüsselkomponente zum Einsatz. Eine Livedemo wird Lesbarkeit und Mächtigkeit der Abfragesprache "Cypher" auf dem Panama Paper Dataset deutlich machen.
Eine Voranmeldung ist nicht nötig, der Eintritt ist frei.
Im Frühjahr 2016 wurden in der Presse die ersten Berichte zu den "Panama Papers" veröffentlicht. Mit knapp 3 TB an Rohdaten war dies das bisher mit Abstand größte Leak an Daten weltweit.
Der Vortrag gibt technische Einblicke, wie das ICIJ (International Consortium Of Investigative Journalists) diese riesige Datenmenge verarbeitet und den Journalisten zur Recherche einfach benutzbar bereitgestellt hat. Neben anderen Technologien kamen dabei auch Graphdatenbanken als Schlüsselkomponente zum Einsatz. Eine Livedemo wird Lesbarkeit und Mächtigkeit der Abfragesprache "Cypher" auf dem Panama Paper Dataset deutlich machen.
Im Frühjahr 2016 wurden in der Presse die ersten Berichte zu den "Panama Papers" veröffentlicht. Mit knapp 3 TB an Rohdaten war dies das bisher mit Abstand größte Leak an Daten weltweit.
Der Vortrag gibt technische Einblicke, wie das ICIJ (International Consortium Of Investigative Journalists) diese riesige Datenmenge verarbeitet und den Journalisten zur Recherche einfach benutzbar bereitgestellt hat. Neben anderen Technologien kamen dabei auch Graphdatenbanken als Schlüsselkomponente zum Einsatz. Eine Livedemo wird Lesbarkeit und Mächtigkeit der Abfragesprache "Cypher" auf dem Panama Paper Dataset deutlich machen.