Keynote
Die Keynote des zweiten Tages wurde von der Firma Interxion gehalten. Sie sind ein Rechenzentren-Betreiber, der ausschließlich den Rackspace inklusive der Infrastruktur bereitstellt. Sprich, sie ermöglichen den Serverbetrieb. Kernpunkt der Keynote war die Vorteile eines carrier-neutralen Rechenzentrumsdienstleisters für Co-location herauszustellen. Diese haben eine direkte Anbindung zu verschiedenen Carriern und gleichzeitig auch eine direkte Verbindung zu den peering-Endpunkten für diverse Cloud-Services, wie Microsoft Cloud, Microsoft German Cloud, etc. Dadurch werden geringe Latenzen auch plattformübergreifend erreicht.
Das ist gerade in hybriden Szenarien wichtig, da dort häufig viele Daten von einem Service zu einem anderen transportiert werden. Ein Beispiel dafür wird in Zukunft Azure Stack sein, die Möglichkeit Azure in seinem eigenen Rechenzentrum zu betreiben. Wenn nun Teile der Dienste in der öffentlichen Cloud betrieben werden und Teile in der privaten Cloud, Azure Stack, sollte ein schneller Datenaustausch möglich sein, um den Service nicht zu beeinträchtigen. Dadurch können die Nutzerdaten, beispielsweise eines Webshops, in Azure Stack liegen und der Web-Server, der schnell von vielen verschiedenen Regionen erreichbar sein soll, in Azure.
Hybrid Cloud Szenarien
Genau um ein solches Szenario ging es auch in der nächsten Session. Markus Klein stellte dort vor, wie ein mögliches, hybrides Szenario aussieht und erklärte, wann eine hybride Konfiguration sinnvoll ist. Hauptaugenmerk dieser Session lag allerdings darin, dass es wenig sinnvoll ist eine Applikation in die Cloud zu bringen, die dafür nicht designed ist. Der einfachste aber schlechteste Ansatz ist, seine lokal gehosteten Virtuellen Maschinen einfach in Azure zu betreiben.
Die Cloud ist primär dafür gedacht, Services bereitzustellen, die native Azure Dienste nutzen. Dabei ist es essentiell, seine Applikationen genau zu kennen und ggf. in der Cloud auszuprobieren, da kaum ein Hersteller eine Applikation generell für Azure oder ähnliche Dienste zertifiziert hat. Im schlechtesten Fall muss also für jede Anwendung ein Proof of Concept erstellt und getestet werden. Das Ziel einer Cloud-Migration ist demnach keinesfalls seine Server abzuschalten und VMs in Azure zu betreiben, sondern seine Applikationen für das Cloud-Design zu modifizieren oder ggf. neu zu entwickeln.
Hidden Treasures of Hyper-V
Diese Session war mein persönliches Highlight. Aidan Finn, MVP Cloud and Datacenter Management, zeigte die eher unbekannten Neuerung von Windows Server 2016, anstatt der bekannten Features wie Storage Spaces Direct, Container, Shielded Virtual Maschines. Seine Agenda war vollgepackt mit kleinen Feinheiten, die das Leben eines Admins fundamental erleichtern. Dazu gehören, Shared VDHs, VM-Groups & Management Collections sowie Hyper-V Nat-Switches.
Mit letzteren und dem Feature „Nested Virtualisation“, das es ermöglicht, Virtuelle Maschinen in einer VM zu betreiben, ist es möglich eine völlig autarke Testumgebung zu erschaffen, die an das Internet angebunden ist, sobald der Host eine Internetverbindung hat. Diese Technologie nutzt er, um eine Demo-Umgebung auf seinem Notebook zu betreiben und darauf sogar Cluster zu zeigen, die wiederum virtuelle Maschinen hosten.
VM- und Management-Groups dienen zur Gruppierung von VMs zu logischen Gruppen wie einer Applikation, um Aktionen mit allen Servern dieser Gruppe ausführen zu können. Dazu zählen auch Snapshots. Wenn für eine SharePoint-Farm zum Beispiel 2 SQL-Server, 2 App-Server und 2 Front-End-Server eingesetzt werden, können jede dieser VMs in eine Gruppe gelegt werden, sodass drei VM-Gruppen entstehen. Danach werden diese Gruppen in einer Management-Gruppe zusammengefügt und es entsteht eine Management-Gruppe für die gesamte Applikation. Innerhalb dieser Gruppen ist es möglich, Abhängigkeiten zu definieren. Das heißt, dass Ressourcen einer Gruppe, z.B. nach einem Serverausfall, erst gestartet werden, wenn einzelne oder alle Server einer abhängenden Gruppe gestartet sind. Darüber kann die Applikation gezielter neu gestartet werden.
Shared VHDs (Virtual Hard Discs) gab es bereits seit Windows Server 2012 R2. Allerdings mit einigen Einschränkungen. Diese wurden nun in Server 2016 eliminiert. Dadurch können VMs mit Shared VHDs nun Live-Migriert werden und die Disks können im laufenden Betrieb verkleinert oder vergrößert werden. Und es können Backups und Replica erstellt werden. Für diese Art von VHDs eignen sich SQL Server Database files oder File Share Services.
Lenovo ThinkAgile
In dieser Sponsor-Session zeigte Lenovo den Aufbau der neuen Azure Stack Appliance, die es ab der generellen Verfügbarkeit von Azure Stack zu kaufen gibt. Die Architektur von Azure Stack sieht nämlich nur den Betrieb in einer Appliance vor. Ein single Node deployment oder auch Development Kit ist nur für Testzwecke erhältlich und nicht für den produktiven Betrieb supported. Azure Stack benötigt mindestens vier Server, die die Dienste ausführen und das Storage bereitstellen und einen Management-Server, der die anderen Nodes überwacht. Dieser Management-Server wird vom Hersteller der Appliance bereitgestellt und ist nicht Teil des Azure Stack von Microsoft.
Darüber hinaus werden noch zwei Switches verbaut, die die Kommunikation des Clusters ermöglichen und ein Switch, der die Management-Daten überträgt. Das ist auch gleichzeitig die minimale Ausbaustufe und wird in einem halbhohen oder ganzen Rack quasi „Schlüsselfertig“ geliefert. Weitere Ausbaustufen sind mit 12 Servern verfügbar. Etwas nach dem Release von Azure Stack soll es möglich sein, auch zwei Racks zu verbinden. Das ist allerdings softwareseitig noch nicht möglich.
Microsoft Operations Management Suite
Microsoft OMS ist, wie hier im Detail beschrieben, eine Cloud-Lösung zur Überwachung seiner Cloud- und On-Premises-Dienste und -Infrastruktur. OMS sammelt Logs über einen Agent oder externe Quellen wie System Center und bereitet diese sinnvoll auf. Mithilfe von Lösungen aus der sog. Solution Gallery werden verschiedene Teile der gesammelten Informationen aufbereitet und Empfehlungen nach best practices gegeben. Zunächst wird im Dashboard ein Überblick gezeigt und über Klicken auf die Lösung, bzw. die angezeigten Daten, werden die Informationen immer detaillierter. Da die Daten aber nur in bestimmten, größeren Abständen eingesammelt werden, eignet sich OMS nicht als Monitoring Lösung sondern vielmehr als Analysetool für vergangene Ereignisse.
Tesla
Ein Beispiel für den Einsatz von OMS wurde in diesem Vortrag gezeigt. Dieser trägt den Titel „Tesla and me – Best Friends!“ und zeigte, was man mit einem Tesla alles anstellen kann.
Viele Funktionen des Autos lassen sich über eine App steuern, dessen Funktionsweise eine indirekte Verbindung zum Auto erfordert. Alle Befehle dieser App werden über Server von Tesla und einer Mobilfunkverbindung des Autos übertragen. Dieses System machte sich Marcel Zehner zu nutze. Er verbindet sich über ein selbst entwickeltes PowerShell-Modul und seinen Anmeldedaten mit dem Tesla-System und damit auch seinem Auto. Darüber kann er jederzeit den Status seines Autos abfragen und darüber in Erfahrung bringen, wo es steht, ob es verschlossen ist, wie die Innenraumtemparatur ist, etc. Mithilfe einer kleinen VM in Azure, fragt er diese Informationen regelmäßig ab. Die Informationen überträgt der Rechner an ein System Center Operations Manager und wertet dort die Logs aus. Doch damit nicht genug. Diese Daten werden in OMS aufbereitet und über einen Report in Power BI grafisch aufgearbeitet.
Da Marcel Zehner auch öfter mit seinem Auto zu Kundenterminen fährt, möchte er dieses mit einer angenehmen Innenraumtemparatur vorfinden. Dafür hat er sich einen Microsoft Flow erstellt, der seine Termin überprüft und 15 Minuten vor einem Termin schaut ob sein Auto im Betreff des Termins erscheint. Wenn das eintritt, wird ein Azure Runbook ausgeführt, das seine Klimaanlage aktiviert.
Zusammenfassung
Alles in allem sind auch dieser Konferenz sehr viele Vorträge mit technischem Fokus gehalten worden, was mir sehr entgegen kommt. Es wurden viele Neuerungen vorgestellt, die sich auf Windows Server und Azure beziehen und nach den Sessions war immer noch Zeit mit dem Vortragenden zu sprechen und offene Fragen zu klären oder sich Tipps und Tricks abzuholen.
Daher hat sich die Konferenz sehr gelohnt und ich kann sie nur empfehlen.