Webinar Neuerungen in Failover Clustering in 2016 · 2017-01-25 · •Designed für Hyper-V und...
Transcript of Webinar Neuerungen in Failover Clustering in 2016 · 2017-01-25 · •Designed für Hyper-V und...
Webinar Neuerungen in Failover Clustering in 2016
Carsten Rachfahl
Cloud and Datacenter Management MVP
Microsoft Regional Director
Carsten RachfahlMicrosoft Cloud & Datacenter Management MVP
Microsoft Reginal Director
Mit-Organisator der Cloud & Datacenter Conference Germany http://cdc-gemany.de
Mit Gründer der Hyper-V Community
Twitter @hypervserver
Einer der Hyper-V Amigos http://hyper-v-amigos.net
Geschäftsführer der Rachfahl IT-Solutions GmbH & Co. KG
https://www.hyper-v-server.de
Cluster Validation Wizard
• Support der neuen und erweiterten Szenarien (Same SubnetMultichannel, S2D, …)
• Der Cluster Validation Wizard sollte als Hilfstool dienen das Fehler aufdeckt
• Wichtig für einen supporteten Cluster
Verbessertes ClusterLog
• Time zone: Benutzt UTC mit Offset zur Localen Zeit
• Beinhaltet weitere nützliche Informationen, wie z.B.:• Cluster Objekte mit CSV Informationen
• Folgende Event Channels:
System
Microsoft-Windows-FailoverClustering/Operational logs
Microsoft-Windows-ClusterAwareUpdating-Management/Admin
Microsoft-Windows-ClusterAwareUpdating/Admin log
• DiagnosticVerbose Event log (Ab Loglevel 5)
Microsoft-Windows-FailoverClustering/DiagnosticVerbose
Active Memory Dump
• Beinhaltet nur ManagementOS Speicher • Ist sehr klein
• Sicherer da keine RAM der VMs
• Nicht Cluster spezifisch aber sehr hilfreich bei Hyper-V Cluster
• Memory Dump Optionen:• None
• Complete Memory Dump
• Kernel Memory Dump
• Small Memory Dump
• Automatic Memory Dump (Default)
• Active Memory Dump
Cluster Rolling Upgrade
Rolling Cluster Upgrade ermöglicht es einen Cluster inplace Upzugraden
• Vorgehen pro Host:• Node Freiräumen und aus Cluster nehmen
• Betriebssystem neu Installieren
• Node in Cluster aufnehmen
• Wiederholen bis alle Nodes auf neuem Betriebssystem sind
• Clusterfunktionslevel erhöhen
• Unterstütze Cluster Rollen:• Hyper-V
• Scale-Out Fileserver
Win2012 R2 Win2012 R2 Win2012 R2Win2016Win2016 Win2016
Cluster Resiliency
• VM Compute Resiliency erhöht die Verfügbarkeit der VMs bei Netzwerkproblemen
• VM Compute Resiliency Workflows Im Falle eines Fehlers bei der Inter-Cluster-Kommunikation:
• Knoten wird isoliert
• Die VMs werden nicht mehr gemonitort• SMB-Storage: VMs laufen weiter
• Block Storage: VMs sind Paused-Critical
• Kommunikationsprobleme > 4 Minuten• Failover der VMs
• Host wird als Down gekennzeichnet
• 3 Isolierungen pro Stunde => Quarantäne Mode
VMs laufen erstmalweiter wenn der Knoten
Isoliert wird
?Network
Fehler
Cluster Resiliency
• Isolated Mode• Knoten ist nicht länger aktives
Mitglied des Failover Cluster
• VMs werden auf dem Knoten weiter betrieben
• Quarantäne Mode• Knoten darf dem Cluster nicht mehr
beitreten (Standardwert: 2 Stunden)
• VMs werden auf andere Knoten migriert
Block Storage – Pfad Fehler
VHD
Storage Verbindungs-Fehler• Storage Stack Fehler• HBA Fehler• Kabel Fehler• Switch Port Fehler
FC/FCoE/iSCSI/SAS
Verhalten:
• CSV Redirected Mode -I/O läuft über anderen Knoten
• VM läuft weiter
• VM Storage Resiliencyfindet nicht statt
Block Storage – Alle Pfade fallen aus
VHDFC/FCoE/iSCSI/SAS
Verhalten:
• VM wechselt in Pause Zustand
• Redirected Mode macht keinen Sinn da kein Pfad zum Storage vorhanden ist
• VM bleibt pausiert bis:
• der Storage wieder verfügbar ist
• 30 Minuten abgelaufen sind - danach wird VM ausgeschaltet und auf anderem Server gestartet
SAN Ausfallbetrifft alle Knoten
File Storage – Pfad Fehler
VHD
Verhalten:
• VM wechselt in Pause Zustand
• VM bleibt pausiert bis:
• der Storage wieder verfügbar ist
• 30 Minuten abgelaufen sinddanach wird VM ausgeschaltet und auf anderem Server gestartet
SMB
Knoten bleibt im Cluster da es
Netzwerkkomunikationgibt
Netzwerk Verbindungs-Fehler• NIC Treiber• Hardware NIC Ausfall• Kabel Fehler• Switch Port Fehler
Vereinfachtes Multi-NIC Cluster Netzwerke
• Cluster nutzt jetzt mehere NICs im gleichen
Subnetz
• Alle NICs die im selben Subnetz sind werden
automatisch registriert
• Cluster Validierung kennt das Szenario und
läuft ohne Fehler
• Damit ist SMB-Multichannel im gleichen Netz
möglich
Virtual Machine Load Balancing
• Virtual Machine Load Balancing(vorher Node Fairness) ermöglicht ein automatisches verteilen der VMs innerhalb des Clusters
• Auswertung der Nodes basiert auf Speicher & CPU Nutzung
• VMs werden bei einseitiger Belastung auf andere Nodes livemigriert
• Zur Optimierung kann das Balancingangepasst werden:• (Get-Cluster).AutoBalancerMode• (Get-Cluster).AutoBalancerlevel
• Virtual Machine Load Balancing wird bei Verwendung von SCVMM Dynamic Optimization ausgeschaltet
Virtual Machine Start Order
Start Ordering
• Start Order für Multi-Tier Anwendungen (z.B. SharePoint)
• Datenbank Middle Tier Front End
Special VMs
• Möglichkeit Basis VMs vor allen anderen VMs zu starten
• Typische Kandidaten: AD Controller, Firewalls
Orchestration
• Definition von VM Gruppen für Tiering
• Ereignisse & Trigger um Start einer Gruppe zu bewerten
Site Awareness in Windows Server 2016
Failover Affinity
Failover und Livemigration bleibt innerhalb von NodeGruppen
Erst bei Resourcen Mangel Failover zur anderen Site
Sites
Definition von Node Gruppen in einem StrechedCluster die ihre physischen Standort wiederspiegeln
Beeinflusst Placement Policy und Heartbeat
Storage Affinity
VMs folgen Storage und werden in der gleichen Site platziert
Nach verschieben einer CSV folgen die VMs nach 1 Minute
München Köln
New-ClusterFaultDomain –Name München –Type Site –Description “Primary” –Location “München DC1”
New-ClusterFaultDomain –Name Köln –Type Site –Description “Secondary” –Location “Köln DC2”
Set-ClusterFaultDomain –Name Node1 –Parent München
Set-ClusterFaultDomain –Name Node2 –Parent München
Set-ClusterFaultDomain –Name Node3 –Parent Köln
Set-ClusterFaultDomain –Name Node4 –Parent Köln
Preferred Site
Prioritized
Dynamic Quorum entfernend zuerst Gewichtung von DR Site sodass die Primary Site überlebt
Primary Datacenter
Preferred Site wird für Platzierung bevorzugt• Cold-start – VMs werden in Preferred Site gestartet• Failover – VMs bleiben in gleiche Site• Node Drain – VMs bleiben in gleiche Site
Scoped
Storage Afinity Site - CSV Load Balancer platziert in der selben Site
(Get-Cluster).PreferredSite =“München”
Stretched Cluster
Primary Site DR Site
Control
Preferred Site kann global oder pro Gruppe definiert werdenGewichtung:1. Storage Affinity Site2. Group preferred site3. Cluster preferred site
Fault Domains
• Ermöglichen granularer Definition von
SPOF (Site, Rack, Chassis, Nodes/
Enclosure)
• Wird von S2D benutzt um Datenkopien in
unterschiedlichen Fault Domains zu
platzieren
• Health Service benutzt Fault Domains
um Angaben über den Ort des Ausfalls
zu liefern
https://technet.microsoft.com/en-us/library/mt703153.aspx
Shared VHDX
• Shared VHDX Einsatz Guest Cluster
• Verbesserungen im Shared VHDX Umgang
• Neues Dateiformat VHD-Set
• Online Backup
• Hyper-V Replica
• Online Resize
VHDSet
Microsoft Storage Spaces Direct
• What ist Storage Spaces Direct?• Software-defined Storage
• Hochverfügbar durch Nutzung des Failover Clusters
• Skalierbar durch hinzufügen von Servern (Scale-Out)
• Designed für Hyper-V und SQL Server
• Gründe für Storage Spaces Direct?• Server mit lokal Storage Devices
• Nutzt Industrie Standard Hardware• unterstützte Typen: SAS, SATA, NVMe
• Kostensenkung durch Verwendung von Enterprise SATA SSDs
• Bessere Flash Performance mit NVMe SSDs
• SMB Direct (RDMA über Ethernet) als Storage Netz
• Unterstützte Szenarien• Hyper-Converged S2D Cluster
• Converged S2D Cluster
Hyper-V Cluster mit lokalen Storage Devices
Hyper-ConvergedS2D Cluster
ConvergedS2D Cluster
Storage Replica
• Ein Desaster Recovery Feature, welches aus Enterprise SAN Systemen bekannt ist
• Zielt auf Volumes (eigentlich Partition)
• Repliziert auf Block Basis
• Dateisystem Agnostische
• Unterstützte Szenarien:
• Server zu Server
• Stretched Cluster
• Cluster zu Cluster
SRV1
SR over SMB3
SRV2
Server to Server
Man
ha
ttan
DC
Jers
ey C
ity
DC
NODE1 in HVCLUS
SR over SMB3
NODE3 in HVCLUS
Stretch Cluster
NODE2 in HVCLUS NODE4 in HVCLUS
Man
hatt
an D
C
Jers
ey C
ity
DC
Und da ist noch viel mehr
• Workgroup und Multi-Domain cluster
• Cloud Witness
• Support in Nano Server
• Storage QoS
• Nested Virtualisierung
• …
Cloud & Datacenter Conference 2017
CDC-Germany 2017
• 2 Tage am 4. und 5. Mai 2017
• Microsoft Office in München
• 32 Fachvorträge (MVPs und Microsoft Tekies)
• Hyper-V Community am 3. Mai und Abendveranstaltung am 4. Mai
Early Bird gilt noch bis zum 15. Februar
http://www.cdc-germany.de/
https://webinar.getresponse.com/SEfoH/webinar-azure-stack-uberblick?lang=de
Nächstes Webinar
Danke für die Teilnahme