A la suite de mon précédent article « Nutanix Async DR  with Citrix Xendesktop MCS VDI« , le point a été remonté chez Nutanix et la prochaine mise à jour de la documentation devrait éclaircir les choses la dessus.

J’avais des réplications fonctionnelles, mais une autre limitation du design été en train de me poser problème.

En version 4.5 d’après la doc Nutanix « System Maximums », nous ne pouvons avoir plus de 50 VMs par Protection Domain, consistency group, ou SRA.

Nous avons donc décidé d’automatiser la création des « Protection Domains » de sortent que tous les soirs chaque nouvelle VM soit protégée et répliquée.

Je ne vais pas poster ici le script, car il est vraiment spécifique à notre environnement, mais je vais lister les commandes Nutanix utilisées.

J’ai vraiment eu beaucoup de mal à trouver des exemples et de la documentation pour certaines :

# Création d'un ProtectionDomain
Add-NTNXProtectionDomain -PDName "My_PD"
#Ajout d'une VM à ce Protection Domain
Add-NTNXProtectionDomainVM -PDName "My_PD" -names "My_VM"

Évidemment Attention si vous êtes dans un scenario VDI Xendesktop MCS comme moi, cette commande ne fonctionne que pour synchroniser une machine, les suivantes ne seraient pas dans le bon « Consistency Group »

#Ajout d'une VM à ce Protection Domain avec le meme nom de "Consistency group" 
Add-NTNXProtectionDomainVM -PDName "My_PD" -names "My_VM" -ConsistencyGroupName "My_PD"
#Création d'une tache planifiée associée au précédent Protection Domain
# qui tournera tous les jours à 00:01
Add-NTNXProtectionDomainCronSchedule -Name "My_PD" -Type "DAILY" -EveryNth "1" -UserStartTimeInUsecs "1463522460000000"
#Configuration de la "retention policy"
Set-NTNXProtectionDomainRetentionPolicy -pdname "My_PD" -Id ($(Get-NTNXProtectionDomainCronSchedule -Name "My_PD").Id) -LocalmaxSnapshots 2 -RemoteMaxSnapshots "My_Remote_Site=1"

Je configure donc un snapshot local et un snapshot sur le site de réplication.
Pour la configuration du « RemoteMaxSnapshots » il faut impérativement indiquer le RemoteSite (vous pourriez en avoir plusieurs) coller avec « = » et le nombre de snapshots. 1f616

 

Pour faire le grand nettoyage dans vos configurations de réplication:

#Supprimer tous les snapshots
$snaps=Get-NTNXProtectionDomainSnapshot
foreach ($snap in $snaps){
Remove-NTNXProtectionDomainSnapshot -ProtectionDomainName $Snap.ProtectionDomainName -SnapshotId $Snap.SnapshotId }
#Supprimer toutes les taches planifiées
$PDs = Get-NTNXProtectionDomain
foreach ($PD in $PDs) {
Clear-NTNXCronSchedule -PDname:$PD.name
}
#Sortir toutes les VMs de tous les ProtectionDomains
$VMs = Get-NTNXVM
foreach ($VM in $VMs){
Remove-NTNXProtectionDomainVM -name $VM.protectionDomainName -input $VM.vmName
}

 

Une fois vide les ProtectionDomains devraient être supprimable également:

#Destructions des ProtectionDomains
$PDs = Get-NTNXProtectionDomain
foreach ($PD in $PDs) {
Mark-NTNXProtectionDomainForRemoval -name $PD.name
}

 

 

Concernant l’automatisation, nous avons choisi de reprendre le nom du disque de base Xendesktop dans le nom du « Protection Domain », ainsi que pour le « Consistency Group ».

Cette méthode nous permet de surveiller la limite des 50 machines et nous n’avons qu’un upgrade de l’image de base à réaliser pour faire le découpage.

Vivement l’augmentation de cette limite, car elle est encore administrable dans un petit environnement de quelques centaines de VDI, mais cela deviendrait difficilement compréhensible avec plusieurs milliers.

Si vous avez un autre mode de découpage, ou si vous gérez différemment vos réplications, n’hésitez pas à laisser un message dans les commentaires.

 

Rate this post

J’expliquais dans un précédent article, comment se connecter en powershell au Prism Central pour lancer des commandes comme sur des vCenters en linked-mode.

Il s’avère que c’est une mauvaise idée, bon nombre de cmdlet ne s’exécutent plus avec les messages d’erreurs :

Request is not supported by this cluster.
Le serveur distant a retourné une erreur: (500) Erreur interne du serveur.
 WebException
+ FullyQualifiedErrorId : {« message »: »Request is not supported by this cluster. »}

ntnxerror

Connectez-vous directement sur chacun de vos clusters, cela évitera une bonne perte de temps. emo

Si vous débutez complément, voici les commandes à faire pour se connecter avec un minimum de pré-requis à savoir Powershell et les cmdlet nutanix.

Ce dernier est disponible directement depuis la console Prism dans admin > download Cmdlets Installer.

cmdlet


#chargement des cmdlets
asnp nutanix*

#Connexion sur un noeud du cluster
Connect-NTNXCluster 10.0.0.1 -AcceptInvalideSSLCerts

 

 

Rate this post

Pour cet article, je partirai du principe que vous avez les bases pour monter une infra nutanix et xendesktop, le point ici concerne spécifiquement la réplication asynchrone de VDI Xendesktop provisionné par MCS pour des machines persistantes évidemment.

La réplication en mode synchrone ne posera aucun problème, car elle fonctionne au niveau du datastore et ne sera donc pas traitée dans l’article.

Oui, il est possible d’avoir une réplication asynchrone de VM VDI généré par Machine Creation Service de Xendesktop entre deux clusters Nutanix sur du VMware ,et je vais vous expliquer comment !

Voici les bases de notre archi, 2 datacenters ayant chacun leur vCenter (5.5), un cluster de 3 nœuds Nutanix (4.5.2) et un broker Xendesktop (7.7).

Avec MCS, un basedisk est créé dans un répertoire portant le nom du catalogue Xendesktop, ce sont ces fichiers en plus de la VDI qu’il faut répliquer.

La documentation nutanix « Prism Web Console Guide » traite de ce point mais de façon incomplète :

nuta-xen-doc

En effet, il est clairement indiqué que les « linked clones » et leurs disques de bases doivent être hébergés dans le même groupe de consistance et le même domaine de protection.

nuta-linked

Il faut donc absolument spécifier le même groupe de consistance que celui de la VM à basculer.

/!\ attention, je simplifie volontairement ici avec une seule machine en partant du principe que vous avez conservez les options par défaut pendant la configuration du domaine de protection.

nuta-update-pd

Avec la commande ci-dessous on liste les groupes de protections, les noms des groupes de consistance ainsi que les fichiers ajoutés manuellement à la synchronisation:

ncli> pd ls

 

Puis on complète la ligne de commande dans la documentation :

ncli> protection-domain protect \ files=/container1/view-gold-image/replica-ABC.vmdk name=vmware1-pd  cg-name=vmware1-cg

 

En rapport avec les captures d’écrans cela donne:

ncli> protection-domain protect files=/nom_du_container/chemin_vers_basedisk/date_du_snapshot_xendesktop.vmdk name=test_VM cg-name=test_VM
ncli> protection-domain protect files=/nom_du_container/chemin_vers_basedisk/date_du_snapshot_xendesktop-flat.vmdk name=test_VM cg-name=test_VM

 

L’argument « cg-name » vous évite à la réplication le message d’erreur suivant : « Snapshot of Protection Domain PD_name failed as some files in consistence group CG_name are common with another consistence group » :

nuta_alert

Une fois la réplication opérationnelle avec toutes les dépendances, deuxième problématique, le  « parentFileNameHint » ce point mérite d’être mis en avant, car il est très simple à éviter.

Après un migrate Nutanix, notre VM était bien basculée sur le site distant mais impossible de la démarrer.

« An unexpected error was received from the ESX host while powering on VM VM_name.
Reason: Reason
Cannot open the disk disk_name or one of the snapshot disks it depends on. »

nuta_poweron

Comme pour un « linked clone », la machine ne trouvait pas le chemin vers son disque de base, cette valeur étant renseignée dans le paramètre « parentFileNameHint » du vmdk de la machine.

Ce chemin n’était pas correct, car dans notre cas l’ID du volume VMFS était celui du site source. Oui, vous avez bien lu, l’ID et non l’UUID, car les montages NFS n’en ont pas et sont simplement hashés. J’ai obtenu cette information sur ce site : NFS datastore does not have a UUID.

Il faut donc impérativement avoir les mêmes noms de conteneurs nutanix, étrangement ce conseil entre en parfaite opposition avec l’un des points de la documentation pour une config mono vCenter :

nuta_vc

Une fois les « remotes sites » nutanix reconfigurés plus de problèmes, les machines s’éteignent, se réenregistrent sur le vCenter du site distant et sont fonctionnelles.

Je viendrai enrichir ce billet dès que possible, en attendant n’hésitez pas à poser vos questions en commentaire si vous avez des difficultés avec cette configuration.

Rate this post

Nous avions un besoin très spécifique et il nous fallait activer le fameux promiscuous mode afin de « sniffer » l’ensemble du trafic réseau sur un cluster, voici les lignes que j’ai utilisé pour nos PortGroups :

Get-Cluster "Cluster-Name" | Get-VMHost | Get-VirtualSwitch -Name "vSwitch_Name" | New-VirtualPortGroup -Name “VM_VLAN_Name” -VLanId 4095
Get-Cluster "Cluster-Name" | Get-VMHost | Get-VirtualPortGroup -name "VM_VLAN_Name" | Get-SecurityPolicy |  Set-SecurityPolicy -AllowPromiscuous $true

Concernant les VMs, elles ont deux interfaces, voici la ligne que j’ai utilisée pour configurer la deuxième sur ce même VLAN:

Get-VM "VM-name" | Get-NetworkAdapter -name "*2" | Set-NetworkAdapter -NetworkName "VM_VLAN_NAME"
Rate this post

Update – La recommandation de cet article ne s’avère pas judicieuse, je vous invite à plutôt visiter ce dernier article : powershell-cmdlet-nutanix

 

L’un des avantages du Prism Central, c’est qu’il centralise l’administration de clusters Nutanix en un point, mais ce que j’ignorai c’est qu’il le faisait également pour les cmdlet Nutanix.

On utilise la même commande que pour se connecter à un cluster isolé, mais avec l’adresse du Prism central, et si comme moi vous utilisez les certificats autosignés ne pas oublier d’ajouter le paramètre pour les accepter:


Connect-NTNXCluster 10.0.0.1 -AcceptInvalideSSLCErts

Rate this post

Nous constations depuis quelque temps des alertes contentions CPU sur vROps que nous n’expliquions pas. J’avais fait le tour de ce que cette alerte représentait pour moi : CPU Ready – Co-Stop – I/O Wait – Swap Wait, mais rien de m’avait sauté aux yeux.

contention_cpu

La semaine dernière, je passais en revues nos configurations pour en ressortir les incohérences (ne pas avoir Enterprise Plus n’est pas une excuse pour ne pas vérifier la conformité). Plusieurs hôtes de récupération avaient été ajoutés dans différents clusters, mais leurs configurations étaient légèrement différentes des autres nœuds au niveau de la gestion d’alimentation :

power_management

Je tenais enfin mon explication, et effectivement toutes les VMs qui remontaient de la contention étaient hébergées sur des hôtes qui n’étaient pas configurés en .

Une très bonne définition donnée ici par Valentin du support VMware dans une discussion sur le forum VMware à propos du CPU Latency  :

vmwaresupport

le « Dynamic voltage frequency scaling » est clairement la cause dans mon cas.

Un autre très bon article sur le sujet : http://port5480.blogspot.fr/2015/10/cpu-contention-high-in-vrops.html

Rate this post

Un collègue venait d’installer un vCenter dans son lab sur un Windows 2012 R2, et il avait quelques soucis avec ce prérequis fâcheux de Flash Player pour l’accès au vSphere Web Client.

flashneeded

Comme l’indique à juste titre la KB VMware : Unable to install Flash on Windows Server 2012 for use with VMware vSphere Web Client 5.x (2054049), Flash Player est embarqué dans Windows Server 2012 pour peu qu’on active la fonctionnalité « Desktop Experience »

FeaturesDesktopExperience

ou en powershell


Import-module ServerManager 
Add-WindowsFeature -name Desktop-Experience,qWave -IncludeAllSubFeature -IncludeManagementTools

Un redémarrage plus tard, on accède maintenant sans encombre à la page d’authentification de notre vCenter Server.
vspherewebclientloginfr

Au vu des fonctionnalités supplémentaires installées par l’activation de ce paramètre, je ne peux que conseiller d’avoir une machine d’administration dédiée. cf Technet Microsoft : Vue d’ensemble de la fonctionnalité Expérience utilisateur.

Rate this post

Il était temps d’activer cette fonctionnalité VMware vieille de la 4.0, l’ajout à chaud de composants !

Avec l’aide des scripts d’Arne Fokkema, j’avais les fonctions pour automatiser l’application du paramétrage:

PowerCLI: Enable/Disable the VM Hot Add features

Combiné à quelques filtres du type :


Get-VM |Where {$_.NumCPU -gt 8}

/!\ l’activation de l’ajout à chaud du CPU désactive le vNUMA donc pour les machines qui pourraient dépasser le numa node size de vos sockets faites attention voir KB2040375 vNUMA is disabled if VCPU hotplug is enabled.

Il ne me restait plus qu’à éteindre les machines pour activer cette superbe option !

Je ferai une update concernant cette automatisation pour les intéressés.

Rate this post