Update – La recommandation de cet article ne s’avère pas judicieuse, je vous invite à plutôt visiter ce dernier article : powershell-cmdlet-nutanix

 

L’un des avantages du Prism Central, c’est qu’il centralise l’administration de clusters Nutanix en un point, mais ce que j’ignorai c’est qu’il le faisait également pour les cmdlet Nutanix.

On utilise la même commande que pour se connecter à un cluster isolé, mais avec l’adresse du Prism central, et si comme moi vous utilisez les certificats autosignés ne pas oublier d’ajouter le paramètre pour les accepter:


Connect-NTNXCluster 10.0.0.1 -AcceptInvalideSSLCErts

Nous constations depuis quelque temps des alertes contentions CPU sur vROps que nous n’expliquions pas. J’avais fait le tour de ce que cette alerte représentait pour moi : CPU Ready – Co-Stop – I/O Wait – Swap Wait, mais rien de m’avait sauté aux yeux.

contention_cpu

La semaine dernière, je passais en revues nos configurations pour en ressortir les incohérences (ne pas avoir Enterprise Plus n’est pas une excuse pour ne pas vérifier la conformité). Plusieurs hôtes de récupération avaient été ajoutés dans différents clusters, mais leurs configurations étaient légèrement différentes des autres nœuds au niveau de la gestion d’alimentation :

power_management

Je tenais enfin mon explication, et effectivement toutes les VMs qui remontaient de la contention étaient hébergées sur des hôtes qui n’étaient pas configurés en .

Une très bonne définition donnée ici par Valentin du support VMware dans une discussion sur le forum VMware à propos du CPU Latency  :

vmwaresupport

le « Dynamic voltage frequency scaling » est clairement la cause dans mon cas.

Un autre très bon article sur le sujet : http://port5480.blogspot.fr/2015/10/cpu-contention-high-in-vrops.html

Un collègue venait d’installer un vCenter dans son lab sur un Windows 2012 R2, et il avait quelques soucis avec ce prérequis fâcheux de Flash Player pour l’accès au vSphere Web Client.

flashneeded

Comme l’indique à juste titre la KB VMware : Unable to install Flash on Windows Server 2012 for use with VMware vSphere Web Client 5.x (2054049), Flash Player est embarqué dans Windows Server 2012 pour peu qu’on active la fonctionnalité « Desktop Experience »

FeaturesDesktopExperience

ou en powershell


Import-module ServerManager 
Add-WindowsFeature -name Desktop-Experience,qWave -IncludeAllSubFeature -IncludeManagementTools

Un redémarrage plus tard, on accède maintenant sans encombre à la page d’authentification de notre vCenter Server.
vspherewebclientloginfr

Au vu des fonctionnalités supplémentaires installées par l’activation de ce paramètre, je ne peux que conseiller d’avoir une machine d’administration dédiée. cf Technet Microsoft : Vue d’ensemble de la fonctionnalité Expérience utilisateur.

Il était temps d’activer cette fonctionnalité VMware vieille de la 4.0, l’ajout à chaud de composants !

Avec l’aide des scripts d’Arne Fokkema, j’avais les fonctions pour automatiser l’application du paramétrage:

PowerCLI: Enable/Disable the VM Hot Add features

Combiné à quelques filtres du type :


Get-VM |Where {$_.NumCPU -gt 8}

/!\ l’activation de l’ajout à chaud du CPU désactive le vNUMA donc pour les machines qui pourraient dépasser le numa node size de vos sockets faites attention voir KB2040375 vNUMA is disabled if VCPU hotplug is enabled.

Il ne me restait plus qu’à éteindre les machines pour activer cette superbe option !

Je ferai une update concernant cette automatisation pour les intéressés.

Un peu trop régulièrement, mon sexilog ne répondait plus à mes requêtes, le « heap mem » semblait saturé, après quelques recherches sur le net j’ai trouvé une procédure pour l’augmenter, passage donc à 4GB.

Augmentation du heap mem size pour sexilog :

Supprimer le commentaire de la ligne #HEAP_SIZE=2g et modifier la valeur comme ci-dessous :

vi /etc/init.d/elasticsearch

ES_HEAP_SIZE=4g

On relance Elasticsearch et l’on vérifie dans BigDesk que tout est OK :

./etc/init.d/elasticsearch restart
./etc/init.d/elasticsearch status

http://*.*.*.*/_plugin/bigdesk

JVM Heap

 

source : merci à linoxide.com

J’avais besoin de centraliser l’exécution du vCheck d’Alan Renouf depuis un seul script vers plusieurs vCenters. Heureusement, je ne suis pas le premier à vouloir le faire, merci à Bryan qui a posté la réponse dans les commentaires du site:

 Bryan
 – Créer un fichier « pre_vcheck.ps1 » avec les quelques lignes de code de Bryan, modifier la tâche planifiée qui exécute habituellement le vCheck pour lancer ce script, ne pas oublier de mettre en commentaire la ligne $server du fichier de conf « global variables.ps1 ».
$ServerList = "server1","server2","server3"
foreach ($server in $ServerList) {
.\vcheck.ps1 -$server -outputpath “\Output\”
}

Modifier les valeurs server1, server2, server3 avec les adresses de vos vCenters.

Vous aurez un rapport pour chaque vCenter et non un rapport avec toutes vos informations agrégées.