Ce projet visait à mettre en place un cluster vSAN pour garantir la haute disponibilité, la tolérance aux pannes et une meilleure gestion des ressources dans une infrastructure virtualisée.
Un cluster VMware vSAN (Virtual SAN) est un système de stockage distribué qui regroupe les disques de plusieurs hôtes ESXi
pour former un espace de stockage partagé et redondant.
Chaque hôte du cluster apporte ses propres ressources (CPU, RAM, disques),
et vSAN utilise ces disques pour créer un datastore commun.
Ce type de cluster assure la haute disponibilité des machines virtuelles
et la continuité de service en cas de panne.
Dans le cas d’un cluster vSAN à 2 nœuds, un nœud Witness est nécessaire.
C’est une machine virtuelle située en dehors du cluster,
qui permet de surveiller l’état des serveurs et de décider automatiquement
lequel doit continuer à fonctionner en cas de coupure ou de défaillance d’un hôte.
Il joue un rôle essentiel pour éviter les erreurs et garantir le bon fonctionnement du cluster.
Pour déployer un cluster vSAN, il faut d’abord installer et configurer plusieurs hôtes ESXi,
les connecter à un vCenter, configurer le réseau vSAN avec des interfaces VMkernel dédiées,
puis créer un cluster dans vCenter.
Ensuite, on active la fonction vSAN et on ajoute les disques de chaque hôte dans des groupes de disques.
Enfin, un datastore vSAN est automatiquement généré, prêt à accueillir les machines virtuelles.
Une interface VMkernel dédiée au trafic vSAN doit être créée sur chaque hôte.
Seul le service vSAN doit être activé sur cette interface.
Il est recommandé d’utiliser une carte réseau à haute performance (idéalement 10 Gb/s).
Il est important de s’assurer que les hôtes peuvent communiquer via leurs interfaces VMkernel respectives.
Commande à exécuter depuis chaque hôte :
vmkping -I vmkX 192.168.1.183
(Remplacer vmkX par l’interface VMkernel correspondant au trafic vSAN)
L’outil intégré iperf3 permet de mesurer le débit réseau entre les hôtes.
Sur ESXi 1 (Active) :
/usr/lib/vmware/vsan/bin/iperf3 -s
Sur ESXi 2 (Passive) :
/usr/lib/vmware/vsan/bin/iperf3 -c 192.168.1.182 -t 300
Objectif : vérifier que la bande passante est suffisante (au moins 5 Gbps recommandés)
Pour permettre la communication entre les hôtes et le nœud Witness, des routes statiques doivent être ajoutées.
Sur les hôtes ESXi :
esxcli network ip route ipv4 add --gateway 192.168.1.1 --network 192.168.1.184/32
Sur le Witness :
esxcli network ip route ipv4 add --gateway 192.168.1.1 --network 192.168.1.0/24
Depuis l’interface vCenter :
Chaque hôte doit disposer de :
L’assistant vSAN détecte automatiquement les disques et les propose pour l’allocation.
Lors de la configuration du cluster étendu, l’appliance Witness déployée doit être sélectionnée.
Adresse IP du Witness : 192.168.1.184
Ce nœud permet de garantir la haute disponibilité en cas de défaillance d’un des hôtes principaux.
Dans l’onglet vSAN > Health, vérifier que :
Les fonctionnalités HA et DRS peuvent ensuite être activées pour renforcer la résilience du cluster.
Clic droit sur l’hôte ou le datacenter → Actions → New Virtual Machine.
Choisir Create a new virtual machine pour une configuration manuelle. Permet de créer une VM vierge, entièrement configurable selon les besoins.
Donnez un nom à la VM (ex. Windows 10) et sélectionnez le dossier de destination.
Sélectionnez l’hôte ESXi sur lequel la VM sera hébergée. Permet d’affecter la VM à un serveur physique précis.
Choisir le datastore où seront enregistrés les fichiers de la VM.
Choisir la version d’ESXi compatible avec la VM.
Indiquer la famille et la version du système d’exploitation à installer
Définir CPU, RAM, disques, carte réseau, lecteur ISO, etc.
Une fois créée, cliquez sur Power On pour démarrer la VM. Lancer le système d’exploitation et commencer l’installation.
Pour commencer le déploiement du Witness, il faut accéder à vSphere et cliquer sur Actions > Deploy OVF Template. Cette option permet d’importer une machine virtuelle préconfigurée à partir d’un fichier OVF/OVA.
Choisir l’option Local file pour importer un fichier depuis le poste local.
Sélectionner le fichier Witness dans le répertoire approprié.
Indiquer un nom pour la machine virtuelle, puis sélectionner l’emplacement (dossier ou datacenter) dans lequel elle sera déployée.
Une synthèse des informations relatives au modèle est affichée, cliquer sur Next
Il est nécessaire de lire et d’accepter les termes du contrat de licence utilisateur final (EULA) afin de poursuivre le déploiement
Sélectionner le niveau de configuration :
Tiny pour les environnements de test ou avec un nombre limité de VMs (jusqu’à 10).
Cette sélection affecte automatiquement les ressources CPU, RAM et disque de l’appliance.
Choisir un datastore disposant d’un espace suffisant pour accueillir l’appliance.
Associer les interfaces réseau du modèle aux réseaux virtuels existants.
Définir un mot de passe fort pour le compte root de l’appliance. Celui-ci doit respecter les exigences de sécurité, au moins 7 caractères, avec majuscules, minuscules, chiffres et caractères spéciaux.
Une synthèse complète est affichée avec tous les paramètres choisis. Cliquez sur Finish pour lancer le déploiement de la VM Witness.
Accédez à la liste des VMs, sélectionnez Witness 192, puis cliquez sur le bouton de démarrage ▶️ pour lancer l’environnement.
La VM Witness se charge automatiquement. L’écran d’accueil confirme la détection du matériel virtuel et initie la préparation du système.
Une fois chargé, accédez à l’écran de personnalisation du système pour configurer le mot de passe, la gestion réseau et d’autres paramètres si nécessaire.
La première étape consiste à se connecter à l’interface iDRAC du serveur.
L’iDRAC est une interface d’administration distante permettant de gérer le serveur sans intervention physique : accès au BIOS, installation d’un OS, surveillance matérielle, etc.
Une fois connecté à l’iDRAC, il faut ouvrir la console virtuelle pour accéder à l’écran du serveur à distance.
Cela permet d’interagir comme si l’on était physiquement devant la machine.
Dans la console, on utilise l’option “Connecter le média virtuel” pour insérer une image ISO à distance.
Cela simule l’insertion d’un CD/DVD ou d’une clé USB pour démarrer l’installation de l’OS.
L’ISO d’installation de VMware ESXi est sélectionné depuis l’ordinateur local.
Ce fichier sera utilisé pour installer l’hyperviseur sur le serveur.
On ouvre l’ISO choisi pour le mapper sur le serveur.
Cela équivaut à “insérer le CD” dans le lecteur virtuel du serveur.
Le média est mappé au serveur : il est désormais reconnu comme un périphérique bootable.
On redémarre le serveur via l’iDRAC pour qu’il démarre sur l’ISO de VMware ESXi.
Au redémarrage, l’installateur ESXi se lance automatiquement.
Le serveur commence le chargement des fichiers nécessaires à l’installation.
L’écran d’accueil de l’installateur s’affiche.
Il faut appuyer sur Entrée pour continuer le processus d’installation.
L’installateur affiche les disques disponibles.
On sélectionne le disque sur lequel on souhaite installer ESXi, puis on continue.
Sélectionnez la disposition du clavier souhaitée pour la suite de l’installation.
Définissez un mot de passe pour l’utilisateur root.
Appuyez sur F11 pour lancer l’installation.
Une fois ESXi installé et démarré, accédez au menu de configuration réseau.
Allez dans la configuration du réseau de gestion, puis sélectionnez les adaptateurs.
Cochez les interfaces réseau utilisées pour le réseau de management.
Assignez une adresse IP statique, un masque de sous-réseau et une passerelle par défaut.
Le système est désormais accessible à distance via l’adresse IP attribuée.