Oops! It appears that you have disabled your Javascript. In order for you to see this page as it is meant to appear, we ask that you please re-enable your Javascript!

vSan – Présentation – part 1

Présentation de la solution vsan

VMware Virtual SAN (vsan) est une plate-forme de stockage de type SDS (Software-Defined Storage) hyper-convergé entièrement intégrée à VMware vSphere. Cette solution permet d’agréger des disques locaux d’hôtes physiques membres d’un cluster vSphere, afin de créer une solution de stockage partagée et distribuée.

La solution offre deux options de configuration :

vsan

 

  • Une configuration Hybrid qui exploite deux types de support, des disques flash (SSD) et disques magnétiques (SAS)

Cette option utilise des périphériques flash pour fournir une couche de cache en lecture et écriture afin de garantir des performances optimales tout en utilisant des disques magnétiques pour fournir une capacité de stockage aux données persistantes.

  • Une configuration All-Flash.

Cette configuration utilise le flash à la fois pour la couche de mise en cache en écriture mais aussi pour les besoins capacitifs.

Lire la suite ›

twitterlinkedin
Tagués avec : , , , , , , , , , ,

Parcours des I/O d’une VM

Découvrons les différentes couches que traversent les I/O lorsqu’une VM souhaite lire ou écrire sur son disque virtuel (VMDK).


  1. Lorsqu’une application ou système d’exploitation d’une VM souhaite effectuer des opérations de lecture ou d’écriture sur son disque virtuel, ils envoient des commandes SCSI vers le VMDK.
  2. Un driver installé dans le système d’exploitation invité de la VM va permettre au contrôleur SCSI virtuel de transférer les données au VMkernel. La VM va utiliser l’émulation SCSI via son contrôleur SCSI virtuel pour rediriger les demandes I/O clientes vers le VMkernel de l’ESXi
  3. Le Vmkernel va localiser le fichier correspondant au disque de la VM sur le volume VMFS. Il va mapper les requêtes des blocs du disque virtuel (VMDK) vers les disques physiques du volume VMFS.
  4. En fonction du type de disque virtuel, les demandes I/O peuvent traverser différentes couches qui gèrent la transcription du VMDK (Snapshot, Vmfs, Nfs, Rdm, etc …)
  5. Les demandes d’I/O sont prises en charge par le scheduler d’I/O au sein du VMkernel. C’est lui qui gère les demandes en I/O de toutes les VMs depuis et vers les périphériques physiques. Le scheduler d’I/O va transmettre les demandes à l’architecture PSA.
  6. L’hyperviseur ESXi, utilise un ensemble d’API de stockage, appelé également PSA (Pluggable Storage Architecture). La PSA permet de gérer les multiples chemins d’accès, l’équilibrage de charge et les mécanismes de bascule des multiples périphériques de stockage présentés aux ESXi. La PSA est une structure ouverte permettant aux développeurs de logiciels tiers de concevoir leurs propres techniques d’équilibrage et/ou mécanismes de basculement pour des baies de stockage particulières. Cela leurs permet d’insérer leur code directement sur le chemin des I/O. Lire la suite ›

twitterlinkedin

Automatiser l’installation et la configuration de vos ESXi

Création d’un Custom ISO VMware vSphere ESXi 6

Pourquoi créer un ISO personnalisé ?

121515_2315_Construireu18.png

Pour déployer un maximum d’hyperviseur en une journée ? Pour ne pas perdre son temps à regarder la jauge de progression de l’installeur ? Pour s’éviter les tâches répétitives ? Ou simplement éviter les erreurs de configuration ? etc … 

Dans cet article, je vais vous montrez comment créer un ISO personnalisé avec des kickstarts directement injectés dans l’iso de VMware vSphere ESXi, le tout avec un menu de boot permettant de démarrer une installation sur le kickstart désiré.

Pour ceux qui ne savent pas ce qu’est un kickstart, il s’agit d’un simple fichier texte contenant une liste d’éléments dont chacun est identifié par un mot-clé. Ce fichier permet d’automatiser l’installation et la configuration d’un système d’exploitation de type Linux.

L’avantage d’une solution comme celle-ci est d’avoir dans un seul média d’installation permettant la configuration complète de tous vos hyperviseurs. Cela permet un provisionnement rapide sans le moindre effort. (Sans faire appel aux fonctionnalités avancés comme « host profile » et donc pas besoin de licence entreprise plus)

Les prérequis :

  • Une VM sous une distribution Linux
  • Un média original de VMware vSphere ESXi
  • Le package vmtar et mkisofs

Lire la suite ›

twitterlinkedin
Tagués avec : , , , , , , , ,

Deepdive – Thin provisioning Reclaim Space (VAAI / UNMAP)

Le Reclaiming Space (UNMAP)

Qu’est-ce que c’est ?

Cela consiste à réclamer des blocs de stockage inutilisés sur une LUN provisionnée en mode dynamique (thin).

Avant d’expliquer pourquoi il est utile de faire du reclaiming space, attardons nous sur les deux modes de provisionnement de LUN existant au sein d’une baie SAN.

Le provisionnement statique (thick):

C’est le modèle traditionnel de provisionnement de stockage. Les blocs sont réservés sur le pool de disque de la baie SAN à la création de la LUN. En mode thick, tous les blocs utilisés ou non sur les disques physiques sont mappés à la LUN. Avec le provisionnement statique, une quantité d’espace de stockage est prévue à l’avance en prévision des futurs besoins de stockage. Toutefois, l’espace peut rester inutilisé et entraîner une sous-utilisation de la capacité de stockage.

Ci-dessous un exemple de RAID groupe de 5 disques de 10GB et 6 LUNs en mode thick :

Lire la suite ›

twitterlinkedin
Tagués avec : , , , , , , , , , , , , , ,

Deepdive – Veeam backup & réplication

veeam

 

Nous allons dans un premier temps étudier comment Veeam transporte les données à sauvegarder (les VMs) de son emplacement source (datastores des VMs) à la destination (stockage des sauvegardes Veeam) en fonction du mode de transport configuré dans le composant proxy.

Nous étudierons ensuite en profondeur comment les blocs de données sont déplacés en fonction du mode de sauvegarde et comment agit la période de rétention en fonction du mode de sauvegarde.

Il existe 3 modes de transport que nous allons parcourir rapidement afin d’étudier les interactions entre les différents composants

Lire la suite ›

twitterlinkedin
Tagués avec : , , , , , , , , , , ,

Deepdive – vSphere HA – Comment ça marche ?

Deepdive vSphere HA – Comment ça marche ?

Présentation de HA :

VMware vSphere High Availability (HA), est une solution de « haute disponibilité ». Elle peut être activée sur un cluster avec de multiples hyperviseurs ESXi par l’intermédiaire du vCenter.

HA va permettre en cas de panne d’un hyperviseur du cluster, de redémarrer automatiquement les machines virtuelles reposant sur l’hyperviseur impacté sur d’autres hyperviseurs ESXi au sein de ce même cluster vSphere.

Exemple: Un hôte ESXi02 en panne et le processus de HA relance les VMs sur les autres hyperviseurs du cluster

Lire la suite ›

twitterlinkedin
Tagués avec : , , , , , , , , , , , , ,

Deepdive – VMware ESXi I/O Scheduler & Queue Depth.

Deepdive – VMware ESXi I/O Scheduler & Queue Depth.

La Queue Depth, une histoire de SAN et de protocole d’accès en mode bloc.

Les entreprises se sont souvent équipées de baies SAN (Storage Area Network). Ce stockage avec accès en mode bloc est souvent utilisé avec des applications transactionnelles, bases de données, messagerie ou autres.

Les baies SAN utilisent des protocoles d’accès comme le Fibre Channel ou iSCSI et partagent leur volumétrie sous forme de volumes logiques (LUN). Ces LUNs sont utilisables comme des disques locaux par les serveurs et accessibles en mode bloc.

Les baies NAS mettent quant à elles leur capacité disponible à disposition des serveurs sous la forme d’un partage réseau accessible via un protocole de partage de fichiers en réseau comme NFS ou CIFS (le protocole de partage de fichiers en réseau de Windows aussi connu sous le nom SMB).

Dans une infrastructure virtualisée, on estime à plus de 80% les problèmes causés par le stockage. L’un des points majeur à surveiller avec du stockage en mode bloc et ce qu’on appel la profondeur de la file d’attente « queue depth ». De nos jours, les baies SAN sont plus intelligentes et capables de prendre en charge de nombreuses actions réalisées dans le passé par la couche de virtualisation. Bien que les éditeurs de solution de virtualisation et constructeurs de baie SAN aient fait un énorme travail sur le développement d’API et des nombreuses primitives permettant de rendre les baies de stockage plus intelligentes en leur délégant de nombreuses tâches. Sur des environnements conséquents, il n’en reste pas moins que le problème des files d’attentes (Queue Depth) et lié aux protocoles d’accès utilisé pour accéder à la donnée.

Lire la suite ›

twitterlinkedin

Création d’un Blueprint en mode Linked Clone WorkFlow – Part 26c

Création d’un Blueprint en mode Linked Clone WorkFlow – Part 26c


Avant de se lancer dans la création d’un Blueprint en mode Clone Workflow, se connecter en administrator de la fabric et créer un nouveau préfix de machine en cliquant sur « New Machine Prefix »

Dans mon exemple, j’ai ajouté le préfixe « C01-WIN-LC- » qui permettra de différencier les VMs déployées en mode Linked Clone Workflow

Lire la suite ›

twitterlinkedin

Création d’un Blueprint en mode Clone WorkFlow – Part 26b

Création d’un Blueprint en mode Clone WorkFlow – Part 26b

Avant de se lancer dans la création d’un Blueprint en mode Clone Workflow, se connecter en administrator de la fabric et créer un nouveau préfix de machine en cliquant sur « New Machine Prefix »


Dans mon exemple, j’ai ajouté le préfixe « C01-WIN-C- » qui pe permettra de différencier les VMs déployées en mode Cloning Workflow

Lire la suite ›

twitterlinkedin

Création d’un Blueprint en mode Basic WorkFlow – Part 26a

Création d’un Blueprint en mode Basic WorkFlow – Part 26a

Cliquez sur : New Blueprint > Virtual > vSphere (vCenter)


Dans l’onglet Blueprint Information:

Name: Le nom du blueprint.

Blueprint options :

  • Master: Permet de rendre ce blueprint clonable pour les futures instances. Il pourra servir de Template pour la création d’autres blueprints.
  • Display location on request: Permet à l’utilisateur de sélectionner l’emplacement pour le déploiement de la VM. Cette option doit être cochée afin de pouvoir déployer sur de multiple localisation.
  • Shared blueprint: Option sélectionnée par défaut. Permet de partager le blueprint entre plusieurs business group du tenant

Lire la suite ›

twitterlinkedin
Top