Benoit DEVIJVER

Fibre Channel Nimble : Présentation des Volumes FC à un cluster ESX

Blog Post created by Benoit DEVIJVER Employee on Dec 8, 2014

Mon précédent billet, Fibre Channel Nimble : Présentation des Volumes FC à Windows détaillait comment connecter un volume à un serveur Windows. Ce billet se penchera sur le côté ESX de la chose. La tendance est de penser que FC est un protocole plus «complexe», mais, comme nous l'avons vu dans les billets précédent, la plupart des tâches sont grandement simplifiées en FC. C'est également vrai avec ESX. Si vous avez déjà lu le Guide d'intégration de VMWare NimbleStorage, avec les protocoles IP, il est recommandé de configurer les VMKernels et d'y faire correspondre les vNIC utilisées pour les connexions iSCSI et de veiller à ce que la mise en place soit correct pour que le basculement fonctionne correctement. Avec le FC rien de tout cela est nécessaire car les HBA sont dédiées à la circulation des données de stockage.

 

Bien sûr, nous aurions pu utiliser la méthode manuelle similaire à ce que j'ai utilisé dans le billet pour Windows, créant un volume, l'association à nos groupes d'initiateurs ESX et le datastore VMFS. Cependant, comme décrit dans mon blog de Nimble OS 2.1 Nimble OS 2.1 Part 3: Introduction to the NEW VMware Plugin le plugin fournit un mécanisme beaucoup plus efficace pour la gestion des volumes avec VMWare car il automatise la plupart des tâches d'exploitation quotidiennes, y compris le provisionnement et le décommissionnement.

 

Bien sûr, le plug-in VMware est pris en charge avec Fibre Channel, si bien que le processus est le même avec des volumes FC qu'en iSCSI, mais le cas échéant les informations FC s'affichent. Enregistrez d'abord le plugin VMWare avec votre vCenter Server en cliquant sur Administration> vCenter Plugin


FC-VMW1.png

 

Vous serez alors invité à entrer les informations d'identification du vCenter pour enregistrer le plugin (noter: une nouveauté dans cette version: vous pouvez maintenant spécifier le port):

 

FC-VMW2.png

 

Dès que vous aurez cliqué "Register" alors le Plugin sera enregistré dans vCenter. Naviguez vers "Datastore and Datastore Clusters", ouvrez l'objet correspondant à votre Datacenter et vous verrez l'onglet Nimble apparaître. En cliquant sur l'onglet, on vous montrera les banques de données qui ont été provisionnés sur NimbleStorage:

 

FC-VMW3.png

 

Remarque: Mes serveurs ESX ci-dessus démarrent à partir du SAN, par conséquent, leurs disques de démarrage sont affichés comme des banques de données dans le plugin Nimble.

 

Pour créer une nouvelle banque de données cliquez simplement sur l'icone "+", l'assistant vous demandera le nom de votre banque de données ainsi que la liste des serveurs ESX sur lequel il doit-il être présenté:

FC-VMW4.png

 

Après cela, cliquez sur Suivant, on vous demandera la taille de la banque de données, si le volume doit être thin provisionné ainsi que les différentes réservations à mettre en place:

FC-VMW5.png

 

et puis si le volume doit être protégé:

FC-VMW6.png

 

Cette fois, je ai décidé d'intégrer la prise de la sauvegarde avec ESX (en fournissant les informations d'identification de vCenter), puis la planification d'un cliché (ici, je prends un instantané chaque heure du lundi au dimanche de 9h à 17h, puis une fois par jour à minuit ):

FC-VMW7.png

 

Enfin cliquez sur suivant, l'assistant confirmera alors mes options:

FC-VMW8.png

 

Une fois que vous êtes satisfait cliquez sur Terminer et le volume sera provisionné. Comme précédemment, le plugin à fait beaucoup plus que la création d'un simple volume et d'un datastore. Il est en fait en train d'interroger tous les hôtes ESX que j'ai indiqué et obtient les WWPN des HBAs. Le plugin communiquera alors avec la baie pour créer le Groupe des Initiateurs et le remplir avec les WWPN pertinents pour chaque nœud du cluster ESX. Il va ensuite créer le volume, le présenter au groupe d'initiateur. Pour chaque hôte, il balaye à nouveau les adaptateurs HBAs, monter le volume, créer un fichier VMFS et la configuration multipathing.

 

Toute cette activité est enregistrée dans Recent Tasks:

FC-VMW9.png

 

Le résultat final est une banque de données nouvellement provisionnés en Fibre Channel:

FC-VMW10.png

 

Cliquer sur la banque de données nous permettra de modifier la banque de données, la supprimer, la cloner, la redimensionner ou prendre un snapshot manuellement. Nous pouvons également voir toutes les informations relatives à ce volume, y compris la taille / l'utilisation de l'espace, les performances (bande passante, IOPS et la latence):

FC-VMW11.png

 

En cliquant sur l'onglet Connections, on voit chaque initiateur ESX et les connexions créées à partir des port FC de la baie Nimble (très utile pour aider au dépannage). Comme vous pouvez le voir ci-dessous, j'ai deux serveurs ESX dans mon cluster et chaque serveur dispose de deux initiateurs HBAs. Chaque initiateur a deux connexions à la baie de stockage qui est précisément ce que nous attendons:

FC-VMW12.png

 

En cliquant sur l'adaptateur de stockage de l'un des serveurs ESX, on voit le volume / les périphériques qui ont été présentés:

 

FC-VMW13.png

 

La sélection d'une des banques de données de l'onglet Configuration met en évidence que la politique NIMBLE_PSP a été correctement sélectionnée pour gérer le multipathing (pour installer à nouveau le Gestionnaire de connexion pour VMWare en Fibre Channel est identique à iSCSI - tous les détails sur la façon d'installer NCM pour VMWare sont situés ici - Nimble OS 2.0 Partie 3: Nimble Connection Manager for VMware .)

FC-VMW14.png

 

Sélectionnez la banque de données, puis en sélectionnant l'onglet Détails vous verrez les informations sur le volume et vous permettra également de visualiser les chemins d'accès à ce stockage (en cliquant sur Manage Paths):

FC-VMW15.png

 

Les huit chemins (2 HBAs x 4 ports cibles) seront affichés et également la politique de sélection de chemin (qui doit être réglé sur NIMBLE_PSP_DIRECTED).

Vous remarquerez que quatre chemins sont Actif (Contrôleur Actif) et que quatre chemins sont en veille (Contrôleur Standby). Toute défaillance sur la baie, les switchs, les HBAs ou les câbles mettront des chemins en "Failed" ce qui facilitera le dépannage:

FC-VMW16.png

 

Enfin, comme avec Windows, la baie affichera la liste des initiateurs qui sont connectés à chaque volume. En cliquant sur le volume, vous verrez les graphiques Bande Passante / IOPS de ce volume ainsi que les initiateurs connectés:

FC-VMW17.png

 

En regardant "Initiator Group" on voit le groupe qui a été créé automatiquement par le plugin:

FC-VMW18.png

 

Note: Je m'attends à ne plus voir 0000 annexé pour les groupes de volumes et d'initiateurs dès que NimbleOS 2.2.3 sera livré.

 

Enfin comme avant, dans l'onglet Manage > Connections - chaque connexion d'un initiateur est représentée avec l'information "Active / Standby".

FC-VMW19.png

 

Donc, comme vous pouvez le voir, le provisionnement via le plugin VMWare est cohérente entre les deux protocoles iSCSI et FC. Une fois de plus il ya une démo vidéo si vous souhaitez voir la voir:

Lien vers la vidéo

 

 

Quand est-ce que le protocole Fibre Channel sera qualifié avec NimbleStorage par VMWare?

C'est déjà là ! Vous pouvez consulter la matrice de compatibilité mise à jour ici .

 

 

Dans le prochain blog, nous allons examiner de provisionnement d'un volume en environnement Linux. S'il vous plaît n'hésitez pas à poser des questions ou commentaires dans la section ci-dessous!

Outcomes