NOTE : PBXware 7.2 - Bug d'affichage en langue française, nous vous conseillons d'attendre la résolution avant d'évoluer vers cette version.

ServerWARE est un outil formidable pour les infrastructures.

Configurer la géo-redondance

Temps estimé :11 minutes

Pour configurer la géo-redondance entre deux serveurs, vous aurez besoin de :

  1. Créer un set de données (dataset) dédié à la redondance sur le serveur qui reçoit les réplications (exemple Site A reçoit les réplicats de Site B).
  2. Utiliser la clé API dédiée à la redondance générée sur Site A et l’insérer sur Site B pour que Site B sache à quel serveur envoyer les réplicats.
  3. Configurer la tâche de réplication des VPS de Site B vers Site A (nombre de points de restauration, rythme de réplication, choix des VPS à répliquer, tester la réplication et la restauration).

Le SERVERware du site principal (exemple Site B), sera connecté au serveur réceptacle, où les VPS seront répliquées (exemple Site A) avec une clé d’API une fois que les deux sites auront été configurés entre eux.

Avant de pouvoir créer un site de géo-redondance, il faut d’abord créer un set de données ZFS à cet effet sur Site A. Ce set permettra d’accueillir les VPS répliquées depuis Site B.

L’ensemble de données du serveur de réplication peut être créé sur le pool principal NETSTOR de l’hôte de stockage. Il est recommandé que la capacité de stockage minimale disponible pour le serveur de réplication soit deux fois supérieure à la taille du stockage initial occupée par les VPS.

Créer un site de géo-redondance

Pour pouvoir créer un site GRS, vous devez d’abord créer un ensemble de données ZFS à cet effet.

Le jeu de données de géo-redondance peut être créé sur le pool NETSTOR (pool principal) de l’hôte de stockage.
Le stockage minimum disponible pour le serveur de géo-redondance doit être le double de la taille du stockage initial occupé par les VPS combinés dans le cercle de réplication.
Le stockage pour le serveur de géo-redondance ne doit être considéré que comme un pool avec un stockage SSD.

Les systèmes de fichiers ZFS sont créés à l’aide de la commande zfs create. La sous-commande create prend un seul argument : le nom du système de fichiers à créer. Le nom du système de fichiers est spécifié sous la forme d’un chemin d’accès commençant par le nom du pool, comme suit :

				
					pool-name/[filesystem-name/]filesystem-name

				
			

Le nom du pool et les noms des systèmes de fichiers initiaux dans le chemin d’accès identifient l’emplacement dans la hiérarchie où le nouveau système de fichiers sera créé. 

Le dernier nom du chemin identifie le nom du système de fichiers à créer.

Dans l’exemple suivant, une base de données nommée GRS est créée dans le système de fichiers NETSTOR sur le SERVERware du Site A.

				
					~ # zfs create NETSTOR/GRS


				
			

ZFS monte automatiquement le système de fichiers nouvellement créé s’il a été créé avec succès. Par défaut, les systèmes de fichiers sont montés en tant que /dataset, en utilisant le chemin fourni pour le nom du système de fichiers dans la sous-commande create. 

Dans cet exemple, le système de fichiers du serveur de géo-redondance nouvellement créé est monté sur /NETSTOR/GRS.

Exécutez la commande zfs list pour vous assurer que le jeu de données est créé :

				
					~ # zfs list
NAME                            USED  AVAIL  REFER   MOUNTPOINT
NETSTOR                         489G   156G   142M   /NETSTOR
NETSTOR/CONTROLLER              1.38G  156G   1.38G  /NETSTOR/CONTROLLER
NETSTOR/GRS                     483G   156G   112K   /NETSTOR/GRS
NETSTOR/logs                    476K   8.00G  476K   /NETSTOR/logs
NETSTOR/templates               3.60G  156G   96K    none
SYSTEM-e274                     10.1G  205G   96K    none
SYSTEM-e274/BACKUP              96K    205G   96K    legacy
SYSTEM-e274/rootfs              6.63G  8.37G  4.63G  /
SYSTEM-e274/rootfs/log          118M   1.89G  118M   legacy
SYSTEM-e274/swap                2.13G  207G   60K    -
				
			

Poursuivez ensuite la création du site.

Sur l’hôte sélectionné, exécutez l’outil CLI swrepl-adm.

				
					~ # swrepl-adm
				
			

Vus pouvez désormais utiliser les commandes CLI pour créer un nouveau site.

Dans notre cas de figure, un nouveau site doit être créé :

				
					» site add -storage NETSTOR/GRS -quota 450G -throttle 70M  -admin#false  -allowedips "192.168.1.10,10.1.0.0/16"  "Site A"
				
			

Un message de succès s’affiche alors :

				
					OK 93010f9f4003723d2eec317bf7160e0d
				
			

Le site avec l’ID : 93010f9f4003723d2eec317bf7160e0d est créé, pour confirmer les paramètres du site entrez la commande suivante :

				
					» site list
      ID     |      INFO       | ADMIN |   STORAGE   |   QUOTA   | THROTTLING
+------------+-----------------+-------+-------------+-----------+------------+
  93010f9... | this is my site | false | NETSTOR/GRS | 450.0 GiB   | 70.0 MiB/s
+------------+-----------------+-------+-------------+-----------+------------+
				
			

Tous les sites disponibles seront affichés, pour une vue plus détaillée, ajoutez l’ID du site après la commande :

				
					» site list 93010f9f4003723d2eec317bf7160e0d
    ID:          93010f9f4003723d2eec317bf7160e0d
    Description: mon site
    Admin:       false
    API Key:     7e0f6463412acc17d3ff163065c1d897
    Storage:     NETSTOR/GRS
    Quota:       450.0 GiB
    Throttling:  70.0 MiB/s
    Allowed IPs: 192.168.1.10,10.1.0.0/16
				
			

Pour modifier les paramètres du site après création, la commande site update peut être utilisée :

				
					» site update 93010f9f4003723d2eec317bf7160e0d -allowedips 0.0.0.0
OK
» site list 93010f9f4003723d2eec317bf7160e0d
    ID:          93010f9f4003723d2eec317bf7160e0d
    Description: this is my site
    Admin:       false
    API Key:     7e0f6463412acc17d3ff163065c1d897
    Storage:     NETSTOR/GRS
    Quota:       450.0 GiB
    Throttling:  70.0 MiB/s
    Allowed IPs: 0.0.0.0
				
			

Si les détails sur le site sont corrects, utilisons la clé API : 7e0f6463412acc17d3ff163065c1d897 pour connecter le SERVERware à notre site nouvellement créé et démarrer le processus de réplication.

La clé API générée sur Site A doit être rentrée sur le serveur Site B, lorsque vous souhaitez ajouter un serveur de redondance (Site A en l’occurrence), on peut voir que la clé API que j’ai rentrée est bien celle qui correspond au pool qui vient d’être créé sur Site A :

Configuration du serveur de géo-redondance sur le site B

La géo-redondance est désormais fonctionnelle. En cas de panne sur le site principal après le basculement et la restauration vers un emplacement distant, pour renvoyer les données au site principal, en utilisant la même procédure, vous créerez un ensemble de données de géo-redondance sur l’hôte de stockage (Site – A) et renverrez les données à l’emplacement principal.

Vous pouvez désormais effectuer la démarche en sens inverse, afin de copier toutes les VPS du Site A vers le Site B en créant un site de redondance sur le site B et en renseignant la clé d’API sur le Site A.

Créer un ensemble de données dédié à la géo-redondance

Créer un nouvel ensemble de données permet d’allouer un espace de stockage dédié aux machines de géo-redondance. Cela permettra notamment de retourner les VPS à leur emplacement d’origine. Pour créer un nouvel ensemble de données sur SERVERware, connectez-vous à l’hôte sur lequel les VPS sont hébergées, en l’occurence Site B.

  1. Sortez de la console swrepl-adm (exit).
  2. Découvrez le nom du pool ZFS en tapant :
				
					~ # zpool status | grep pool
~ # pool: SYSTEM-e694
				
			

Lorsque vous connaissez le nom du pool ZFS, vous pourrez créer un ensemble de données pour le stockage de réplication.

Dans notre exemple, nous utiliserons le nom du pool de la commande précédente, à savoir ‘SYSTEM-e694‘, & ajouterons une barre oblique finale / et le nom de l’ensemble de données, dans notre cas GRS pour que le la commande ressemblera à ceci :

				
					~ # zfs create SYSTEM-e694/GRS

				
			

3. Ensuite, vous devez créer le point de montage et les paramètres de démarrage pour le nouvel ensemble de données

				
					~ # zfs set mountpoint=legacy SYSTEM-e694/GRS
~ # zfs set overlay=on SYSTEM-e694/GRS


				
			
  1. Créez un répertoire et montez notre ensemble de données ZFS nouvellement créé.
				
					~ # mkdir /GRS
~ # mount -t zfs SYSTEM-e694/GRS  /GRS


				
			

5.  Ajoutez ce point de montage au fichier “/etc/fstab” afin que SERVERware monte cet ensemble de données après le redémarrage du système.

				
					~ # cat /proc/mounts | grep GRS

SYSTEM-e694/GRS /GRS zfs rw,relatime,xattr,noacl 0 0
				
			

Le résultat de la dernière commande doit être copié dans /etc/fstab.

				
					~# nano /etc/fstab

# /etc/fstab: static file system information.
#
# noatime turns off atimes for increased performance (atimes normally aren't
# needed); notail increases the performance of ReiserFS (at the expense of storage
# efficiency).  It's safe to drop the noatime options if you want and to
# switch between notail / tail freely.
#
# The root filesystem should have a pass number of either 0 or 1.
# All other filesystems should have a pass number of 0 or greater than 1.
#
# See the manpage fstab(5) for more information.
#

# <fs>                  <mountpoint>    <type>          <opts>          <dump/pass>

# NOTE: If your BOOT partition is ReiserFS, add the notail option to opts.
systemd                      /sys/fs/cgroup/systemd    cgroup    rw,relatime,name#systemd  0 0

/dev/zvol/SYSTEM-e694/swap        none           swap     defaults              0  0
SYSTEM-e694  /rootfs/log       /var/log       zfs       rw,relatime,xattr     0     0
SYSTEM-e694/GRS /GRS zfs rw,relatime,xattr,noacl 0 0
				
			

Après l’édition, enregistrez le fichier et quittez.

    1. Redémarrez l’hôte de traitement.

    2. Inspectez l’ensemble de données et le point de montage que nous venons de créer dans ZFS.

				
					~ # zfs list
NAME                            USED   AVAIL  REFER  MOUNTPOINT
SYSTEM-e694                     117G   225G   19K    none
SYSTEM-e694/GRS                 24K    225G   24K    legacy
SYSTEM-e694/rootfs              7.10G  7.90G  5.10G  legacy
SYSTEM-e694/rootfs-prev         4.94G  10.1G  4.94G  /
SYSTEM-e694/rootfs/log          24.9M  1.98G  24.9M  legacy
SYSTEM-e694/swap                2.13G  227G   12K    -
				
			

Si vous pouvez voir un nouvel ensemble de données comme indiqué (SYSTEM-e694/GRS 24K 225G 24K legacy), vous avez réussi à créer un nouvel ensemble de données dédié à la redondance.

Partager

Configurer la géo-redondance

Ou copiez le lien ci-dessous

CONTENU