LINUX:Pacemaker - quatre serveurs WEB en Failover, Fsyncd et ISCSI

De WIKI sur Linux (ADB)
Aller à la navigation Aller à la recherche

retour au menu de la Haute disponibilité


But

Autre configuration, nous allons configurer 4 serveurs WEB en failover. Ils seront accompagnés d'une réplication grâce au programme Fsyncd. Un accès à un espace disque distant ISCSI, propre à chaque serveur WEB sera ajouté.


Matériel et adressage IP

Dans notre exemple, nous utilisons quatre serveurs Web mis en cluster et un serveur ISCSI ("target") qui mettra à disposition de chaque serveur Web, un espace disque ISCSI. Le schéma ci-dessous nous montre l'adressage IP et le nom de ces machines. En outre pour mettre la fonction Failover, une adresse IP virtuelle est ajoutée à chaque serveur Web.

LINUX:Failover.web4.pdf


Principe

En mode d'utilisation complet, nous avons quatre services Web répartis sur quatre machines mises en cluster: "sv1.home.dom", "sv2.home.dom", "sv3.home.dom" et "sv4.home.dom". A chaque service Web est associé une adresse IP virtuelle propre et un nom de domaine virtuel propre ou nom de machine virtuelle. Ce nom de machine virtuelle et son adresse IP virtuelle seront repris comme "VirtualHost" dans la configuration du service Web HTTP d'Apache.


Associations:

Description Nom de machine virtuelle Adresse IP virtuelle Machine réelle préférée Adresse IP réelle préférée
Service Web n° 5 cluster5.home.dom 192.168.1.75 sv1.home.dom 192.168.1.71
Service Web n° 6 cluster6.home.dom 192.168.1.76 sv2.home.dom 192.168.1.72
Service Web n° 7 cluster7.home.dom 192.168.1.77 sv3.home.dom 192.168.1.73
Service Web n° 8 cluster8.home.dom 192.168.1.78 sv4.home.dom 192.168.1.74


Dans de nombreuses configurations d'un site Web, nous avons les composantes suivantes:

  • le code statique du site écrit par exemple en HTML et en PHP
  • une base de sonnées SQL contenant la partie dynamique de mise en page et du contenu du site
  • un espace disque contenant tous les médias dynamiques téléchargés (images, film, documents PDF,...) qui viendront étoffer le site.

C'est ce que nous rencontrons dans des systèmes de gestion de contenu (CMS) tels Wordpress, Mediawiki, Drupal, Joomla, SPIP,...


Le code statique du site doit être accessible à partir de chaque machine Web. Ces fichiers ne sont généralement que peu nombreux et ne subissent que rarement de modifications. Ces modifications n'apparaissent que lors de mises à jour ou lors d'ajout ou de suppression de "plugins". En le gardant localement nous y gagnerons en performances. Pour cette raison, nous optons pour une réplication entre machines hébergeant les services Web, basée sur le service Rsyncd. L'espace disque utilisé localement par un service Web sera synchronisé toutes les 10 secondes avec son espace disque homologue sur les autres machines du cluster.


Associations:

Description Répertoire local
Service Web n° 5 /site/cluster5
Service Web n° 6 /site/cluster6
Service Web n° 7 /site/cluster7
Service Web n° 8 /site/cluster8

Le schéma suivant illustre ces synchronisations.

LINUX:Failover.web4.lsyncd.pdf


A chaque service Web sera associé un espace disque distant ISCSI mis à disposition par un serveur ISCSI Target: "sv0.home.dom". Cet espace peut être utilisé pour l'hébergement des médias dynamiques téléchargés.


Associations:

Description Répertoire local Nom Initiator ISCSI Target ISCSI
Service Web n° 5 /media/cluster5 iqn.2023-03.dom.home.sv:sv.initiator05 iqn.2023-03.dom.home.sv0:sv0.cluster5
Service Web n° 6 /media/cluster6 iqn.2023-03.dom.home.sv:sv.initiator06 iqn.2023-03.dom.home.sv0:sv0.cluster6
Service Web n° 7 /media/cluster7 iqn.2023-03.dom.home.sv:sv.initiator07 iqn.2023-03.dom.home.sv0:sv0.cluster7
Service Web n° 8 /media/cluster8 iqn.2023-03.dom.home.sv:sv.initiator08 iqn.2023-03.dom.home.sv0:sv0.cluster8

Le schéma suivant illustre ces accès.

LINUX:Failover.web4.iscsi.pdf


En ce qui concerne la base de données, elle doit être hébergée sur une machine distante par exemple sur notre machine "sv0.home.dom".


Remarques:

  • Pour gagner en performances, il serait préférable de placer la partie du trafic ISCSI et base de données sur un second réseau local (interfaces ETH2) comme nous le faisions pour le trafic DRBD dans un article précédent. On ne garde que l'accès des clients Web sur les interfaces réseaux ETH1.
  • Pour gagner en haute disponibilité, la machine "sv0.home.dom" pourrait être mise en Failover avec une réplication disque basée sur Drbd en mode Actif/Passif comme vu précédemment (Serveurs en Failover) en l'adaptant à ISCSI.
  • On pourrait ajouter le "fencing" grâce au support SBD sous ISCSI comme vu précédemment (ISCSI en Failover et SBD (fence)).
  • Comme on pourrait intégrer le serveur "sv0.home.dom" dans le cluster comme vu précédemment (ISCSI en Failover).

Nous n'avons pas intégré ces facettes pour ne pas alourdir et compliquer l'exposé.


En cas de défaillance d'une machine du cluster, les différentes ressources de la machine défaillante seront transférés sur une des trois autres machines et ainsi de suite pour aboutir dans le cas extrême que toutes les ressources soient concentrées sur une seule machine.

Le schéma suivant simule l'arrêt de la machine "sv2.home.dom". Ses ressources sont transférés sur la machine "sv3.home.dom".

LINUX:Failover.web4.3.pdf

De même pour la synchronisation Rsync.

LINUX:Failover.web4.lsyncd.3.pdf

De même pour les accès ISCSI.

LINUX:Failover.web4.iscsi.3.pdf


Prérequis

Configurations de base

En premier, les Prérequis doivent être effectués.


Fichier "hosts"

Sur chaque machine du cluster, on ajoute un nom aux différentes adresses réseaux. On le fait en local dans le fichier "/etc/hosts" suivant le schéma ci-dessus. Son contenu devient:


127.0.0.1   localhost localhost.localdomain localhost4 localhost4.localdomain4
::1         localhost localhost.localdomain localhost6 localhost6.localdomain6
 
192.168.1.70 sv0.home.dom
 
192.168.1.71 sv1.home.dom
192.168.1.72 sv2.home.dom
192.168.1.73 sv3.home.dom 
192.168.1.74 sv4.home.dom 
 
192.168.1.75 cluster5.home.dom 
192.168.1.76 cluster6.home.dom 
192.168.1.77 cluster7.home.dom 
192.168.1.78 cluster8.home.dom 
  
# serveur mail
192.168.1.110 servermail.home.dom home.dom


ISCSI

Nous nous baserons sur la configuration de l'article sur ISCSI. Nous expliciterons la configuration ci-dessous sans entrer dans les détails.


Configuration de base de Pacemaker

La Configuration de base de Pacemaker doit être effectuée avec quelques modifications car nous avons quatre machines dans le cluster au lieu de deux. Nous allons passer rapidement en revue ces opérations.


Opérations locales

Sur chaque machine:

  • le mot de passe de l'utilisateur "hacluster" est à implémenter. "Chasse4321Eau" pour mémoire.
  • le service "pcsd.service" est à configurer et est lancé.


Initialisation du cluster

Pour initialiser le cluster, on effectue ces opérations sur une seule machine du cluster:

pcs host auth sv1.home.dom sv2.home.dom sv3.home.dom sv4.home.dom -u hacluster -p Chasse4321Eau
pcs cluster setup fo_cluster \
 sv1.home.dom addr=192.168.1.71 sv2.home.dom addr=192.168.1.72 sv3.home.dom addr=192.168.1.73 sv4.home.dom addr=192.168.1.74 \
 transport knet ip_version=ipv4 link transport=udp mcastport=5420


Quorum

Pour la suite, nous sommes en présence d'un problème.

  • Si nous ignorons la contrainte du "quorum" avec la commande:
pcs property set no-quorum-policy=ignore

quand ne subsiste qu'une machine active, les ressources "lsyncd" n'ont plus rien à synchroniser et se mettent en erreur.

  • Si nous maintenons la contrainte du "quorum" avec la commande, :
pcs property set no-quorum-policy=stop

le "quorum" est de 3; c'est à dire que s'il n'y a pas au moins 3 machines actives, le système s'arrête.

  • Le système idéal et minimum serait que le "quorum" soit de 2. Dans un autre article, nous avions joué sur l'option "expected_votes" dans le fichier "/etc/corosync/corosync.conf". Mais cette valeur n'est prise en compte que si elle est supérieure ou égale au nombre de machines présentes dans le cluster. Nous allons utiliser l'option "last_man_standing".


Modification de la configuration de Corosync

Pour atteindre ce quorum de deux, il faut adapter sur chaque machine du cluster, le fichier "/etc/corosync/corosync.conf". La dernière commande a créé ce fichier. Dans la section "quorum", on va ajouter l'option "last_man_standing: 1". Cette option recalcule le "quorum" en fonction du nombre de machines actives dans le cluster et non sur base du nombre total de machines configurées dans le cluster.

Ce fichier devient pour la section "quorum":


quorum {
   provider: corosync_votequorum
   last_man_standing: 1
}

Avec cette configuration, le "quorum" minimum sera de 2 et c'est seulement quand il ne restera qu'une machine active que le système de Failover s'arrêtera.


Voici comment cela se passera. on utilise la commande:

pcs quorum status

qui donne:

  • dans le cas de quatre machines actives:

Quorum information
------------------
Date:             Tue Mar 28 12:59:53 2023
Quorum provider:  corosync_votequorum
Nodes:            4
Node ID:          1
Ring ID:          1.2c7
Quorate:          Yes
 
Votequorum information
----------------------
Expected votes:   4
Highest expected: 4
Total votes:      4
Quorum:           3
Flags:            Quorate LastManStanding
 
Membership information
----------------------
    Nodeid      Votes    Qdevice Name
         1          1         NR sv1.home.dom (local)
         2          1         NR sv2.home.dom
         3          1         NR sv3.home.dom
         4          1         NR sv4.home.dom

  • dans le cas de trois machines actives:

Quorum information
------------------
Date:             Tue Mar 28 12:58:25 2023
Quorum provider:  corosync_votequorum
Nodes:            3
Node ID:          1
Ring ID:          1.2c3
Quorate:          Yes
 
Votequorum information
----------------------
Expected votes:   3
Highest expected: 3
Total votes:      3
Quorum:           2
Flags:            Quorate LastManStanding
 
Membership information
----------------------
    Nodeid      Votes    Qdevice Name
         1          1         NR sv1.home.dom (local)
         2          1         NR sv2.home.dom
         4          1         NR sv4.home.dom

  • dans le cas de deux machines actives:

Quorum information
------------------
Date:             Tue Mar 28 12:55:45 2023
Quorum provider:  corosync_votequorum
Nodes:            2
Node ID:          1
Ring ID:          1.2b7
Quorate:          Yes
 
Votequorum information
----------------------
Expected votes:   2
Highest expected: 2
Total votes:      2
Quorum:           2
Flags:            Quorate LastManStanding
 
Membership information
----------------------
    Nodeid      Votes    Qdevice Name
         1          1         NR sv1.home.dom (local)
         3          1         NR sv3.home.dom


Lancement du cluster

Pour lancer l'ensemble, on exécute les commandes suivantes à partir d'une seule machine:

pcs cluster enable --all
pcs cluster start --all

On n'oublie pas d'activer les trois services sur les quatres machines du cluster:

systemctl enable pcsd.service corosync.service pacemaker.service


Fin de la configuration

Par la même occasion exécutez la fin de la configuration de base:

pcs property set stonith-enabled=false
pcs property set no-quorum-policy=stop

La dernière spécifie que si le quorum n'est pas atteint, les ressources de Pacemaker sont arrêtées.


Configuration du service WEB

Passons à la configuration du service Web sur les quatre machines du cluster.


Configuration des adresses IP virtuelle et des serveurs Web sous Pacemaker

Script

On effectue la suite des commandes suivantes à partir d'une des machines du cluster. On peut les mettre dans un script.


#!/bin/bash
 
pcs resource create ClusterIP5 ocf:heartbeat:IPaddr2 ip=192.168.1.75 nic=eth1 cidr_netmask=24 iflabel=ethcl5 lvs_support=true op monitor interval=30s
pcs constraint location ClusterIP5 prefers sv1.home.dom=400
pcs constraint location ClusterIP5 prefers sv2.home.dom=100
pcs constraint location ClusterIP5 prefers sv3.home.dom=100
pcs constraint location ClusterIP5 prefers sv4.home.dom=100
 
pcs resource create ClusterIP6 ocf:heartbeat:IPaddr2 ip=192.168.1.76 nic=eth1 cidr_netmask=24 iflabel=ethcl6 lvs_support=true op monitor interval=30s
pcs constraint location ClusterIP6 prefers sv1.home.dom=100
pcs constraint location ClusterIP6 prefers sv2.home.dom=400
pcs constraint location ClusterIP6 prefers sv3.home.dom=100
pcs constraint location ClusterIP6 prefers sv4.home.dom=100
 
pcs resource create ClusterIP7 ocf:heartbeat:IPaddr2 ip=192.168.1.77 nic=eth1 cidr_netmask=24 iflabel=ethcl7 lvs_support=true op monitor interval=30s
pcs constraint location ClusterIP7 prefers sv1.home.dom=100
pcs constraint location ClusterIP7 prefers sv2.home.dom=100
pcs constraint location ClusterIP7 prefers sv3.home.dom=400
pcs constraint location ClusterIP7 prefers sv4.home.dom=100
 
pcs resource create ClusterIP8 ocf:heartbeat:IPaddr2 ip=192.168.1.78 nic=eth1 cidr_netmask=24 iflabel=ethcl8 lvs_support=true op monitor interval=30s
pcs constraint location ClusterIP8 prefers sv1.home.dom=100
pcs constraint location ClusterIP8 prefers sv2.home.dom=100
pcs constraint location ClusterIP8 prefers sv3.home.dom=100
pcs constraint location ClusterIP8 prefers sv4.home.dom=400
 
pcs resource create ClusterHttpd         systemd:httpd          op monitor interval=30s clone
pcs resource create ClusterPhp           systemd:php-fpm        op monitor interval=30s clone
pcs resource create ClusterMailTo ocf:heartbeat:MailTo email=root subject="FailOver_Home" op monitor interval=30s clone


Ajout des ressources des adresses IP virtuelles

Nous créons les ressources "ClusterIP5", "ClusterIP6", "ClusterIP7" et "ClusterIP8" grâce à la fonction "ocf:heartbeat:IPaddr2".


On remarque qu'on a ajouté des contraintes de localisation par machine du cluster. Pour chacune de ces ressources, une machine différente préférentielle a été choisie. La ressource "ClusterIP5" sera activée sur la machine "sv1.home.dom" (valeur "400") et ainsi de suite. Chaque machine aura sa propre adresse IP virtuelle prédéfinie. Dans le cas d'une déficience de cette machine, cette ressource sera placée aléatoirement sur une des trois autres machines du cluster; elles ont en effet le même score préférentiel (valeur "100").


Ajout des ressources clonées

Les trois dernières lignes créent trois ressources de type clone; ces ressources se retrouveront d'office sur toutes les machines du cluster.

  • La ressource "ClusterHttpd" va activer le service Apache configurée au point précédent.
  • La ressource "ClusterPhp" va activer le service Php.
  • La ressource "ClusterMailTo" va activer les notifications par mail.


Configuration des services Lsyncd

Passons à la configuration des services Lsyncd sur les quatre machines du cluster. Ce service est basé sur le logiciel Rsync et le logiciel Lsyncd entrera en relation avec service Rsyncd.


Configuration des services Lsyncd sous Pacemaker

Script

On effectue la suite des commandes suivantes à partir d'une des machines du cluster. On peut les mettre dans un script.


#!/bin/bash
 
pcs resource create ClusterLsyncd5 systemd:lsyncd5 op monitor interval=30s
pcs constraint colocation add ClusterIP5 with ClusterLsyncd5 score=INFINITY
pcs constraint order ClusterIP5 then start ClusterLsyncd5
 
pcs resource create ClusterLsyncd6 systemd:lsyncd6 op monitor interval=30s
pcs constraint colocation add ClusterIP6 with ClusterLsyncd6 score=INFINITY
pcs constraint order ClusterIP6 then start ClusterLsyncd6
 
pcs resource create ClusterLsyncd7 systemd:lsyncd7 op monitor interval=30s
pcs constraint colocation add ClusterIP7 with ClusterLsyncd7 score=INFINITY
pcs constraint order ClusterIP7 then start ClusterLsyncd7
 
pcs resource create ClusterLsyncd8 systemd:lsyncd8 op monitor interval=30s
pcs constraint colocation add ClusterIP8 with ClusterLsyncd8 score=INFINITY
pcs constraint order ClusterIP8 then start ClusterLsyncd8


Ajout des ressources des services Lsyncd

Nous créons les ressources "ClusterLsyncd5", "ClusterLsyncd6", "ClusterLsyncd7" et "ClusterLsyncd8" sur base des services créés au point précédent. Chacune de ces ressources est liée respectivement à leur homologue "ClusterIP5", "ClusterIP6", "ClusterIP7" et "ClusterIP8". Elles suivent une contrainte de colocation. Elles sont lancées après leur équivalent de la ressource d'adressage IP virtuelle.


Configuration d'Iscsi - Target et initiator

Passons à la configuration d'ISCSI. La partie ISCSI Target sera concentrée sur la machine "sv0.home.dom" et les quatre machines du cluster utiliseront ce service en tant qu'ISCSI Initiator.


Configuration d'ISCSI sous Pacemaker

Script

On effectue la suite des commandes suivantes à partir d'une des machines du cluster. On peut les mettre dans un script.


#!/bin/bash
 
pcs resource create ClusterIscsi5 ocf:heartbeat:iscsi portal=192.168.1.70:3260 target=iqn.2023-03.dom.home.sv0:sv0.cluster5 op monitor
pcs constraint colocation add ClusterIscsi5 with ClusterLsyncd5 score=INFINITY
pcs constraint order ClusterLsyncd5 then start ClusterIscsi5
 
pcs resource create ClusterIscsi6 ocf:heartbeat:iscsi portal=192.168.1.70:3260 target=iqn.2023-03.dom.home.sv0:sv0.cluster6 op monitor
pcs constraint colocation add ClusterIscsi6 with ClusterLsyncd6 score=INFINITY
pcs constraint order ClusterLsyncd6 then start ClusterIscsi6
 
pcs resource create ClusterIscsi7 ocf:heartbeat:iscsi portal=192.168.1.70:3260 target=iqn.2023-03.dom.home.sv0:sv0.cluster7 op monitor
pcs constraint colocation add ClusterIscsi7 with ClusterLsyncd7 score=INFINITY
pcs constraint order ClusterLsyncd7 then start ClusterIscsi7
 
pcs resource create ClusterIscsi8 ocf:heartbeat:iscsi portal=192.168.1.70:3260 target=iqn.2023-03.dom.home.sv0:sv0.cluster8 op monitor
pcs constraint colocation add ClusterIscsi8 with ClusterLsyncd8 score=INFINITY
pcs constraint order ClusterLsyncd8 then start ClusterIscsi8


Ajout des ressources ISCSI

Nous créons les ressources "ClusterIscsi5", "ClusterIscsi6", "ClusterIscsi7" et "ClusterIscsi8" grâce à la fonction "ocf:heartbeat:iscsi". Chacune de ces ressources est liée respectivement à leur homologue "ClusterLsyncd5", "ClusterLsyncd6", "ClusterLsyncd7" et "ClusterLsyncd8". Elles suivent une contrainte de colocation. Elles sont lancées après leur équivalent de la ressource du service Lsyncd. Nous remarquons qu'on utilise les noms de target et du portal vu au point précédent.


Configuration du montage des ressources disques ISCSI sous Pacemaker

Script

On effectue la suite des commandes suivantes à partir d'une des machines du cluster. On peut les mettre dans un script.


#!/bin/bash
 
pcs resource create ClusterFsData5 ocf:heartbeat:Filesystem \
 device="/dev/disk/by-uuid/5506f7a0-3fee-48ad-a753-e4050f61b654" \
 directory="/media/cluster5" fstype="xfs" \
 "options=defaults,_netdev" \
 op monitor interval=20s on-fail=stop
pcs constraint colocation add ClusterFsData5 with ClusterIscsi5 score=INFINITY
pcs constraint order ClusterIscsi5 then start ClusterFsData5
 
pcs resource create ClusterFsData6 ocf:heartbeat:Filesystem \
 device="/dev/disk/by-uuid/c5c6a292-00e2-4f5b-8157-dcfd34c07bd9" \
 directory="/media/cluster6" fstype="xfs" \
 "options=defaults,_netdev" \
 op monitor interval=20s on-fail=stop
pcs constraint colocation add ClusterFsData6 with ClusterIscsi6 score=INFINITY
pcs constraint order ClusterIscsi6 then start ClusterFsData6
 
pcs resource create ClusterFsData7 ocf:heartbeat:Filesystem \
 device="/dev/disk/by-uuid/d4e00f02-a83f-4379-accf-60357830147a" \
 directory="/media/cluster7" fstype="xfs" \
 "options=defaults,_netdev" \
 op monitor interval=20s on-fail=stop
pcs constraint colocation add ClusterFsData7 with ClusterIscsi7 score=INFINITY
pcs constraint order ClusterIscsi7 then start ClusterFsData7
 
pcs resource create ClusterFsData8 ocf:heartbeat:Filesystem \
 device="/dev/disk/by-uuid/8fbb22bd-8624-4ff0-91a1-ac1f6bb051e4" \
 directory="/media/cluster8" fstype="xfs" \
 "options=defaults,_netdev" \
 op monitor interval=20s on-fail=stop
pcs constraint colocation add ClusterFsData8 with ClusterIscsi8 score=INFINITY
pcs constraint order ClusterIscsi8 then start ClusterFsData8


Ajout des ressources de montage des disques ISCSI

Nous créons les ressources "ClusterFsData5", "ClusterFsData6", "ClusterFsData7" et "ClusterFsData8" grâce à la fonction "ocf:heartbeat:Filesystem". Chacune de ces ressources est liée respectivement à leur homologue "ClusterIscsi5", "ClusterIscsi6", "ClusterIscsi7" et "ClusterIscsi8". Elles suivent une contrainte de colocation. Elles sont lancées après leur équivalent de la ressource ISCSI. Nous retrouvons le nom du device que nous avions listés lors du point précédent.


Synthèse concernant la colocation

Des groupes de ressources se retrouveront toujours ensemble sur une même machine du cluster:

  • Les ressources "ClusterIP5", "ClusterLsyncd5", "ClusterIscsi5" et "ClusterFsData5" restent ensemble.
  • Les ressources "ClusterIP6", "ClusterLsyncd6", "ClusterIscsi6" et "ClusterFsData6" restent ensemble.
  • Les ressources "ClusterIP7", "ClusterLsyncd7", "ClusterIscsi7" et "ClusterFsData7" restent ensemble.
  • Les ressources "ClusterIP8", "ClusterLsyncd8", "ClusterIscsi8" et "ClusterFsData8" restent ensemble.


Statut

Après cette opération, l'état du cluster peut être visualisé par la commande:

crm_mon -1

qui donne dans le cas des cinq machines actives. En effet, il faut que la machine serveur ISCSI Target "sv0.home.dom":


Status of pacemakerd: 'Pacemaker is running' (last updated 2023-03-29 13:10:18 +02:00)
Cluster Summary:
  * Stack: corosync
  * Current DC: sv1.home.dom (version 2.1.5-3.fc37-a3f44794f94) - partition with quorum
  * Last updated: Wed Mar 29 13:10:19 2023
  * Last change:  Tue Mar 28 12:59:32 2023 by root via cibadmin on sv1.home.dom
  * 4 nodes configured
  * 28 resource instances configured
 
Node List:
  * Online: [ sv1.home.dom sv2.home.dom sv3.home.dom sv4.home.dom ]
 
Active Resources:
  * ClusterIP5  (ocf::heartbeat:IPaddr2):        Started sv1.home.dom
  * ClusterIP6  (ocf::heartbeat:IPaddr2):        Started sv2.home.dom
  * ClusterIP7  (ocf::heartbeat:IPaddr2):        Started sv3.home.dom
  * ClusterIP8  (ocf::heartbeat:IPaddr2):        Started sv4.home.dom
  * Clone Set: ClusterHttpd-clone [ClusterHttpd]:
    * Started: [ sv1.home.dom sv2.home.dom sv3.home.dom sv4.home.dom ]
  * Clone Set: ClusterPhp-clone [ClusterPhp]:
    * Started: [ sv1.home.dom sv2.home.dom sv3.home.dom sv4.home.dom ]
  * Clone Set: ClusterMailTo-clone [ClusterMailTo]:
    * Started: [ sv1.home.dom sv2.home.dom sv3.home.dom sv4.home.dom ]
  * ClusterLsyncd5      (systemd:lsyncd5):       Started sv1.home.dom
  * ClusterLsyncd6      (systemd:lsyncd6):       Started sv2.home.dom
  * ClusterLsyncd7      (systemd:lsyncd7):       Started sv3.home.dom
  * ClusterLsyncd8      (systemd:lsyncd8):       Started sv4.home.dom
  * ClusterIscsi5       (ocf::heartbeat:iscsi):  Started sv1.home.dom
  * ClusterIscsi6       (ocf::heartbeat:iscsi):  Started sv2.home.dom
  * ClusterIscsi7       (ocf::heartbeat:iscsi):  Started sv3.home.dom
  * ClusterIscsi8       (ocf::heartbeat:iscsi):  Started sv4.home.dom
  * ClusterFsData5      (ocf::heartbeat:Filesystem):     Started sv1.home.dom
  * ClusterFsData6      (ocf::heartbeat:Filesystem):     Started sv2.home.dom
  * ClusterFsData7      (ocf::heartbeat:Filesystem):     Started sv3.home.dom
  * ClusterFsData8      (ocf::heartbeat:Filesystem):     Started sv4.home.dom

Et dans le cas où la machine "sv2.home.dom" est arrêtée:


Status of pacemakerd: 'Pacemaker is running' (last updated 2023-03-24 10:34:40 +01:00)
Cluster Summary:
  * Stack: corosync
  * Current DC: sv1.home.dom (version 2.1.5-3.fc37-a3f44794f94) - partition with quorum
  * Last updated: Fri Mar 24 10:34:40 2023
  * Last change:  Thu Mar 23 13:11:24 2023 by root via cibadmin on sv1.home.dom
  * 4 nodes configured
  * 28 resource instances configured
 
Node List:
  * Online: [ sv1.home.dom sv3.home.dom sv4.home.dom ]
  * OFFLINE: [ sv2.home.dom ]
 
Active Resources:
  * ClusterIP5  (ocf::heartbeat:IPaddr2):        Started sv1.home.dom
  * ClusterIP6  (ocf::heartbeat:IPaddr2):        Started sv3.home.dom
  * ClusterIP7  (ocf::heartbeat:IPaddr2):        Started sv3.home.dom
  * ClusterIP8  (ocf::heartbeat:IPaddr2):        Started sv4.home.dom
  * Clone Set: ClusterHttpd-clone [ClusterHttpd]:
    * Started: [ sv1.home.dom sv3.home.dom sv4.home.dom ]
  * Clone Set: ClusterPhp-clone [ClusterPhp]:
    * Started: [ sv1.home.dom sv3.home.dom sv4.home.dom ]
  * Clone Set: ClusterMailTo-clone [ClusterMailTo]:
    * Started: [ sv1.home.dom sv3.home.dom sv4.home.dom ]
  * ClusterLsyncd5      (systemd:lsyncd5):       Started sv1.home.dom
  * ClusterLsyncd6      (systemd:lsyncd6):       Started sv3.home.dom
  * ClusterLsyncd7      (systemd:lsyncd7):       Started sv3.home.dom
  * ClusterLsyncd8      (systemd:lsyncd8):       Started sv4.home.dom
  * ClusterIscsi5       (ocf::heartbeat:iscsi):  Started sv1.home.dom
  * ClusterIscsi6       (ocf::heartbeat:iscsi):  Started sv3.home.dom
  * ClusterIscsi7       (ocf::heartbeat:iscsi):  Started sv3.home.dom
  * ClusterIscsi8       (ocf::heartbeat:iscsi):  Started sv4.home.dom
  * ClusterFsData5      (ocf::heartbeat:Filesystem):     Started sv1.home.dom
  * ClusterFsData6      (ocf::heartbeat:Filesystem):     Started sv3.home.dom
  * ClusterFsData7      (ocf::heartbeat:Filesystem):     Started sv3.home.dom
  * ClusterFsData8      (ocf::heartbeat:Filesystem):     Started sv4.home.dom





retour au menu de la Haute disponibilité