« LINUX:Haute disponibilité » : différence entre les versions
Aucun résumé des modifications |
Aucun résumé des modifications |
||
(19 versions intermédiaires par le même utilisateur non affichées) | |||
Ligne 16 : | Ligne 16 : | ||
Nous aborderons leur utilisation au travers de divers exemples. En premier, nous utiliserons la notion de Failover ou Basculement et ensuite celle de Loadbalancing ou Répartition de charge en y ajoutant le logiciel Ldirectord. | Nous aborderons leur utilisation au travers de divers exemples. En premier, nous utiliserons la notion de Failover ou Basculement et ensuite celle de Loadbalancing ou Répartition de charge en y ajoutant le logiciel Ldirectord. | ||
=[[LINUX:Haute disponibilité - Prérequis|Prérequis]]= | |||
Pour toutes les configurations qui suivent, les machines auront une même base. | |||
Ligne 101 : | Ligne 105 : | ||
=[[LINUX:Drbd|Drbd]]= | =[[LINUX:Drbd|Drbd]]= | ||
Drbd est un équivalent du Raid 1 mais les deux disques sont sur machines différentes et la synchronisation se fait à travers le réseau. | Drbd est un équivalent du Raid 1 mais les deux disques sont sur des machines différentes et la synchronisation se fait à travers le réseau. | ||
=[[LINUX:Pacemaker - Serveurs en Failover|Serveurs en Failover]]= | |||
Autre application, nous allons mettre deux serveurs en Failover. Nous utiliserons l'approche utilisée par les routers mis en Failover couplée à l'utilisation de Drbd. | |||
=[[LINUX:Ldirectord|Ldirectord]]= | |||
Ldirectord est un programme qui gère la répartition de charge en utilisant fonctionnalité de Linux, le LVS ou Linux Virtual Server. | |||
=[[LINUX:Pacemaker - Serveurs en Loadbalancing (masq)|Serveurs en Loadbalancing (masq)]]= | |||
Toute autre approche, au lieu qu'un des serveurs soit en attente sans rien faire, les serveurs se répartissent la charge et se partagent les données. Une des machines est chargée de faire le partage équitablement. En anglais, on parle de Loadbalancing. Nous utilisons la configuration "Masquerading de NAT". | |||
=[[LINUX:Pacemaker - Serveurs en Loadbalancing (gate)|Serveurs en Loadbalancing (gate)]]= | |||
Cet autre exemple est très proche de la précédente. Il se différencie principalement par son organisation dans le réseau. | |||
Une des machines est chargée de faire le partage équitablement. En anglais, on parle de Loadbalancing. | |||
Au lieu qu'un des serveurs soit en attente sans rien faire, les serveurs se répartissent la charge et se partagent les données. | |||
Nous utilisons la configuration "Gate ou Routage Direct". | |||
=[[LINUX:ISCSI|ISCSI]]= | |||
ISCSI est un protocole réseau qui permet d'utiliser à distance un disque d'une machine "target" sur une autre machine "initiator" comme si ce disque était connecté localement. | |||
=[[LINUX:Pacemaker et ISCSI|Pacemaker et ISCSI]]= | |||
Si les serveurs ISCSI ou Target s'arrêtent de fonctionner, les espaces disques ISCSI sur le client ou Initiator doivent être démontés de toute urgence sinon certaines fonctions de cette machine seront bloquées. | |||
=[[LINUX:Pacemaker - ISCSI en Failover|ISCSI en Failover]]= | |||
Si à la configuration précédente, nous ajoutons un client Initiator, nous pouvons passer à une installation en Failover utilisant des disques ISCSI. | |||
=[[LINUX:Pacemaker - ISCSI en Failover et SBD (fence)|ISCSI en Failover et SBD (fence)]]= | |||
A la configuration précédente, nous ajoutons la notion de "Fence" avec la couche SBD. | |||
Le logiciel SBD utilise un device de type Watchdog (chien de garde) qui permet d'arrêter la machine client ISCSI Initiator quand elle ne plus atteindre sa cible ISCSI de référence. Cette situation se présente, par exemple, dans le cas d'une défaillance réseau. Cette arrêt permet d'éviter des problèmes de corruptions de données sur les ressources distantes. | |||
Nous n'utiliserons qu'un serveur ISCSI Target mais nous garderons l'approche Failover. | |||
=[[LINUX:Pacemaker - quatre serveurs WEB en Failover, Fsyncd et ISCSI|Quatre serveurs WEB en Failover, Fsyncd et ISCSI]]= | |||
Autre configuration, nous allons configurer 4 serveurs WEB en failover. Ils seront accompagnés d'une réplication grâce au programme Fsyncd. Un accès à un espace disque distant ISCSI, propre à chaque serveur WEB sera ajouté. | |||
=[[LINUX:Galera - Cluster de MariaDB|Galera - Cluster de MariaDB]]= | |||
MariaDB possède une fonctionnalité qui permet qu'il travaille en cluster. Celle-ci est dénommée Galera. | |||
=[[LINUX:Glusterfs|Glusterfs]]= | |||
GlusterFS est un système de fichiers distribué, modulable à volonté, qui réunit les éléments de stockage de plusieurs serveurs pour former un système de fichiers uniforme. | |||
=[[LINUX:Pacemaker - cinq serveurs WEB en Failover, Galera et GlusterFs|Cinq serveurs WEB en Failover, Galera et GlusterFs]]= | |||
Autre configuration, nous allons reprendre la configuration présentée à l'article concernant [[LINUX:Pacemaker - quatre serveurs WEB en Failover, Fsyncd et ISCSI|Quatre serveurs WEB en Failover, Fsyncd et ISCSI]]. Nous y mettrons 5 serveurs WEB en failover au lieu de quatre. | |||
Ils seront accompagnés d'un stockage en réplication des fichiers grâce à GlusterFs au lieu d'ISCSI et Fsyncd. Nous y ajoutons la réplication de la base de données grâce à Mariadb-Galera. | |||
=[[LINUX:Pacemaker - quatre serveurs WEB en Loadbalancing, Galera et GlusterFs|Quatre serveurs WEB en Loadbalancing, Galera et GlusterFs]]= | |||
Cette configuration rassemble les fonctionnalités de l'article précédent, [[LINUX:Pacemaker - cinq serveurs WEB en Failover, Galera et GlusterFs|Cinq serveurs WEB en Failover, Galera et GlusterFs]] auquel on applique le canevas du schéma présenté dans l'article sur les [[LINUX:Pacemaker - Serveurs en Loadbalancing (masq)|Serveurs en Loadbalancing (masq)]]. A l'approche Drbd on substitue GlusterFs. | |||
=[[LINUX:Pacemaker - deux routers en failover - trois serveurs WEB en Loadbalancing, Galera et GlusterFs|Deux routers en failover - trois serveurs WEB en Loadbalancing, Galera et GlusterFs]]= | |||
Cette configuration est très semblable à la précédente, [[LINUX:Pacemaker - quatre serveurs WEB en Loadbalancing, Galera et GlusterFs|Quatre serveurs WEB en Loadbalancing, Galera et GlusterFs]]. La différence est qu'on met en Failover deux routers, qui utilisent Ldirectord comme répartiteur de requêtes. | |||
Les trois serveurs Web sont en loadbalancing. Ils utilisent en outre les fonctionnalités de GlusterFs et de MariaDb-Galera qui travaillent en réplication. | |||