Infrastructure et hébergement « haute disponibilité »

L’externalisation des systèmes informatiques est courante dans les entreprises, petites ou grandes. En effet, en plus d’être très pratique (pas besoin d’un énorme département informatique, plus de rapidité dans l’exécution des processus informatiques, etc.), externaliser la gestion du système informatique permet aux entreprises de réaliser d’importantes économies (pas d’espace physique, moins d’équipements informatiques, donc moins d’électricité consommée, etc.). Toutefois, il ne suffit pas d’externaliser. Il faut aussi se prémunir contre les interruptions de services, c’est-à-dire faire en sorte que l’architecture informatique (le matériel, les données, les applications et logiciels) soit disponible et accessible 24h / 24 et 7jrs / 7. C’est là qu’intervient la notion d’hébergement haute disponibilité. De quoi s’agit-il et comment fonctionne ce type d’hébergement ? Tous les détails dans cet article.

Qu’est-ce que la haute disponibilité ?

L’hébergement haute disponibilité est un modèle d’hébergement configuré de sorte à garantir à l’architecture informatique d’une entreprise, un taux de disponibilité qui permet un accès aux services, 24h / 24 et 7jrs / 7.

Ce type d’hébergement protège l’entreprise contre les préjudices dus à d’éventuelles discontinuités dans les services informatiques ou à des difficultés d’accès aux infrastructures informatiques.

Imaginez, par exemple, qu’une entreprise qui, voulant rapidement mettre une nouvelle application sur le marché pour avoir l’avantage sur la concurrence, choisit de développer l’application dans un conteneur Docker et qu’au moment du déploiement en production, les serveurs ne répondent plus.

Ainsi, l’hébergement haute disponibilité s’adresse surtout aux entreprises opérant dans les secteurs de l’informatique, du génie logiciel, de l’industrie, etc. En effet, une interruption des services informatiques dans ces secteurs peut coûter excessivement cher.

Ces dysfonctionnements surviennent dans des cas tels que :

  • Des pannes ordinaires de serveur;
  • Des attaques virales ;
  • Des intrusionsprovenant des réseaux extérieurs ;
  • Des incendies ;
  • Des accidents ;
  • Des catastrophes naturelles ;
  •  

C’est d’ailleurs pour cela qu’en plus des mesures destinées à empêcher les dysfonctionnements internes, de puissants Firewall (pares-feux) sont installés pour garantir la haute disponibilité de l’infrastructure. Leur rôle consiste à filtrer les données des réseaux afin de détecter et d’empêcher les intrusions provenant de sources extérieures.

Pour la même cause, les réseaux sont souvent protégés grâce à des VPN très étanches qui empêchent les surveillances en créant des tunnels sécurisés dans lesquels les connexions entre ordinateurs et serveurs s’établissent.

Comment fonctionne un hébergement haute disponibilité ?

Plus haut, nous avions cité quelques logiciels permettant de protéger les infrastructures contre les attaques, les intrusions et les surveillances. Il convient de noter que ce n’était pas une liste exhaustive.

Cela dit, rappelons que les services d’hébergement haute disponibilité se servent d’un large bassin de serveurs et de bases de données installés dans plusieurs data centers et qui fonctionnent selon le principe de la redondance matérielle.

Ce principe repose sur trois processus fondamentaux que sont :

  • Le Load Balancing;
  • La réplication / sauvegarde de données ;
  • Le FailOver.

Le Load Balancing ou la répartition de charges

Il consiste à répartir les requêtes ou les flux entrants sur plusieurs serveurs. Cela empêche que des serveurs soient sur-sollicités pendant qu’un ou plusieurs autres sont moins surchargés.

En période de pic de flux par exemple, cet équilibrage des charges assure la haute disponibilité de l’architecture, puisque le risque qu’un serveur lâche ou ralentisse sous le poids de la sollicitation est pratiquement nul.

La réplication et la sauvegarde de données

Pour veiller à la sécurité des données, déploiement et sauvegarde doivent être conjugués ensemble. Concrètement, il s’agit de créer une copie des données et des applications sur plusieurs serveurs à la fois.

Ainsi, l’entreprise peut toujours récupérer ses données après une grosse panne sur un serveur.

Le FailOver

Grâce au FailOver, dès qu’un serveur tombe en panne, les requêtes sont automatiquement redirigées vers un autre serveur, le temps que l’administrateur corrige le problème.

Ici, la haute disponibilité est assurée grâce à la synchronisation des données et des applications entre serveurs. Aucune panne matérielle ou logicielle ne peut donc entraîner une interruption dans le service. Et c’est cela l’objectif visé !