Pour savoir où on va, il faut savoir d'où l'on vient

Vous avez
une question ?
Un projet ?

Contactez nous !
 

Contactez-nous

Vous avez une question ? un projet ? 
Vous souhaitez plus d'informations sur un produit ? sur notre offre ? 
Contactez-nous, on vous répond sous 4H.

eZHumanCAPTCHACode reload
retour

Principe de répartition de charge

Principe de répartition de charge

Chaque serveur, chaque composant, ayant unitairement une capacité de traitement limitée, il est évidemment nécessaire de mettre en œuvre plusieurs serveurs pour dépasser cette limite, et cela implique d’être capable de répartir le travail entre ces serveurs.

C’est l’objet de la répartition de charge. La répartition de charge s’entend le plus souvent au niveau des serveurs HTTP, c’est à dire en frontal sur une plateforme web. Mais le même principe peut s’appliquer sur n’importe quel service. C’est à dire que l’on peut répartir la charge entre plusieurs bases de données, entre plusieurs serveurs de fichiers, entre plusieurs serveurs offrant un même service.

Ces invocations de services s’appuient sur différents protocoles, tous intervenant au dessus de TCP/IP. C’est pourquoi on s’intéressera tout particulièrement à la répartition de charge au niveau TCP/IP.

Mais il y a fondamentalement trois niveaux de répartition de charge pertinents dans le monde du web :

  • Le niveau DNS
  • Le niveau HTTP, « applicatif »
  • Le niveau TCP/IP.

Au delà de ces « niveaux », sur lesquels nous reviendrons, on peut analyser la question selon différents axes :

  • Quelle est la finalité de cette répartition, l’objectif visé ?
  • Que répartit-on ? Des requêtes, des sessions, des internautes ?
  • Selon quelle logique s’effectue cette répartition ?
  • Et enfin, quels sont les techniques et outils de cette répartition ?