Pour savoir où on va, il faut savoir d'où l'on vient

Vous avez
une question ?
Un projet ?

Contactez nous !
 

Contactez-nous

Vous avez une question ? un projet ? 
Vous souhaitez plus d'informations sur un produit ? sur notre offre ? 
Contactez-nous, on vous répond sous 4H.

eZHumanCAPTCHACode reload
retour

Load-balancing sur des services internes

Load-balancing sur des services internes

Nous avons beaucoup parlé du load-balancing sur l’étage frontal HTTP, mais le même principe peut s’appliquer en interne d’une plateforme web.

Les interfaces de type REST, que nous avons décrites plus haut, sont particulièrement adaptées à ce type de répartition, puisqu’elles sont sans état et construites sur du HTTP, et donc peuvent bénéficier exactement des mêmes mécanismes.

Imaginons ainsi une plateforme web qui utilise un service web interne, par exemple pour la recherche. On a donc mis en place un service REST de recherche, auquel on passe une série de mots-clés, et qui répond par une liste d’objets. Dans un premier temps ce service interne a pu être implémenté sur un unique serveur. Mais l’audience grimpe, et voilà que la recherche devient le maillon critique de la plateforme.

Rien n’est plus facile alors que de répartir le service de recherche REST sur différents serveurs ; on obtiendra alors à la fois une capacité accrue, et une bonne tolérance aux pannes.

Ce que l’on peut représenter ainsi :

image072

Bien sûr, c’est une vision fonctionnelle, du point de vue réseau, les trois domaines fonctionnels peuvent partager le même équipement de load-balancing.