Système de tournoi à la ronde

La méthode round robin donne à tous les éléments d’un groupe limité un accès à une ressource de manière uniforme et dans un ordre spécifique. Cela se fait généralement de haut en bas. Une fois la fin atteinte, le processus recommence. En termes simples, le processus se déroule « alternativement, l'un après l'autre ». Les serveurs du pool NTP étant répartis dans le monde entier, le système offre un haut niveau de redondance et de fiabilité, ce qui en fait une ressource de chronométrage global sur Internet.

Mais que se passe-t-il si le serveur ciblé n’est pas disponible ou renvoie des heures absurdes ?

La méthode round robin donne à tous les éléments d’un groupe limité un accès à une ressource de manière uniforme et dans un ordre spécifique. Cela se fait généralement de haut en bas. Une fois la fin atteinte, le processus recommence. En termes simples, le processus se déroule « alternativement, l'un après l'autre ». Les serveurs du pool NTP étant répartis dans le monde entier, le système offre un haut niveau de redondance et de fiabilité, ce qui en fait une ressource de chronométrage global sur Internet.

Round Robin Load Balancing

L'équilibrage de charge à tour de rôle est une méthode simple de distribution des demandes des clients à un groupe de serveurs. Une demande client est transmise tour à tour à chaque serveur. L'algorithme demande à l'équilibreur de charge de revenir en haut de la liste et répète le processus.

Une représentation schématique de la méthode round-robin dans un système de réseau

Round Robin est l'algorithme d'équilibrage de charge le plus couramment utilisé et il est facile à mettre en œuvre et à concevoir. Avec cette méthode, les demandes des clients sont transmises de manière cyclique aux serveurs disponibles. L'équilibrage de charge à tour de rôle fonctionne mieux lorsque les serveurs ont à peu près la même puissance de calcul et la même capacité de stockage.

Comment fonctionne l’équilibrage de charge Round Robin ?

Avec l'équilibrage de charge réseau à tour de rôle, les demandes de connexion sont distribuées aux serveurs Web dans l'ordre dans lequel les demandes sont reçues. À titre d'exemple simplifié, supposons qu'une entreprise dispose d'un cluster de trois serveurs : le serveur A, le serveur B et le serveur C.

  • La première requête est envoyée au serveur A
  • Le secoLa ème requête est envoyée au serveur B
  • La troisième requête est envoyée au serveur C

L'équilibreur de charge transmet les requêtes aux serveurs dans cet ordre. Cela garantit que la charge du serveur est répartie uniformément pour faire face au trafic de données élevé.

Partager cette publication