Comment remédier à une mauvaise latence d’Azure

Découvrez comment réduire votre latence et obtenir de meilleures performances réseau grâce au célèbre fournisseur de services cloud.


Les entreprises ne tirent pas toujours le meilleur parti de leurs réseaux cloud. Il arrive que les besoins dépassent la capacité et que les réseaux souffrent de problèmes de latence. Puisque vous êtes sur ce blog, vous savez probablement déjà à quel point une mauvaise latence peut être problématique pour une entreprise, et comment son manque d’efficacité se traduit rapidement par une perte de revenus. Selon un récent rapport de Gartner, les temps d’arrêt coûtent aux entreprises, en moyenne, 5 600 USD par minute – et la latence non fiable en est un facteur clé. Ainsi, lorsque les besoins du réseau dépassent sa capacité, comment pouvez-vous suivre le rythme et éviter les problèmes de latence ?

La bonne nouvelle est que pour les 70 % d’entreprises qui s’appuient sur Microsoft Azure pour leur mise en réseau dans le cloud, il existe des moyens faciles de réduire la latence qui n’augmenteront pas les coûts et, dans la plupart des cas, vous permettront d’optimiser les actifs existants. Découvrez comment réduire votre latence et obtenir de meilleures performances réseau.


Méthode 1 : Mise en réseau accélérée


La mise en réseau accélérée, également appelée Single-Root Input-Output Virtualization (SR-IOV), est la méthode la plus courante pour réduire la latence. La mise en réseau accélérée consiste à trouver le chemin le plus court entre A et B sur le réseau.

Le problème est que de nombreuses configurations cloud dépendent trop fortement d’un hôte pour l’administration. Mais avec la mise en réseau accélérée, le trafic circule directement depuis l’interface réseau de la machine virtuelle (MV), sans passer par l’hôte et le commutateur virtuel. On obtient une réduction de la latence, de la gigue et de l’utilisation du processeur pour les charges de travail les plus exigeantes. 

La mise en réseau accélérée est importante car elle élimine la complexité inutile du réseau (traitée sur notre blog auparavant). Sans mise en réseau accélérée, le trafic entrant et sortant de la machine virtuelle doit passer par l’hôte et le commutateur virtuel. La mise en réseau accélérée réduit le nombre de sauts pour que le trafic atteigne sa destination. 

Si cela est bien fait, le commutateur virtuel fournit l’application de la politique qui était auparavant assurée par l’hôte, comme le contrôle d’accès et la sécurité du réseau. 

Un exemple parfait de cas d’utilisation est la reprise après sinistre, le cauchemar des professionnels des réseaux et une opération coûteuse pour les entreprises. C’est dans cette situation qu’une méthode comme la mise en réseau accélérée montre tout son intérêt pour rétablir le fonctionnement du réseau lorsque l’hôte central n’est plus une option, et que les commutateurs virtuels doivent assumer son rôle. 

Microsoft dispose d’une documentation exhaustive sur ce cas d’utilisation, que toute personne s’intéressant sérieusement à la latence, mais aussi à la santé et au bien-être de son réseau cloud global, devrait lire. Pour tous ceux qui souhaitent profiter d’une exploration technique approfondie, les explications de Microsoft sur la mise en réseau accélérée sont essentielles.


Azure vous facture des frais d’entrée de données élevés ? Sur notre blog, découvrez quatre façons de les réduire.


Méthode 2 : Mise à l’échelle côté réception (RSS)


La mise en réseau accélérée n’est bien entendu pas pour tout le monde. Pour les entreprises dont la MV ne correspond pas aux scénarios compatibles pour permettre la mise en réseau accélérée, la mise à l’échelle côté réception (RSS) est la meilleure solution pour gérer les performances globales du réseau, y compris la latence. Avec la RSS, un objectif clé est de trouver le chemin le plus court entre A et B. La différence, cependant, est qu’au lieu de contourner l’hôte, la RSS trouvera la distribution la plus efficace du traitement du réseau sur plusieurs processeurs.

La RSS joue le rôle « d’agent de circulation » pour votre réseau : certains trafics sont laissés de côté tandis que d’autres sont moins prioritaires. Sans la RSS, le réseau tente de traiter le trafic par un seul chemin réseau, et la latence est la conséquence logique de tout ce qui essaie de se produire en même temps. 

Azure offre un moyen simple d’implémenter la RSS. Les administrateurs configurent simplement la carte d’interface réseau (NIC) et le pilote de miniport pour recevoir les appels de procédure différés (DPC) sur d’autres processeurs. Également pratique : la RSS garantit que le traitement associé à une connexion particulière reste sur un processeur assigné. Les utilisateurs du réseau définissent la configuration une seule fois, puis passent à d’autres tâches pendant que la NIC s’occupe du reste. 

La RSS est idéale pour réduire les délais de traitement en acheminant le traitement de réception de la NIC vers plusieurs processeurs. L’objectif ici n’est pas simplement de réduire la latence. Il s’agit aussi de construire une meilleure intelligence du réseau afin qu’un processeur ne soit pas submergé de demandes tandis que les autres restent inactifs. 

Cette méthode de réduction de la latence est une bonne nouvelle pour les entreprises qui gèrent des réseaux à fort volume, comme les courtiers, les fournisseurs du secteur du e-commerce et les entreprises qui ont besoin d’une capacité de réseau élevée à tout moment. Comme pour la mise en réseau accélérée, Microsoft propose une documentation utile pour permettre aux entreprises de déployer la RSS rapidement et efficacement.


Comparer les offres de connectivité privée de Microsoft Azure, AWS et Google Cloud grâce à notre guide.


Méthode 3 : Groupes de placement de proximité


Les groupes de placement de proximité sont la méthode de réduction de la latence la plus évidente, elle s’appuie essentiellement sur la colocation. Mais dans ce cas, la colocation ne consiste pas seulement à héberger des ressources réseau dans le même centre d’hébergement. Il s’agit plutôt d’une application plus large du terme, qui consiste à réduire la distance entre les ressources informatiques Azure afin de réduire la latence globale du réseau.

Les groupes de placement de proximité peuvent réduire la latence entre les machines virtuelles sur site, les machines virtuelles situées à plusieurs endroits (c’est-à-dire les ensembles de disponibilité) ou plusieurs groupes de mise en réseau (ensembles d’échelle). Bien entendu, plus les actifs sont éloignés les uns des autres, plus le risque de latence et d’autres problèmes est élevé. L’objectif avec les groupes de placement de proximité est de réfléchir à la façon d’acheminer les tâches du réseau en utilisant les actifs avec la distance physique minimum. 

Pour une efficacité optimale, Microsoft recommande de coupler les groupes de placement de proximité avec la mise en réseau accélérée. L’idée ici est de s’assurer que lorsque vous demandez la première machine virtuelle dans le groupe de placement de proximité, le centre de données est automatiquement sélectionné.


La seule mise en garde que nous formulons est que, dans le cas de charges de travail élastiques, plus vous imposez de contraintes au groupe de placement, plus le risque d’erreurs d’allocation est élevé et plus la probabilité de latence est forte. Même si la mise en réseau accélérée gère le trafic, nous conseillons fortement aux administrateurs de réseau de rester vigilants. Par exemple, la capacité n’est pas conservée lorsque vous arrêtez (désallouez) une MV. 

Les groupes de placement de proximité sont les plus judicieux pour les entreprises qui cherchent à maximiser la fonction réseau dans leur région d’origine, ainsi qu’à s’assurer qu’elles ne dépensent pas trop en capacité sur un nouveau marché. 

La documentation de Microsoft sur Azure propose des bonnes pratiques supplémentaires sur les groupes de placement de proximité, en particulier pour les réseauteurs suffisamment concernés par la latence et le réseau intelligent pour augmenter leurs capacités avec la mise en réseau accélérée.


Obtenez une connectivité Azure plus rapide avec le réseau en tant que service


Lorsqu’il s’agit d’accélérer votre réseau, les méthodes Azure que nous avons évoquées peuvent faire une différence considérable. Le meilleur point de départ est toutefois d’examiner votre réseau d’entreprise dans son ensemble. 

L’utilisation de l’Internet public laisse votre réseau à la merci des fluctuations de trafic qui peuvent avoir un impact sévère sur la vitesse et les performances – ce qui peut finalement nuire à votre entreprise. Les fournisseurs de télécommunication traditionnels peuvent constituer une alternative problématique, car ils obligent les clients à s’engager dans des contrats avec lesquels la bande passante ne peut pas être augmentée pour répondre aux pics de demande. Résultat : des performances réseau lentes et peu fiables, et la nécessité pour votre service informatique d’atténuer constamment les effets des perturbations.

En utilisant le réseau en tant que service (NaaS) comme méthode de connectivité Azure, vous pouvez contourner l’Internet public et passer à un réseau privé. De plus, lorsque vous fournissez une connectivité NaaS avec Megaport, vous bénéficiez des avantages suivants :

  • Meilleures performances – pour éviter les goulots d’étranglement et les temps d’arrêt causés par les fluctuations du trafic Internet. Avec votre propre connexion à AWS sur le backbone privé de Megaport, votre connectivité sera rapide et constante.
  • Bande passante modulable – pour fournir des connexions et augmenter la bande passante (dans certains cas, jusqu’à 100 Go) à la demande via le portail Megaport. Cela permet d’offrir les performances dont vous avez besoin en période de pointe, puis de diminuer la bande passante lorsqu’elle n’est plus nécessaire, pour commencer à économiser instantanément.
  • Redondance continue – avec plus de 700 rampes d’accès dans le monde, vous êtes protégé contre les temps d’arrêt grâce à l’objectif de 100 % de disponibilité de service de Megaport.
  • Megaport Cloud Router (MCR) – Le service de routage virtuel de Megaport fournit une connectivité privée à la demande au niveau de la couche 3, pour un routage cloud vers cloud hautes performances sans hairpinning vers et depuis vos environnements sur site.
  • Megaport Virtual Edge (MVE) – Pour bénéficier des avantages d’un réseau à faible latence directement à la périphérie, utilisez MVE, le service de virtualisation des fonctions réseau (NFV) de Megaport. Vous obtiendrez une connectivité directe et privée de la succursale au cloud, réduisant ainsi la latence et la gigue sur vos applications critiques.



Utilisez-en un, ou utilisez-les tous ; avec Azure, vous pouvez tirer parti de n’importe quelle combinaison de ces outils pour réduire la latence de votre réseau. Lorsqu’il est soutenu par un NaaS comme celui de Megaport, vous bénéficiez d’un réseau plus rapide de bout en bout pour une entreprise plus productive et plus rentable.

Kyle Moreta
Solutions Architect

Archivé sous : Blog Cloud Mise en réseau

forrester report

Forrester : les 5 attributs clés à prendre en compte lors de l’évaluation de la connectivité cloud
Obtenir le guide

Obtenir les informations les plus récentes sur le cloud.