En tant qu’architecte principal chez Aryaka, je rencontre les équipes informatiques de clients potentiels pour des discussions approfondies sur la manière d’améliorer la performance de leurs applications globales et d’offrir une expérience utilisateur transparente à leurs employés dans le monde entier.
Il s’agit d’un défi important aujourd’hui, alors que même les applications d’entreprise critiques sont généralement hébergées dans des centres de données en nuage éloignés et sont accessibles par une main-d’œuvre répartie dans le monde entier, ce qui se traduit par des latences plus élevées sur le réseau.
Au cours de ces discussions, j’ai souvent remarqué que les équipes informatiques ont tendance à établir un lien direct entre les profils de latence d’un réseau et les performances des applications fournies par le réseau.
Et pourquoi pas ?
Il y a encore quelques années, les acheteurs informatiques n’avaient pas d’autre choix que d’investir dans la technologie MPLS pour répondre aux besoins de performance de leurs applications, et la meilleure façon d’évaluer une liaison MPLS est d’examiner son profil de latence.
Mais le fait est que, dans le paysage actuel des technologies de connectivité, les performances ne se limitent pas aux chiffres de latence. Faible latence ≠ Meilleure expérience pour l’utilisateur final
Faible latence S’il est vrai que le temps de latence reste un indicateur important des performances du réseau, le temps de latence seul en tant que mesure des performances d’une application peut souvent être trompeur.
Aujourd’hui, il est possible qu’une liaison réseau avec un temps de latence de 100 millisecondes, par exemple, offre une meilleure expérience à l’utilisateur final qu’une liaison réseau avec un temps de latence de 80 millisecondes. Pizza au pepperoni sans fromage et sans pepperoni ? Supposons que vous commandiez une pizza.
Si vous choisissez une faible latence, la pizza arrivera chez vous en quelques minutes.
Toutefois, cela ne garantit pas la qualité de la pizza.
Que se passe-t-il si la pizza arrive rapidement à votre porte, mais qu’il manque des morceaux, comme le fromage et le pepperoni ?
Le fait qu’elle soit arrivée chez vous en un rien de temps est-il important ? Faible latence mais perte de paquets et gigue élevées ? Il en va de même lorsque l’on compare la qualité de l’acheminement des données sur un réseau et ses profils de latence.
Si un réseau a un temps de latence très faible, mais qu’il subit des pertes de paquets et une gigue importantes en cours de route, l’utilisateur final ne vivra pas une expérience agréable et transparente.
En plus d’un profil de latence faible, un réseau doit maintenir l’intégrité des données afin d’améliorer réellement les performances des applications. L’illusion d’une expérience utilisateur améliorée
Expérience utilisateur améliorée Un autre facteur à noter ici est le moment où les effets de la latence sont réellement ressentis par l’utilisateur.
La latence dans un réseau ne commence à avoir des effets substantiels sur l’expérience de l’utilisateur que lorsqu’elle dépasse un certain seuil, généralement autour de 60 millisecondes.
En dessous de ce seuil, toute latence perçue n’est pas immédiatement perceptible, ce qui est l’une des raisons pour lesquelles l’utilisation de la latence comme mesure de la performance totale du réseau peut souvent conduire à des conclusions inexactes.
Ce concept est similaire à celui de la persistance de la vision: les spectateurs de films bénéficient d’une expérience visuelle fluide lorsque la fréquence d’images est comprise entre 16 et 24 images/seconde, et une fréquence d’images plus élevée n’a que peu d’incidence sur l’expérience.
Pourtant, de nombreuses équipes informatiques avec lesquelles je discute sont enclines à choisir un réseau avec une latence plus faible, même si elles ne peuvent pas percevoir pleinement les différences dans de petites mesures de temps, comme la différence entre une latence de 10 ms et une latence de 30 ms. Quelle est la pièce manquante ?
Optimisation
Optimisation. Lorsque des liens à faible latence sont combinés à l’optimisation du WAN, le trafic est modelé pour améliorer le débit, ce qui se traduit par des performances d’application plus cohérentes et plus fiables.
Il s’agit d’un domaine sur lequel Aryaka s’est concentrée depuis le début.
Lorsque nous avons conçu un réseau privé mondial en regroupant la capacité de bande passante des fournisseurs de services de niveau 1, nous avons également mis en place une optimisation du réseau étendu dans le cadre de notre plateforme de réseau définie par logiciel.
La superposition d’optimisation WAN permet d’optimiser les données sur notre plateforme de réseau :

  • Les techniques de compression, qui minimisent les effets de la latence en réduisant la quantité de données sur le réseau.
  • La déduplication au niveau de l’octet, qui élimine la nécessité de renvoyer les octets dupliqués sur l’ensemble du réseau, réduisant ainsi la congestion sur le réseau.
  • Les proxys d’accélération des applications, qui agissent sur des types spécifiques d’applications pour améliorer leurs performances en réduisant les « bavardages », en activant la déduplication, etc.
  • L’optimisation TCP utilise des techniques telles que la mise à l’échelle des fenêtres, l’acquittement sélectif, la terminaison TCP, et bien d’autres encore, qui permettent aux applications TCP d’être plus rapides.

La technologie d’optimisation présente également l’avantage de soulager les budgets informatiques en conservant et en utilisant plus efficacement la bande passante coûteuse du réseau. L’image complète : Liens à faible latence + optimisation WANOptimisation du réseau étendu Dans cette optique, il est essentiel que les acheteurs de services informatiques prennent des décisions plus éclairées lorsqu’ils évaluent les différentes solutions de connectivité et ne basent pas leurs choix sur un ensemble restreint de paramètres de performance qui ne révèlent pas la situation dans son ensemble .
S’ils ne le font pas, ils risquent non seulement de compromettre la performance de leurs applications et la productivité de leurs employés, mais aussi de dépenser plus que nécessaire en coûts de réseau !
Des centaines de clients d’Aryaka, qui ont reconnu la technologie d’optimisation comme un facteur déterminant de la performance du réseau et de la réduction des coûts, ont constaté des améliorations considérables de la performance des applications grâce à notre plateforme de réseau défini par logiciel, tout en économisant jusqu’à 56 % sur les coûts globaux du réseau.
Mais vous n’êtes pas obligé de nous croire sur parole.
Vous pouvez le vérifier par vous-même en participant à un essai gratuit avec nous !
Sinon, vous risquez d’être contraint de manger une pizza sans fromage et sans garniture. Il y a matière à réflexion (jeu de mots).