Résumé

Les problèmes de performance des applications et de connectivité au cloud sont des défis courants auxquels sont confrontés les DSI et les services informatiques.
Ce document examine les différentes solutions proposées et explique pourquoi une solution WAN Cloud-First entièrement gérée, fournie en tant que service, est la réponse parfaite à vos problèmes de performance applicative.

Les DSI sont confrontés à un défi de taille : La connectivité au nuage

La technologie bouleverse tous les secteurs de l’économie.
Alors que les innovateurs récoltent les fruits de la transformation numérique, les retardataires, y compris les organisations qui dominaient autrefois leurs marchés respectifs, disparaissent du Dow Jones.
Un élément essentiel de la transformation numérique est l’agilité que permet l’informatique dématérialisée.
Les applications telles que le courrier électronique, les systèmes de gestion de la relation client, la vidéo et la voix, qui étaient autrefois hébergées dans des centres de données internes, ont migré ou sont en train de migrer vers le nuage.
Cette évolution a un impact considérable sur l’architecture du réseau étendu de l’entreprise.
Les anciennes infrastructures WAN basées sur des architectures fondées sur la technologie MPLS ne sont tout simplement pas en mesure de fournir la vitesse et l’agilité nécessaires à un coût raisonnable.
Le défi pour les DSI et autres responsables informatiques est de trouver une solution qui soit fiable, sécurisée et agile tout en étant rentable.
Sans une telle solution, la productivité des employés et la rentabilité de l’entreprise en pâtissent, et le réseau étendu devient un obstacle à l’efficacité des efforts de transformation numérique.

On ne peut pas réparer ce qui n’est pas mesuré

Le choix de la bonne solution de connectivité n’est qu’une partie du défi.
Une fois la solution opérationnelle, les défis se déplacent vers la configuration et la surveillance centralisées.
La surveillance des liaisons WAN n’est certainement pas une nouveauté pour les services informatiques.
Les ingénieurs se sont appuyés sur des protocoles et des outils tels que ping, traceroute et le protocole SMTP (Simple Network Monitoring Protocol) pour surveiller divers aspects du réseau étendu de leur entreprise, notamment la gigue, la latence, la perte de paquets et le débit.
Cependant, avec l’avènement des applications SaaS basées sur le cloud, il ne suffit plus de surveiller les performances du réseau étendu au niveau de la liaison globale.
Les administrateurs doivent connaître les données spécifiques aux applications qui circulent sur leur réseau et être en mesure de détecter et de corriger toute dégradation des performances des applications des utilisateurs finaux.
Par nécessité, les organisations ayant des filiales internationales signent souvent avec plusieurs fournisseurs de services WAN pour construire leur réseau d’entreprise.
Même avant l’ère du cloud, la surveillance de ce mélange de réseaux provenant de différents fournisseurs de services représentait un énorme défi.
Aujourd’hui, avec les applications en nuage, la surveillance de ces réseaux est une tâche herculéenne.

Mpls n’est pas à l’ordre du jour

Avec l’adoption croissante du SaaS et de l’IaaS, certaines applications comme Office 365, Teams, Zoom et les solutions CRM comme Salesforce ou Dynamics 365 ont quitté les centres de données internes pour passer dans le nuage, tandis que d’autres, notamment les applications de sauvegarde et les applications d’entreprise héritées, sont restées dans le centre de données.
Les entreprises qui ont continué à utiliser la connectivité MPLS ont donc été confrontées à de nouveaux défis et à des problèmes de performance avec les applications basées sur le cloud.

Figure 2 Applications SAAS – Effet trombone

Dans cette architecture, les liaisons MPLS privées sont restées le pilier du réseau étendu de l’entreprise.
Le trafic des succursales destiné aux applications en nuage était transféré sur l’ensemble du réseau MPLS, de même que le trafic destiné au centre de données interne et à l’internet.
Le trafic lié à l’application s’échappait du centre de données central vers le fournisseur SaaS / IaaS.
L’effet « trombone » était courant dans ce type d’architecture.
Le long chemin à travers le réseau entraînait une latence et un retard élevés, ce qui nuisait aux performances de l’application.
Ainsi, du point de vue de la performance des applications, MPLS n’était pas envisageable.

Carrier SD-WAN : des problèmes à foison

Avant l’ère du cloud, les opérateurs étaient les principaux fournisseurs de services de connectivité WAN aux entreprises.
Le SD-WAN s’étant imposé comme une technologie de choix pour la connectivité cloud, nombre de ces mêmes opérateurs se sont engouffrés dans la brèche du SD-WAN.
Les réseaux SD-WAN des opérateurs sont construits à partir d’équipements provenant de plusieurs fournisseurs, chaque fournisseur proposant sa propre solution de configuration et de surveillance, ce qui rend très difficile l’obtention d’une vue unifiée du réseau.
La situation est encore compliquée par le fait que les opérateurs ont tendance à opérer à l’intérieur de leurs frontières nationales, ce qui nécessite des accords inter-opérateurs complexes pour la connectivité internationale.

  • L’absence de configuration et de surveillance unifiées rend difficile la fourniture de services agiles et à la demande.
  • Les accords inter-transporteurs sur les liaisons internationales les rendent coûteux et complexes
  • De nombreux opérateurs n’offrent aucun choix à leurs clients pour la connectivité du premier ou du dernier kilomètre, ce qui les oblige souvent à conclure plusieurs contrats coûteux et ajoute à la complexité de la gestion pour les clients.
  • Il est difficile de garantir la qualité de service avec autant de types d’équipements différents et de fournisseurs de services multiples.

SD-WAN Edge Overlay : Une approche fragmentaire

Le chemin le plus simple vers le SD-WAN est de le déployer en tant que solution de superposition en périphérie.
Dans cette configuration, la solution superposée offre certains avantages par rapport au réseau MPLS traditionnel, car elle exploite la connectivité internet locale dans les succursales.
Le CPE SD-WAN fournit les fonctionnalités nécessaires pour acheminer et distribuer le trafic entre le réseau MPLS, l’internet et toute autre connectivité disponible.
En fonction de la qualité du réseau, le trafic des applications peut être acheminé via le réseau MPLS ou l’internet public ; ni l’un ni l’autre n’est une solution parfaite pour la performance des applications à l’ère du nuage.

Inconvénients du SD-WAN superposé

  • Lorsqu’il est acheminé sur l’internet, le trafic des applications est soumis aux problèmes de perte et de latence liés à l’internet.
  • L’optimisation du réseau étendu est une fonction supplémentaire à MPLS, ce qui rend la solution globale coûteuse.
  • Repose sur le réseau L3 sous-jacent pour la convergence de la qualité de service et ne peut donc pas offrir les accords de niveau de service solides d’un réseau L2.

SD-WAN DIY : faisable mais complexe

Les grandes entreprises ont traditionnellement adopté l’approche « construisez vous-même » pour une grande partie de leur infrastructure informatique.
Mais avec l’adoption de SaaS, PaaS, IaaS et UCaaS, ce paradigme est en train de changer.
Les DSI commencent à comprendre les avantages des modèles « as-a-Service ».
Construire toute l’infrastructure SD-WAN en interne, alors que le reste de l’infrastructure informatique est en train de migrer vers le cloud, va à l’encontre de l’éthique globale « as-a-Service ».
Voici quelques-uns des défis auxquels est confrontée l’approche SD-WAN bricolée :

  • La nécessité de recruter constamment de nouveaux talents et de former les talents existants aux nouvelles technologies est coûteuse et prend du temps.
  • Le SD-WAN est une technologie complexe ; il ne s’agit pas d’une solution prête à l’emploi.
  • Facturation et contrats complexes – Plusieurs fournisseurs de services impliqués pour la connectivité internationale
  • La qualité de service est difficile à assurer en raison de la multiplicité des acteurs et des contrats.
  • Solutions autonomes de sécurité et d’optimisation du réseau étendu.

Accélération des applications cloud grâce au SD-WAN entièrement géré d’Aryaka

La performance des applications SaaS ne se résume pas à l’ajout d’un équipement SD-WAN dans le réseau existant.
Pour garantir de bonnes performances applicatives, il faut adopter une approche globale qui tienne compte des aspects fondamentaux de la technologie, tels que la capacité, la disponibilité et la sécurité.
Une disponibilité supérieure est obtenue lorsque les accords de niveau de service, la redondance intégrée et d’autres options de redondance sont combinés de manière unique.
La sécurité, un élément essentiel, doit faire partie intégrante du processus de conceptualisation de la solution, qui inclut les intégrations de tiers.
Enfin, la solution doit offrir une capacité optimale en ce qui concerne directement l’agilité et la mise à l’échelle.
Bien qu’importants, ces aspects fondamentaux ne sont pas suffisants.
Sur cette base, une solution efficace doit prendre en compte la qualité de service, la topologie, le routage des applications, l’accélération et l’optimisation des applications.
Par exemple, dans le cas de MPLS, la qualité de service n’est appliquée qu’après avoir subi une perte de paquets, et avec de nombreuses connexions TCP d’utilisateurs qui se battent les unes contre les autres, ce qui provoque des pertes inutiles. Le choix de la topologie a également un impact important sur les performances de l’application.
L’utilisateur doit être connecté à l’application SaaS dans une architecture maillée complète, quel que soit son lieu de résidence.
L’autre solution consiste à faire des demi-tours et à passer par des hubs et des centres de données pour atteindre la destination, ce qui augmente encore la latence et l’imprévisibilité des paquets.
Un autre élément important à prendre en compte est le modèle de déploiement, à savoir le bricolage ou un service géré.
Avec une technologie qui évolue si rapidement, est-il plus rentable de recruter, de former et d’actualiser constamment les compétences des employés, ou est-il plus facile de laisser la complexité aux acteurs spécialisés et de consommer la connectivité comme un service ?
Le processus doit être simple et permettre à la technologie d’évoluer au rythme de l’entreprise.

Aryaka Core : Minimiser la latence et accélérer les applications

Le réseau WAN Cloud-First d’Aryaka, fourni en tant que service, permet d’accélérer les applications SaaS grâce à un réseau privé de couche 2 défini par logiciel.
Grâce à la distribution stratégique de plus de 30 points de service, notre réseau privé est à moins de 1 à 8 millisecondes des applications SaaS, c’est-à-dire des centres de données d’Office 365 dans le monde entier. La pile d’optimisation propriétaire et brevetée d’Aryaka est intégrée dans notre réseau mondial privé entièrement maillé, libérant ainsi les entreprises des problèmes de maintenance et de gestion des appareils, tout en fournissant des performances optimisées aux instances hébergées dans le nuage.
Aryaka maximise ainsi les performances d’O365 et d’autres applications SaaS en adaptant la solution à chaque client, en sélectionnant les géos qui minimisent la distance moyenne avec les utilisateurs pour minimiser la latence.

Point d’accès au réseau Aryaka (ANAP)

Aryaka renforce encore son approche holistique avec son point d’accès au réseau SD-Edge Aryaka (ANAP).
L’ANAP est un dispositif géré et provisionné dans le nuage qui offre des avantages significatifs tels que l’échelonnement de la bande passante et l’amélioration de l’optimisation du dernier kilomètre lorsqu’il est déployé sur le site d’un client.

Optimisation du réseau étendu pour accélérer les performances des applications

L’optimisation du WAN est un autre domaine critique pour assurer la performance des applications.
L’optimisation WAN d’Aryaka repose sur deux innovations brevetées, l’optimisation multi-segments et la déduplication des données, ainsi que sur d’autres techniques standard telles que la compression, la gestion de la bande passante (QoS, priorisation) et l’accélération SSL.
Un diagramme de réseau simplifié montre des centres de données, des sièges sociaux, des XaaS et des succursales tous connectés au réseau de points de vente de services d’Aryaka.
Le chemin vers l’application hébergée dans le nuage comprend la connectivité du premier, du milieu et du dernier kilomètre.

Optimisation multi-segments

Aryaka utilise son optimisation multi-segments brevetée pour obtenir une performance optimale des applications.
Dans cette approche, chaque segment, le premier kilomètre, le kilomètre intermédiaire et le dernier kilomètre, dispose de proxies indépendants.
Cela permet d’optimiser le flux de données en réduisant le temps nécessaire au transfert du premier octet, en utilisant des charges utiles plus importantes par paquet et en permettant de récupérer jusqu’à 5 % de perte de paquets.
Dans un environnement MPLS classique, la perte de paquets s’étend sur l’ensemble du trajet aller-retour entre l’utilisateur final et le serveur.
Mais grâce aux algorithmes brevetés et aux techniques d’optimisation d’Aryaka, la perte de paquets est localisée sur un segment individuel, généralement le premier et le dernier kilomètre, car le kilomètre intermédiaire est un réseau fédérateur privé de couche 2 et est entièrement redondant.

Déduplication des données

La déduplication des données est un autre domaine d’innovation.
Il s’agit d’une technique d’optimisation du réseau étendu qui élimine le transfert de données redondantes sur le réseau local ou étendu en envoyant des références ou des sommes de contrôle au lieu des données proprement dites.
Aryaka a mis au point un moteur breveté de déduplication des données appelé « Advanced Redundancy Removal » qui s’étend sur les protocoles et les applications, offrant ainsi des avantages à l’ensemble de l’organisation au niveau de la couche réseau.

Compression

La compression est une technique importante utilisée dans l’optimisation de la bande passante des réseaux étendus (WAN), car elle permet de réduire la taille des fichiers de données transmis sur le réseau.
La compression de dictionnaire est l’un des types de compression les plus couramment utilisés, l’algorithme Lempel-Ziv en étant un exemple.
Il est structuré sur la base d’un dictionnaire, codé dynamiquement et remplaçant activement un flux continu de caractères par des codes.
De nombreux autres programmes de compression populaires, notamment ZIP, GZIP, Stac (LZS) et l’utilitaire UNIX compress, utilisent des variantes de l’algorithme Lempel-Ziv.
La compression apporte une valeur ajoutée en répondant aux problèmes de débit.
Associée à des techniques de gestion du trafic, la compression peut contribuer à la gestion des temps de latence sur les réseaux étendus.
Elle est souvent utilisée en conjonction avec la mise en correspondance de motifs au niveau de l’octet (mise en cache de l’octet) ou la déduplication.
En général, ce sont les liaisons à faible bande passante avec perte de paquets et temps de latence qui bénéficient le plus de cette fonction.

Qualité de service (QoS)

La solution d’Aryaka comprend un support de qualité de service intégré qui fournit aux clients un tableau de bord de portail pour prioriser leurs applications sur le réseau et pour surveiller la performance du réseau et les flux de trafic.
En utilisant le portail MyAryaka, les clients peuvent marquer chaque type de trafic ou d’application sur le réseau pour indiquer son niveau de priorité de performance.
Les classifications sont les suivantes : transactionnel, temps réel, productivité, critique et meilleur effort.
Par exemple, les transactions de base de données peuvent être classées comme transactionnelles, tandis que la voix sur IP et la vidéo en continu peuvent être classées comme temps réel, les transferts de fichiers comme meilleur effort et le courrier électronique comme productivité.

Connectivité IaaS et SaaS : Connectivité flexible des applications

Connectivité d’Aryaka à l’IAAS

Les termes « Infrastructure-as-a-Service » et « Software-as-a-Service » sont parfois utilisés de manière interchangeable.
Cet usage synonyme provient peut-être d’applications comme Office 365 qui sont des applications SaaS mais qui sont hébergées sur Azure IaaS de Microsoft.
Cependant, il est important de comprendre que l’IaaS et le SaaS sont distincts du point de vue de la connectivité. Dans l’esprit de flexibilité et d’agilité qui est si synonyme d’offres cloud, Aryaka propose deux façons différentes de se connecter aux fournisseurs IaaS.
La première est une connexion directe qui adhère à Direct Connect d’AWS, Dedicated Interconnect de Google et Express Connect d’Alibaba Cloud, ExpressRoute de Microsoft ou FastConnect d’Oracle, et la seconde est un tunnel IPSec à partir du routeur PoP le plus proche.

Connectivité d’Aryaka au SAAS

La connectivité aux applications SaaS comme Office 365, Salesforce, WebEx ou Fuze est un défi.
Les solutions de connectivité traditionnelles pour accéder aux applications SaaS dépendent de l’internet public, qui est peu fiable ou lent dans certains endroits. Un « bureau virtuel public » (VO) est la solution d’Aryaka pour fournir une connectivité et améliorer la performance des applications de bureau basées sur le nuage qui sont accessibles via l’internet.
Un VO est un routeur virtuel Aryaka doté d’une capacité de pare-feu étatique de niveau 4 et utilise une adresse IP publique.
Il fournit également un conteneur d’optimisation et une architecture TCP multi-segments pour réduire le RTT.
Notez que Fuze exploite à la fois les capacités du bureau virtuel (VO) d’Aryaka et le peering direct de couche 2, l’une des premières applications SaaS à le permettre.

Portail Cloud Myaryaka : Gestion et visibilité instantanées et complètes des applications de bout en bout

MyAryaka est inclus dans chaque service et solution Aryaka.
Il s’agit d’un puissant portail de gestion et d’analyse basé sur le web qui fournit une vision contextuelle et en temps réel de votre réseau et de vos applications.
Avec MyAryaka, vous pouvez effectuer des configurations complètes en temps réel sur l’accès à la périphérie ainsi que sur le cœur du réseau privé.

Sélection optimale du chemin d’accès

La fonction de sélection de chemin sélectionne la liaison optimale pour le trafic critique des clients.
La sélection de chemin surveille activement la perte de paquets et la latence sur chaque chemin et sélectionne la liaison la plus performante.
Cela permet de s’assurer que le trafic n’est pas envoyé par un chemin qui subit une perte de paquets importante ou une latence élevée.

Présence mondiale

Le réseau privé mondial d’Aryaka offre aux utilisateurs professionnels du monde entier un accès rapide et fiable au cloud et au SaaS depuis n’importe quel endroit du monde.
Nos PoP de services mondiaux sont situés sur les six continents habitables et ont été stratégiquement localisés pour permettre à tous les utilisateurs finaux d’accéder aux applications SaaS et aux centres de données comme s’ils résidaient sur leur propre bureau.
Dans beaucoup de ces endroits, nos PoP sont à proximité des principaux fournisseurs IaaS que sont AWS, Azure, Alibaba Cloud, Google Cloud et Oracle.

Accélérer une variété d’applications

L’approche innovante d’Aryaka en matière de connectivité au nuage accélère une variété d’applications SaaS.

Résumé

Un certain nombre de solutions, allant de MPLS à SD-WAN bricolé en passant par SD-WAN opérateur, sont disponibles pour la connectivité aux applications en nuage.
Si le SD-WAN bricolé et le SD-WAN d’opérateur présentent certains avantages par rapport au MPLS, ils ne sont pas à la hauteur sur certains points essentiels.
Le tableau ci-dessous compare les différentes options. Le réseau WAN Cloud-First entièrement géré d’Aryaka combine un réseau privé mondial défini par logiciel, l’optimisation des applications, la connectivité multi-cloud, la sécurité et la visibilité en un seul service unifié.
L’empreinte mondiale ExpressRoute d’Aryaka sur Azure et l’accélération et l’optimisation d’Office 365 / Teams augmentent la productivité et la rentabilité.
En outre, les connexions directes aux fournisseurs IaaS à l’aide de Direct Connect d’AWS, ExpressRoute de Microsoft, FastConnect d’Oracle, Dedicated Interconnect de Google ou Express Connect d’Alibaba Cloud garantissent une performance optimale des applications hébergées sur des environnements IaaS.

À propos d’Aryaka

Aryaka, la société Cloud-First WAN et SASE, et un leader Gartner « Voice of the Customer », permet aux entreprises de consommer facilement des solutions de réseau et de sécurité réseau livrées en tant que service pour une variété de déploiements modernes.
Aryaka combine de manière unique une technologie SD-WAN et de sécurité innovante avec un réseau mondial et une approche de services gérés pour offrir la meilleure expérience client et applicative du secteur. La société compte parmi ses clients des centaines d’entreprises internationales, dont plusieurs figurent dans le classement Fortune 100.