Accueil > Technologies numériques > Virtualisation, cloud, DevOps > L’edge computing, plus rapide et moins cher que le cloud

L’edge computing, plus rapide et moins cher que le cloud

Publié le 16 décembre 2022
Partagez cette page :
Illustration Edge Computing

L’edge computing ou informatique en périphérie modifie progressivement et profondément la manière de gérer les données. Le principe ? Traiter les données au plus près de l’utilisateur final ou des objets connectés qui les génèrent, sans avoir à les transférer vers le cloud. Résultat : un système plus rapide, moins cher et plus fiable. On vous explique tout.

Traditionnellement, les données sont stockées et traitées aux deux extrémités du réseau :

  • soit au plus proche de l’utilisateur, sur nos ordinateurs, smartphones ou sur les serveurs locaux de l’entreprise,
  • soit très loin de l’utilisateur, sur des serveurs distants au sein de gigantesques data centers, dans le cloud.

L’edge computing définit une troisième voie.

Définition de l’edge computing

Comme son nom l’indique, l’edge computing consiste à traiter les données de manière distribuée, en périphérie (edge) de réseau, et non plus de manière centralisée, dans le cloud. Il utilise des mini data centers pour stocker et traiter les données au plus proche des objets connectés, des utilisateurs finaux et des entreprises. Résultat : une meilleure qualité de service en améliorant le temps de latence, les débits, la consommation énergétique et l’efficience environnementale. Une fois traitées, certaines des données pourront être envoyées vers le cloud pour d’autres types de traitements non urgents.

L’edge computing n’a donc rien de nouveau en soi. L’informatique distribuée existe depuis longtemps, mais son adoption et ses applications sont en forte croissance grâce à l’essor des objets connectés qui mettent à mal la bande passante des réseaux reliés au cloud.

Idéal pour traiter des données en temps réel

Le cloud fait face à des défis difficiles à surmonter : traiter de plus en plus de données et les traiter de plus en plus vite. Pour certaines applications (industrie, production énergétique, médecine, gestion du trafic routier…), le délai de traitement et le temps de réaction sont critiques. Les données doivent être traitées en quasi-temps réel.

Dans l’industrie

L’entreprise Red Hat qui propose des solutions d’infrastructure fournit un bon exemple : dans une usine de fabrication moderne, quelque 2000 capteurs de l’Internet des objets (IoT) surveillent la production. Ces capteurs connectés génèrent environ 2200 téraoctets de données par mois. Une masse de données qu’il est plus rapide de traiter à quelques kilomètres de l’usine que dans un datacenter situé sur un autre continent.

Dans la logistique et en mobilité

Autre exemple : les véhicules connectés. Bus, trains, tramways ou camions sont équipés de puces GPS et de capteurs pour suivre le trafic en temps réel et analyser le flux de passager. L’ordinateur de bord informe des conditions de circulation en temps réel (accidents, travaux, routes barrées… ). Les livreurs trouvent ainsi des trajets les plus rapides en fonction de leur plan de livraison. Difficile d’imaginer attendre 30 minutes que le trajet soit mis à jour et qu’on se retrouve coincé dans les bouchons parce que les données ont mis trop de temps à être envoyées et traitées.

Le nombre et les usages des objets connectés et de l’Internet des objets (IoT) explosent : 13 milliards dans le monde en 2022, près de 30 milliards en 2030, selon Statista. Rien qu’en France, l’Ademe et l’Arcep estiment leur nombre à 244 millions.  Ce sont nos téléphones, nos ordinateurs portables, mais également des robots, des caméras et des capteurs, ceux de l’industrie ou des smart cities. Le développpement de la 5G accélère encore ce phénomène.

Et pour traiter toutes ces données, la solution de l’edge computing s’impose. Les usages du edge computing affichent une croissance de 17 % par an, selon le cabinet d’études Research & Markets.

D’ici à 2025, Gartner estime que plus de 50 % des données gérées par les entreprises seront traitées en dehors du cloud.

Les avantages de l’edge computing

Une réduction de la latence des communications

Traiter l’information au plus près de sa source réduit considérablement le temps nécessaire pour transférer les données et réagir en conséquence. Ainsi, en cas de défaillance sur une chaîne de production, cela permettra à des capteurs de l’IIoT (Internet industriel des objets) transmettront les données et leur analyse au plus vite.

Des performances plus élevées

En transmettant moins de données dans le cloud, les données seront traitées plus vite avec un débit plus élevé. L’entreprise pourra également mettre en cache des données dans un CDN  (content delivery network) intégré au réseau périphérique. Cela permettra de diffuser des contenus, notamment vidéo, plus rapidement.

Des coûts d’infrastructure réduits

En réduisant la bande passante et les ressources d’un data center, l’informatique périphérique fait réaliser de substantielles économies.  

Une plus grande évolutivité

L’informatique distribuée de l’edge computing permet de moduler les ressources nécessaires au traitement et au stockage des données.

Efficience environnementale

En économisant des ressources informatiques et en réduisant le volume des données échangées, l’edge computing émet moins de CO2  et aura moins d’impact environnemental.

L’edge computing, remplaçant du cloud ?

L’informatique de périphérie a aussi ses inconvénients. Le premier est de devoir recourir à des prestataires qui offriront ce service edge. En fonction de l’emplacement de l’entreprise, le choix n’est pas aussi large que pour des prestataires cloud.

L’autre inconvénient concerne la cybersécurité. Plus le traitement des informations s’opère vers la périphérie, plus l’architecture se complexifie. Les équipements et prestataires ont plus de chance d’être hétérogènes. Le matériel et les processus peuvent être différents, avec plusieurs fournisseurs… ce qui augmente la vulnérabilité de l’architecture.

L’edge computing ne remplace donc pas le cloud. Il en est complémentaire en se chargeant des données à forts enjeux de vitesse de traitement. Les autres types de données, moins critiques ou plus massives, pourront continuer d’être traités dans le cloud. Ce dernier n’est donc pas près de disparaître.

Partagez cette page :

Notre expert

La rédaction d'ORSYS

Composée de journalistes spécialisés en IT, management et développement personnel, la rédaction d’ORSYS Le mag […]

formations associées

Cloud computing, synthèse

Cloud et fog networking

Microsoft Azure, mise en œuvre

domaine associé

Virtualisation, cloud, DevOps