Comprendre le concept du modèle ML/IA – Sur le RAN – Partie 3

L’IA dans les différentes architectures RAN (D-RAN/C-RAN/O-RAN)

Nous allons dans cet article présenter plus spécifiquement le rôle de l’IA dans trois architectures RAN principales: le RAN traditionnel, le Cloud RAN et l’Open RAN.

L’intégration et l’impact de l’IA dans ces différentes architectures réseau présentent des potentiels variables pour améliorer les performances, l’évolutivité et l’adaptabilité des réseaux. Chaque architecture offre des opportunités et des contraintes distinctes pour l’utilisation de l’IA.

L’IA dans le RAN traditionnel

Caractéristiques et avantages

  • Les architectures RAN traditionnelles sont dites de conception monolithique. L’environnement est  stable et optimisé pour l’IA
  • Cette architecture répond efficacement aux exigences strictes de latence

Limitations

  • La structure rigide rend difficile l’adaptation rapide aux nouvelles innovations en IA
  • Les contraintes liées aux systèmes propriétaires d’un seul fournisseur peuvent limiter l’intégration et la mise à jour des modèles d’IA
  • L’adaptabilité aux technologies émergentes est restreinte.

L’intégration ciblée du RAN traditionnel permet d’apporter des améliorations réseau, mais le manque de flexibilité conduit à des limitations.

L’IA dans le Cloud RAN

Architecture

  • Le Cloud RAN (C-RAN) désagrège le matériel et le logiciel
  • Il déploie les fonctions réseau sous forme de fonctions réseau virtualisées (VNF) dans un environnement COTS (Commercial Off-The-Shelf)
  • Cette configuration permet un traitement centralisé et une gestion flexible des ressources
  • Cette architecture est particulièrement adaptée à l’intégration de l’IA

Capacités d’IA

  • Inférence en temps réel et quasi-temps réel: L’architecture centralisée permet une inférence IA efficace, supportant l’optimisation et la gestion du réseau basées sur l’analyse de données extensives
  • Adaptation dynamique: La virtualisation des modèles d’IA et leur allocation dans des schémas centralisés ou distribués selon la couche ou le cas d’utilisation améliorent le comportement dynamique du réseau
  • Capture de modèles localisés: Les unités distribuées permettent de capturer des modèles et comportements plus localisés dans le réseau

Cette flexibilité du Cloud RAN offre de nombreuses possibilités d’optimisation et d’amélioration des performances en réponse aux données et prédictions en temps réel, améliorant l’allocation des ressources et l’expérience utilisateur.

L’IA dans l’Open RAN

Architecture

  • L’Open RAN (O-RAN) présente également une désagrégation matériel-logiciel comme le Cloud RAN
  • Il se distingue par ses interfaces ouvertes et ses composants standardisés permettant une plus grande interopérabilité
  • Le Contrôleur Intelligent RAN (RIC) sert de plateforme centralisée pour la gestion et l’optimisation des performances réseau via l’IA
  • Il supporte des applications en temps réel et non-temps réel, améliorant l’adaptabilité du réseau

Organisation et contrôle dans l’O-RAN

  • Le RIC non-RT fait partie du framework SMO (Session Management and Orchestration) et supporte les rAPPs contenant des algorithmes IA/ML
  • Le RIC near-RT réside dans le cloud télécoms régional ou de périphérie et active l’optimisation réseau via les xAPPs
  • La release « Cherry » de l’alliance O-RAN (janvier 2021) standardise les frameworks IA/ML dans l’écosystème O-RAN
  • L’architecture SMO découplée supporte une entité de gestion de flux de travail IA/ML pour assister les fonctions RIC

Capacités d’IA

  • Interopérabilité accrue: La conception modulaire et ouverte facilite les capacités d’IA natives
  • Déploiement d’IA évolutif: L’architecture flexible permet d’appliquer l’IA à des fonctionnalités individuelles, des systèmes ou l’ensemble du réseau

Illustration de l’interaction de l’IA dans les architectures RAN

  • Dans le RAN intégré: Application de l’IA directement aux fonctions critiques comme la formation de faisceaux, l’ordonnancement, et la gestion du spectre
  • Dans le Cloud et Open RAN: Utilisation de l’IA à travers des couches multiples avec différents types de boucles de contrôle (temps réel, proche temps réel, et non-temps réel)

Conclusion

  • Le RAN traditionnel offre stabilité et performances optimisées mais avec une flexibilité limitée
  • Le Cloud RAN permet une centralisation et une flexibilité accrues, idéales pour l’inférence IA en temps réel sur de grandes quantités de données
  • L’Open RAN, avec ses interfaces ouvertes et son architecture modulaire, facilite particulièrement l’interopérabilité et le déploiement évolutif de solutions basées sur l’IA

La tendance générale montre une évolution vers des architectures qui supportent une intégration plus profonde et plus native de l’IA, permettant des réseaux plus intelligents, adaptatifs et efficaces.

Comprendre le concept du modèle ML/IA – Sur le RAN – Partie 2 —

AI appliquée à la couche liaison de données (Link Layer L2) et réseau (Network Layer L3): Une analyse approfondie

Introduction

Ces couches jouent un rôle crucial dans le fonctionnement des réseaux cellulaires modernes. La couche de liaison de données (L2) gère l’allocation des ressources, la fiabilité du transfert de données entre deux dispositifs sur un lien physique, comprenant des fonctions comme la détection d’erreurs, la correction d’erreurs et le contrôle du trafic. La couche réseau (L3) est responsable du routage des paquets à travers le réseau et de la gestion de la mobilité, faisant d’elle un élément essentiel pour maintenir une connectivité transparente lorsque les utilisateurs se déplacent.

Cette analyse approfondie explorera comment l’IA transforme ces couches, en examinant les défis existants, les solutions proposées, et l’impact potentiel sur les performances globales du réseau et l’expérience utilisateur.

Distinction entre l’IA à la couche physique et aux couches supérieures

Différence de portée

L’IA à la couche physique (L1) opère dans un cadre plus localisé, se concentrant sur l’amélioration de l’efficacité de la transmission et de la réception des signaux au niveau du dispositif et de la cellule. Son champ d’action est relativement restreint, bien que fondamental pour la performance du réseau.

En revanche, l’IA dans les couches L2 et L3 opère dans un cadre plus large, influençant les politiques et stratégies à l’échelle du réseau qui affectent de multiples dispositifs, cellules, et potentiellement l’ensemble du réseau. Cette différence de portée est essentielle pour comprendre l’impact potentiel de l’IA à ces niveaux.

Différence d’impact

L’impact de l’IA à la couche physique est souvent immédiat, améliorant en temps réel la qualité de la communication. Les algorithmes d’IA à ce niveau contribuent directement à optimiser des paramètres comme la modulation, le codage, ou la formation de faisceaux, avec des effets quasi instantanés sur la qualité du signal.

Par contre, l’IA dans les couches L2 et L3 a un impact plus stratégique et à plus long terme. Elle façonne la manière dont le réseau répond aux conditions changeantes, gère les ressources sur la durée, et assure la performance et la fiabilité du réseau à long terme. Ces décisions peuvent avoir des effets durables sur la santé du réseau et la qualité de service fournie aux utilisateurs.

L’IA dans la couche de liaison de données (L2)

La couche de liaison de données (L2) est responsable de la gestion des ressources, de la fiabilité du transfert de données entre deux dispositifs sur un lien physique, et englobe des fonctions comme la détection d’erreurs, la correction d’erreurs et le contrôle du trafic. L’intégration de l’IA à ce niveau transforme fondamentalement ces processus.

Allocation dynamique des ressources

L’un des apports majeurs de l’IA à la couche L2 concerne l’allocation dynamique des ressources:

Prédiction des modèles de trafic

Les algorithmes d’IA peuvent analyser les historiques de trafic et le comportement des utilisateurs pour prévoir les futures demandes en bande passante. Cette capacité prédictive permet au réseau d’anticiper les congestions potentielles et d’allouer proactivement les ressources nécessaires.

Par exemple, un modèle d’IA peut apprendre que certaines zones géographiques connaissent des pics de trafic à des moments spécifiques de la journée ou lors d’événements particuliers. En utilisant ces informations, le réseau peut réserver la bande passante appropriée et ajuster les paramètres d’ordonnancement avant même que la demande n’augmente.

Ordonnancement intelligent

L’IA permet un ordonnancement (scheduling) plus sophistiqué des ressources entre différents dispositifs en fonction de multiples facteurs contextuels:

  • Les conditions du canal pour chaque dispositif
  • La priorité et la sensibilité à la latence de chaque type de trafic
  • Les accords de niveau de service (SLA) pour différents clients
  • L’état de la batterie des dispositifs mobiles
  • Les modèles d’utilisation historiques

Cet ordonnancement intelligent garantit que les ressources limitées sont allouées de manière à optimiser l’expérience utilisateur globale tout en respectant diverses contraintes opérationnelles.

Gestion proactive de la congestion

Les techniques d’IA peuvent identifier les signes avant-coureurs de congestion réseau et prendre des mesures préventives pour l’éviter:

  • Redirection du trafic vers des chemins alternatifs
  • Modification temporaire des priorités de certains flux de données
  • Ajustement adaptatif des algorithmes de contrôle de flux
  • Allocation préemptive de ressources supplémentaires dans les zones à risque

Cette approche proactive de la gestion de la congestion permet d’éviter les dégradations de service qui surviendraient avec des méthodes réactives traditionnelles.

Prédiction et correction d’erreurs

Un autre domaine où l’IA apporte une valeur significative à la couche L2 est la prédiction et la correction d’erreurs:

Anticipation des erreurs de transmission

Les modèles d’IA peuvent anticiper les erreurs potentielles dans la transmission de données en analysant:

  • Les modèles de bruit et d’interférence dans différents environnements
  • Les caractéristiques de propagation du signal à différentes fréquences
  • L’historique des performances de transmission dans des conditions similaires
  • Les défaillances récurrentes ou systémiques dans certaines parties du réseau

Cette capacité d’anticipation permet au système de prendre des mesures préventives avant que les erreurs ne se produisent, réduisant ainsi le besoin de retransmissions.

Mécanismes de correction préemptifs

Au lieu de simplement réagir aux erreurs détectées, l’IA permet la mise en œuvre de mécanismes de correction préemptifs:

  • Ajustement dynamique des schémas de codage correcteurs d’erreurs
  • Adaptation du niveau de redondance en fonction des conditions prévues du canal
  • Mise en œuvre de techniques de diversité spécifiques au contexte
  • Priorisation stratégique des paquets ayant une plus forte probabilité de transmission réussie

Ces approches proactives réduisent considérablement le taux d’erreur global et améliorent l’efficacité des ressources réseau en minimisant les retransmissions.

Gestion adaptative de la qualité de service (QoS)

La gestion de la qualité de service à la couche L2 bénéficie considérablement de l’intégration de l’IA:

Prédiction des conditions réseau

L’IA permet de prévoir l’évolution des conditions du réseau à court et moyen terme, ce qui est crucial pour maintenir la QoS:

  • Prédiction des fluctuations de charge sur différentes cellules
  • Anticipation des interférences basée sur l’utilisation historique du spectre
  • Prévision des effets des conditions météorologiques sur les performances du réseau
  • Modélisation de l’impact des grands événements sur la demande de ressources

Ces prédictions permettent une gestion proactive des ressources pour maintenir la QoS même dans des conditions changeantes.

Priorisation contextuelle du trafic

L’IA permet une priorisation plus nuancée et contextuelle du trafic par rapport aux approches basées sur des règles statiques:

  • Les applications à faible latence (comme le gaming en ligne ou la réalité virtuelle) peuvent recevoir une priorité plus élevée lorsque les utilisateurs sont activement engagés.
  • Les applications critiques (comme la télémédecine ou les communications d’urgence) peuvent être identifiées et priorisées dynamiquement.
  • Les flux de données susceptibles de contribuer significativement à l’expérience utilisateur peuvent être favorisés en fonction du contexte d’utilisation.

Cette priorisation intelligente garantit que les ressources limitées sont allouées de manière à maximiser la valeur perçue par les utilisateurs.

Équilibrage dynamique des exigences contradictoires

L’IA excelle dans l’équilibrage de multiples objectifs contradictoires, ce qui est particulièrement utile pour la gestion de la QoS:

  • Équilibrer la latence et le débit pour différents types d’applications
  • Concilier l’équité entre les utilisateurs et l’optimisation des performances globales
  • Trouver le compromis optimal entre l’efficacité énergétique et la performance
  • Pondérer les besoins des applications en temps réel par rapport au trafic en arrière-plan

Cet équilibrage dynamique permet d’offrir la meilleure expérience possible à tous les utilisateurs malgré des ressources limitées et des demandes variées.

L’IA dans la couche réseau (L3)

La couche réseau (L3) est responsable du routage des paquets à travers le réseau et de la gestion de la mobilité, faisant d’elle un élément essentiel pour maintenir une connectivité transparente lorsque les utilisateurs se déplacent entre différentes cellules du réseau.

Gestion intelligente de la mobilité

L’un des apports majeurs de l’IA à la couche L3 concerne la gestion de la mobilité:

Prédiction des modèles de mobilité

Les algorithmes d’IA peuvent analyser les historiques de déplacement des utilisateurs et prédire leurs mouvements futurs avec une précision remarquable:

  • Identification des trajets réguliers (domicile-travail, par exemple)
  • Reconnaissance des modèles de déplacement spécifiques à certaines heures ou jours
  • Prédiction des zones de congestion en fonction des événements programmés
  • Anticipation des changements de vitesse de déplacement basée sur les infrastructures de transport

Ces prédictions permettent au réseau d’anticiper les besoins de handover plutôt que d’y réagir.

Optimisation proactive des handovers

Sur la base des prédictions de mobilité, l’IA peut optimiser le processus de handover de plusieurs façons:

  • Préparation anticipée des ressources dans les cellules cibles probables
  • Détermination du moment optimal pour initier le handover, minimisant les risques de déconnexion
  • Sélection intelligente de la cellule cible optimale parmi plusieurs candidates
  • Adaptation des paramètres de handover en fonction du profil de mobilité spécifique de chaque utilisateur

Cette approche proactive réduit considérablement les risques de déconnexions, les handovers inutiles, et les effets « ping-pong » où un utilisateur est transféré de manière répétée entre deux cellules.

Réduction des interruptions de service

L’IA contribue significativement à réduire les interruptions de service lors des transitions entre cellules:

  • Coordination des handovers avec les moments de faible activité dans les sessions de l’utilisateur
  • Mise en place préemptive de tunnels de données entre cellules source et cible
  • Ajustement dynamique des priorités de trafic pendant les phases critiques du handover
  • Optimisation des paramètres de reconnexion en fonction du type de service utilisé

Ces optimisations garantissent une expérience plus fluide aux utilisateurs, particulièrement pour les applications sensibles à la latence comme les appels vidéo ou les jeux en ligne.

Équilibrage de charge entre cellules

Un autre domaine clé où l’IA transforme la couche L3 est l’équilibrage de charge entre cellules:

Analyse en temps réel de la charge réseau

L’IA permet une analyse sophistiquée et en temps réel de la charge sur différentes cellules:

  • Évaluation multidimensionnelle de la charge (nombre d’utilisateurs, demande de bande passante, profils de trafic)
  • Détection des déséquilibres émergents avant qu’ils n’affectent la performance
  • Identification des cellules sous-utilisées pouvant absorber du trafic supplémentaire
  • Prévision de l’évolution de la charge à court terme pour guider les décisions d’équilibrage

Cette analyse en temps réel fournit une base solide pour des décisions d’équilibrage de charge optimales.

Distribution intelligente du trafic

Sur la base de cette analyse, l’IA peut orchestrer une distribution plus intelligente du trafic:

  • Ajustement dynamique des paramètres de sélection de cellule pour influencer les décisions de connexion des nouveaux utilisateurs
  • Modification contrôlée des seuils de handover pour encourager la migration d’utilisateurs vers des cellules moins chargées
  • Adaptation des puissances d’émission pour modifier les zones de couverture effective des cellules
  • Priorisation stratégique de certains utilisateurs pour le transfert vers d’autres cellules

Cette distribution intelligente permet de maximiser l’utilisation des ressources disponibles tout en maintenant une bonne qualité de service pour tous les utilisateurs.

Prévention proactive des congestions

L’IA excelle également dans la prévention proactive des congestions au niveau cellulaire:

  • Identification précoce des tendances de trafic susceptibles de conduire à une congestion
  • Déclenchement préemptif de mécanismes d’équilibrage avant l’apparition de problèmes de performance
  • Coordination des équilibrages de charge avec d’autres optimisations réseau pour éviter les effets secondaires indésirables
  • Ajustement progressif des paramètres pour éviter les changements brusques qui pourraient perturber les utilisateurs

Cette approche proactive permet d’éviter les dégradations de service qui surviendraient avec des méthodes réactives traditionnelles.

Économie d’énergie réseau

L’IA contribue de manière significative à l’optimisation de la consommation énergétique au niveau de la couche réseau:

Prédiction des périodes de faible trafic

Les algorithmes d’IA peuvent analyser les modèles historiques de trafic pour prédire avec précision les périodes de faible utilisation:

  • Identification des cycles quotidiens, hebdomadaires et saisonniers dans l’utilisation du réseau
  • Reconnaissance des modèles spécifiques liés aux événements locaux, jours fériés, ou conditions exceptionnelles
  • Prévision des fluctuations à court terme dans la demande de trafic
  • Détection des zones géographiques connaissant des périodes d’inactivité prolongées

Ces prédictions permettent une planification optimale des économies d’énergie sans compromettre la qualité du service.

Désactivation dynamique des ressources sous-utilisées

Sur la base de ces prédictions, l’IA peut orchestrer la désactivation intelligente des ressources réseau:

  • Mise en veille sélective de certaines cellules pendant les heures creuses
  • Réduction contrôlée de la bande passante disponible lorsque la demande est faible
  • Désactivation temporaire de certaines bandes de fréquence ou composants RF
  • Coordination des cycles de veille entre cellules voisines pour maintenir une couverture minimale

Cette désactivation dynamique permet de réaliser des économies d’énergie substantielles tout en maintenant la disponibilité du réseau.

Réactivation préemptive basée sur les prévisions

L’aspect le plus innovant de cette approche est la capacité à réactiver les ressources de manière préemptive:

  • Anticipation des augmentations de trafic avant qu’elles ne se produisent
  • Réactivation progressive des ressources pour éviter les pics de consommation
  • Priorisation de la réactivation des cellules en fonction des prévisions de demande spécifiques à chaque zone
  • Coordination de la réactivation avec d’autres optimisations réseau pour une transition fluide

Cette réactivation préemptive garantit que les utilisateurs ne subissent aucune dégradation de service malgré les économies d’énergie réalisées.

Le rôle du 3GPP dans la standardisation de l’IA/ML pour L2 et L3

Développements des Releases 17 et 18

Les efforts initiaux d’intégration de l’IA/ML dans le 3GPP ont commencé avec la Release 17, qui s’est concentrée sur l’amélioration des fonctions SON (Self-Organizing Networks) telles que:

  • L’économie d’énergie du réseau, permettant une réduction significative de la consommation énergétique des stations de base sans compromettre l’expérience utilisateur
  • L’équilibrage de charge, visant à distribuer efficacement le trafic entre les cellules pour éviter la congestion et optimiser l’utilisation des ressources
  • L’optimisation de la mobilité, améliorant la gestion des handovers pour réduire les interruptions de service lors des déplacements des utilisateurs

Ces efforts se sont poursuivis et amplifiés dans la Release 18, avec un accent particulier sur:

  • L’affinement des méthodes d’entraînement des modèles d’IA
  • L’amélioration des techniques de déploiement dans le réseau
  • L’élaboration de standards pour assurer l’interopérabilité des solutions basées sur l’IA entre différents fournisseurs
  • La définition de métriques communes pour évaluer les performances des systèmes basés sur l’IA

Cas d’utilisation pratiques

Le 3GPP a identifié plusieurs cas d’utilisation pratiques pour l’IA/ML dans les couches L2 et L3, notamment:

  1. Économie d’énergie du réseau: L’IA/ML est utilisée pour prédire les périodes de faible trafic et optimiser l’activation/désactivation des composants du réseau, permettant des économies d’énergie substantielles tout en maintenant la qualité de service.
  2. Équilibrage de charge: Les algorithmes d’IA analysent les modèles de trafic, l’utilisation des ressources et les conditions du réseau pour répartir intelligemment les utilisateurs entre les cellules, évitant ainsi les congestions localisées.
  3. Optimisation de la mobilité: L’IA/ML améliore la gestion des handovers en prédisant les mouvements des utilisateurs et en adaptant dynamiquement les paramètres de handover en fonction des conditions spécifiques, réduisant ainsi les interruptions de service lors des déplacements.

Ces cas d’utilisation démontrent la valeur pratique de l’IA/ML dans les couches L2 et L3 et fournissent un cadre pour le développement de solutions standardisées.

Synergies entre l’IA dans les différentes couches du réseau

Coordination entre les couches physique et liaison de données

L’IA appliquée à la couche physique (L1) et à la couche de liaison de données (L2) peut fonctionner de manière coordonnée pour maximiser les performances du réseau:

  1. Adaptation conjointe: Les algorithmes d’IA à la couche L1 peuvent optimiser les paramètres de transmission (modulation, codage, formation de faisceaux) en fonction des décisions d’allocation de ressources prises au niveau L2, et vice versa.
  2. Partage d’informations contextuelles: Les insights générés par l’IA à une couche peuvent enrichir les modèles utilisés à l’autre couche, permettant des décisions plus informées et cohérentes.
  3. Optimisation multi-objectifs: Les objectifs d’optimisation peuvent être coordonnés entre les couches pour éviter les optimisations locales qui pourraient être globalement sous-optimales.
  4. Adaptation aux conditions dynamiques: L’IA peut faciliter l’adaptation rapide des deux couches aux conditions changeantes du réseau, maintenant des performances optimales dans des environnements complexes et dynamiques.

Intégration avec la gestion de réseau de bout en bout

L’IA dans les couches L2 et L3 s’intègre également avec les systèmes de gestion de réseau de bout en bout:

  1. Alignement avec les objectifs commerciaux: Les optimisations au niveau L2/L3 peuvent être guidées par des objectifs commerciaux et des KPIs définis au niveau de la gestion du réseau.
  2. Orchestration globale: Les capacités d’IA au niveau L2/L3 peuvent être orchestrées dans le cadre d’une stratégie d’optimisation plus large qui englobe tous les aspects du réseau.
  3. Feedback bidirectionnel: Les informations circulent dans les deux sens, avec les systèmes de gestion de réseau fournissant du contexte aux modèles d’IA L2/L3, et ces derniers remontant des insights détaillés pour informer les décisions stratégiques.
  4. Évolution coordonnée: Les capacités d’IA à tous les niveaux peuvent évoluer de manière coordonnée, assurant que les améliorations sont cohérentes et complémentaires.

Interaction avec les couches applicatives

L’IA dans les couches L2 et L3 interagit également avec les couches applicatives supérieures:

  1. Optimisations spécifiques aux applications: Les modèles d’IA peuvent adapter les paramètres L2/L3 en fonction des besoins spécifiques des applications en cours d’exécution.
  2. Feedback de qualité d’expérience: Les informations sur la qualité d’expérience perçue au niveau applicatif peuvent être utilisées pour guider les optimisations L2/L3.
  3. Prédiction des besoins applicatifs: L’IA peut anticiper les besoins des applications avant même qu’ils ne soient explicitement communiqués, permettant une allocation proactive des ressources.
  4. Adaptation conjointe: Dans certains cas, les applications et les couches réseau peuvent s’adapter mutuellement de manière coordonnée pour optimiser l’expérience utilisateur globale.

Impact sur les performances du réseau et l’expérience utilisateur

L’intégration de l’IA dans les couches L2 et L3 a un impact significatif sur les performances globales du réseau et l’expérience utilisateur.

Amélioration de l’efficacité des ressources

L’IA permet une utilisation nettement plus efficace des ressources réseau limitées:

  1. Allocation optimisée: Les ressources sont allouées avec une précision inégalée, en tenant compte de multiples facteurs contextuels pour maximiser l’utilité globale.
  2. Réduction du gaspillage: L’IA minimise le gaspillage de ressources en adaptant finement l’allocation aux besoins réels plutôt qu’à des estimations grossières.
  3. Anticipation des besoins: La capacité à prédire les besoins futurs permet une planification plus efficace de l’utilisation des ressources sur différentes échelles de temps.
  4. Équilibrage dynamique: Les ressources peuvent être réallouées dynamiquement en fonction de l’évolution des conditions du réseau et des priorités.

Ces améliorations d’efficacité se traduisent par une capacité accrue du réseau à servir plus d’utilisateurs avec une meilleure qualité de service, sans nécessiter d’investissements proportionnels dans l’infrastructure.

Réduction de la latence et des interruptions

L’IA dans les couches L2 et L3 contribue significativement à réduire la latence et les interruptions:

  1. Handovers optimisés: La prédiction des mouvements des utilisateurs permet des handovers plus fluides et moins susceptibles de causer des interruptions.
  2. Prévention des congestions: L’anticipation et la prévention proactive des congestions réseau réduisent les pics de latence qui affectent négativement l’expérience utilisateur.
  3. Routage intelligent: L’IA peut identifier les chemins optimaux à travers le réseau pour minimiser la latence pour les applications sensibles au temps.
  4. Allocation prioritaire: Les ressources peuvent être allouées prioritairement aux flux de données sensibles à la latence, garantissant une performance constante même en cas de charge réseau élevée.

Ces réductions de latence et d’interruptions sont particulièrement critiques pour les applications émergentes comme la réalité augmentée/virtuelle, les véhicules autonomes, et la télémédecine, qui dépendent d’une connectivité fiable et à faible latence.

Adaptation aux besoins diversifiés des utilisateurs

L’un des avantages majeurs de l’IA dans les couches L2 et L3 est sa capacité à adapter le comportement du réseau aux besoins diversifiés des utilisateurs:

  1. Personnalisation implicite: Le réseau peut s’adapter aux modèles d’utilisation spécifiques de chaque utilisateur sans configuration explicite.
  2. Différenciation contextuelle: Les ressources peuvent être allouées différemment en fonction du contexte d’utilisation (professionnel vs. loisir, critique vs. non-critique, etc.).
  3. Support des cas d’usage émergents: L’IA facilite l’adaptation du réseau à de nouveaux cas d’usage aux exigences inédites, sans nécessiter une refonte complète des systèmes.
  4. Équilibre entre équité et optimisation: L’IA peut trouver des équilibres sophistiqués entre l’équité dans l’allocation des ressources et l’optimisation des performances globales.

Cette adaptabilité accrue permet aux opérateurs de proposer une expérience plus personnalisée et satisfaisante à leurs utilisateurs, renforçant ainsi la valeur perçue de leurs services.

Amélioration de la fiabilité et de la résilience

L’IA dans les couches L2 et L3 contribue également à améliorer la fiabilité et la résilience du réseau:

  1. Détection précoce des anomalies: Les modèles d’IA peuvent identifier des schémas subtils indiquant des problèmes émergents avant qu’ils n’affectent visiblement les performances.
  2. Adaptation proactive: Le réseau peut s’adapter proactivement aux changements de conditions ou aux défaillances partielles, maintenant la continuité du service.
  3. Récupération intelligente: En cas de défaillance, l’IA peut orchestrer des processus de récupération optimisés qui minimisent l’impact sur les utilisateurs et restaurent rapidement les services normaux.
  4. Apprentissage continu: Les systèmes d’IA peuvent apprendre continuellement des incidents passés pour améliorer leur réponse aux événements futurs similaires.

Cette amélioration de la fiabilité et de la résilience est particulièrement importante à mesure que les réseaux cellulaires deviennent une infrastructure critique supportant des services essentiels dans de nombreux secteurs.

Défis et considérations pour l’implémentation

Malgré ses nombreux avantages, l’intégration de l’IA dans les couches L2 et L3 présente plusieurs défis et considérations importantes.

Complexité des modèles et exigences de calcul

L’implémentation de modèles d’IA sophistiqués dans les couches L2 et L3 soulève des préoccupations concernant la complexité et les ressources de calcul:

  1. Équilibre performance-complexité: Il est nécessaire de trouver un équilibre entre la sophistication des modèles d’IA et leur viabilité pratique dans des environnements aux ressources limitées.
  2. Exigences en temps réel: De nombreuses décisions au niveau L2/L3 doivent être prises en temps réel, imposant des contraintes strictes sur la latence d’inférence des modèles d’IA.
  3. Efficacité énergétique: L’exécution de modèles d’IA complexes consomme de l’énergie, ce qui peut contre

Comprendre le concept du modèle ML/IA – Partie 2

Dans l’article précédent nous avions présenté 3 d’apprentissages IA. Nous allons maintenant revenir plus particulièrement sur l’apprentissage fédéré horizontal (HFL) et vertical (VLF)

Le fonctionnement du HFL et VFL pour l’IA dans les réseaux de télécommunications

Introduction à l’apprentissage fédéré

L’apprentissage fédéré est une approche d’entraînement de modèles d’IA qui permet de développer des modèles à partir de données distribuées sur différents appareils ou serveurs, sans nécessiter le transfert des données brutes vers un serveur central. Cette approche est particulièrement pertinente dans le contexte des télécommunications où la confidentialité des données, la réduction de la bande passante et la distribution géographique sont des considérations importantes.

Deux principales variantes d’apprentissage fédéré sont mentionnées dans le document de 5G Americas et développées dans la littérature scientifique: l’apprentissage fédéré horizontal (HFL) et l’apprentissage fédéré vertical (VFL).

Figure 1 : HFL (gauche) et VFL (droite)

Apprentissage Fédéré Horizontal (HFL)

Principe fondamental

Selon le document, le HFL (souvent simplement appelé « apprentissage fédéré ») est une technique où le modèle d’apprentissage automatique est entraîné sur différents « clients » (nœuds, appareils ou serveurs) qui possèdent des données avec les mêmes caractéristiques mais concernant des échantillons différents.

En termes plus simples, dans le HFL:

  • Chaque participant dispose du même type de données (mêmes features/variables)
  • Mais chacun a des exemples/échantillons différents (différentes instances)

Fonctionnement détaillé

  1. Initialisation: Un modèle global initial est créé sur le serveur central (NWDAF serveur dans le contexte des télécommunications).
  2. Distribution du modèle: Ce modèle est envoyé à plusieurs clients (par exemple, différents NWDAF locaux dans différentes zones géographiques).
  3. Entraînement local: Chaque client entraîne le modèle sur ses données locales pendant plusieurs itérations.
  4. Agrégation des paramètres: Les clients renvoient uniquement les paramètres du modèle mis à jour (pas les données) au serveur central.
  5. Mise à jour du modèle global: Le serveur central agrège ces paramètres (typiquement par une forme de moyenne pondérée) pour créer une version améliorée du modèle global.
  6. Itération: Les étapes 2-5 sont répétées à travers plusieurs cycles jusqu’à ce que le modèle converge ou atteigne des performances satisfaisantes.

Avantages dans le contexte des télécommunications

  • Confidentialité: Les données sensibles restent sur leurs appareils/serveurs d’origine.
  • Efficacité de communication: Seuls les paramètres du modèle sont transmis, pas les données brutes, réduisant considérablement la charge du réseau.
  • Adaptation locale: Le modèle peut capturer les spécificités locales tout en bénéficiant de l’apprentissage collectif.

Application dans le NWDAF (3GPP)

Dans les réseaux 5G, comme mentionné dans le document, le HFL a été introduit dans la Release 17 du 3GPP pour le NWDAF. Il permet:

  • L’entraînement collaboratif entre différentes zones d’intérêt (parties du réseau)
  • Chaque zone utilise le NWDAF le plus proche pour entraîner localement
  • L’apprentissage collectif est agrégé par une fonction centrale sur le NWDAF serveur
  • Des protocoles préservant la confidentialité comme l’agrégation sécurisée peuvent être appliqués

Apprentissage Fédéré Vertical (VFL)

Principe fondamental

Le VFL, introduit dans la Release 19 pour le NWDAF selon le document, est conçu pour des scénarios où différents participants possèdent différentes caractéristiques/features pour les mêmes échantillons (ou un chevauchement significatif des échantillons).

En termes simplifiés, dans le VFL:

  • Chaque participant a des types de données différents (features différentes)
  • Mais ils concernent le même ensemble d’utilisateurs ou d’entités (mêmes échantillons)

Fonctionnement détaillé

  1. Division du modèle: Dans le VFL, le modèle d’apprentissage est divisé en « modèle de tête » et « modèle de queue »:
    • Les modèles de tête sont déployés chez les participants (par exemple, Client A et Client B)
    • Le modèle de queue est hébergé sur un serveur central
  2. Processus d’entraînement:
    • Propagation avant: Les clients traitent leurs données locales à travers leurs modèles de tête
    • Transfert d’activations: Les résultats intermédiaires (activations) sont envoyés au serveur central
    • Concaténation: Le serveur central concatène ces activations
    • Calcul de perte: Le modèle de queue calcule une perte en utilisant les étiquettes disponibles sur le serveur
    • Rétropropagation: Les gradients sont calculés et les dérivées partielles correspondantes sont renvoyées aux clients
    • Mise à jour locale: Chaque client met à jour son modèle de tête en fonction des gradients reçus
  3. Alignement des échantillons: Pour que le VFL fonctionne, il est crucial d’aligner les échantillons entre les participants, généralement à l’aide d’identifiants uniques comme des horodatages ou des identifiants d’utilisateur (SUPI dans le contexte 5G).

Avantages spécifiques au VFL

  • Enrichissement des caractéristiques : Permet de combiner différentes perspectives ou types de données sans les partager directement
  • Architecture personnalisée: Chaque participant peut avoir sa propre architecture de réseau neural
  • Complémentarité des données: Permet d’exploiter des données complémentaires détenues par différentes entités

Application dans les réseaux 5G (NWDAF)

Selon le document, dans la Release 19 du 3GPP, le VFL est introduit pour permettre la collaboration entre:

  • Les NWDAF dans le réseau cœur
  • Les fonctions d’application (AF) qui peuvent détenir d’autres types de données

Cette approche permet notamment:

  • La prédiction de QoS en utilisant à la fois des données réseau et des données applicatives
  • Une meilleure adaptation aux besoins spécifiques grâce à des architectures de modèle personnalisées
  • L’extension des fonctionnalités existantes développées pour le HFL

Différences clés entre HFL et VFL

En synthétisant les informations du document et la littérature sur le sujet:

Aspect HFL (Horizontal) VFL (Vertical)
Partitionnement des données Même espace de features, échantillons différents Features différentes, mêmes échantillons
Architecture du modèle Modèles identiques sur tous les clients Division tête/queue avec architectures potentiellement différentes
Communication Paramètres du modèle complet Activations et gradients partiels
Confidentialité Protège la confidentialité des échantillons Protège la confidentialité des features
Cas d’usage typique dans 5G Apprentissage entre différentes zones géographiques Collaboration entre réseau cœur et applications
Complexité d’implémentation Plus simple (agrégation directe des modèles) Plus complexe (coordination entre sous-modèles)

Protection de la confidentialité dans HFL et VFL

Les deux approches intègrent des mécanismes pour renforcer la confidentialité:

Dans le HFL:

  • Agrégation sécurisée: Techniques cryptographiques pour agréger les mises à jour de modèle sans révéler les contributions individuelles
  • Distillation de connaissances: Transfert de connaissances sans partager les paramètres exacts du modèle
  • Quantification et élagage: Réduction de la précision ou de la taille des modèles pour limiter les fuites d’information

Dans le VFL:

  • Calcul multi-parties: Techniques permettant des calculs conjoints sans partager les données sous-jacentes
  • Chiffrement homomorphe: Opérations sur des données chiffrées sans les déchiffrer
  • Perturbation différentielle: Ajout de bruit aux activations partagées pour protéger la confidentialité

Implémentation dans un réseau de télécommunications

Dans le contexte spécifique des réseaux de télécommunications, le document de 5G Americas décrit l’implémentation de ces approches:

Pour le HFL:

  • Déployé entre différentes zones géographiques du réseau
  • Les NWDAF clients sont situés près des zones qu’ils desservent
  • Un NWDAF serveur central coordonne l’agrégation
  • Les modèles peuvent prédire des comportements comme la charge du réseau ou la mobilité des utilisateurs

Pour le VFL:

  • Permet la collaboration entre le réseau cœur et les applications externes
  • Les prédictions peuvent combiner des données réseau (comme les conditions du signal) avec des données applicatives (comme les exigences des applications)
  • Permet de préserver la séparation entre domaines administratifs tout en bénéficiant du partage de connaissances

Conclusion: évolution et tendances futures

L’évolution de l’apprentissage fédéré dans les réseaux de télécommunications, comme le montre le document 5G Americas, suit une progression naturelle:

  1. D’abord introduction du HFL dans la Release 17, permettant la collaboration entre différentes parties du réseau
  2. Extension au transfert de modèles entre domaines administratifs dans la Release 18
  3. Introduction du VFL dans la Release 19, permettant la collaboration entre le réseau et les applications

Cette évolution reflète une tendance plus large vers:

  • Des réseaux de plus en plus intelligents et adaptatifs
  • Une intégration plus profonde entre les réseaux et les applications qu’ils supportent
  • Une attention croissante à la confidentialité et à l’efficacité des communications

Le HFL et le VFL représentent deux approches complémentaires d’apprentissage fédéré qui, ensemble, permettent une collaboration plus riche et plus flexible entre les différentes entités d’un écosystème de télécommunications, tout en respectant les contraintes de confidentialité et d’efficacité.

Comprendre le concept du modèle ML/IA – Partie 1

Comment fonctionne le modèle ? ML/IA : Principes fondamentaux et cycle de vie des modèles

I) Introduction

L’intelligence artificielle (IA) et l’apprentissage automatique (machine learning ou ML) transforment notre façon d’aborder les problèmes complexes dans de nombreux domaines. Ce document explique les principes de base du fonctionnement de ces technologies et détaille leur cycle de vie, de la conception à l’exploitation.

Le cycle de vie est défini dans le document TR28.105 et sera réexpliqué dans un autre article.

Des cas d’usages sont proposés dans le document TR28.908 et seront listés dans un autre article.

L’objectif de l’IA est de pouvoir répondre au plus juste à la question posée. A chaque question, on évalue la réponse. Cela suppose donc une phase d’apprentissage et une une phase d’examen. Les phases d’apprentissage et d’inférence sont, par analogie, comme étudier pour un examen (entraînement) puis passer l’examen réel (inférence).

L’inférence traduit simplement la réponse de l’IA à de nouvelles situations en appliquant ce qu’elle a appris.

Dans le monde réel, l’inférence, c’est quand votre téléphone reconnaît votre visage, quand un assistant vocal comprend vos paroles, ou quand une application de traduction convertit un texte d’une langue à une autre. Le système utilise ce qu’il a appris pendant l’entraînement pour traiter la nouvelle entrée que vous lui donnez.

Dans le cas des réseaux mobiles, l’IA est un assistant pour détecter des pannes. Il doit donc faire une analyse, récupérer des rapports, mais surtout réaliser des actions. Les actions peuvent être rédiger un tocketing vers un prestataire (supposons que la station de base défaillante est sur un TELCO d’un autre opérateur), ou un ticketing vers une équipe spécialisée. L’IA doit ensuite suivre l’intervention de bout en bout.

A ce jour, je liste que deux solutions IA intéressantes pour automatiser (détecter, analyser et réaliser une/des actions) qui sont :

  • Agentic AI
  • Manus MI

Je parlerais des ces deux IA dans un autre articles.

II)Comprendre le ML et l’IA

L’intelligence artificielle désigne les systèmes capables d’accomplir des tâches qui nécessiteraient normalement l’intelligence humaine. Le machine learning est une sous-discipline de l’IA qui permet aux systèmes d’apprendre à partir de données sans être explicitement programmés pour chaque tâche.

Principes fondamentaux

Le ML repose sur trois approches principales :

  1. Apprentissage supervisé : le modèle apprend à partir d’exemples étiquetés (données d’entrée associées aux sorties attendues).
  2.  Apprentissage non supervisé : le modèle découvre des structures ou des motifs cachés dans des données non étiquetées.
  3. Apprentissage par renforcement : le modèle apprend par essais et erreurs, recevant des récompenses ou des pénalités selon ses actions.

Comment les modèles « apprennent »

Au cœur du ML se trouve le concept de modèle : une représentation mathématique qui transforme des entrées en sorties. L’apprentissage consiste à ajuster les paramètres de ce modèle pour minimiser l’erreur entre ses prédictions et les résultats attendus.

Ce processus s’appuie sur :

  • Des données représentatives du problème
  • Des algorithmes qui déterminent comment ajuster les paramètres.
  • Des fonctions d’objectif qui mesurent la performance
  • Des techniques d’optimisation pour améliorer progressivement les résultats.

L’entrainement peut être sur un serveur centralisé ou  sur des serveurs distribués. On parle alors d‘apprentissage fédéré.

L’apprentissage fédéré est une approche distribuée où le modèle est entraîné sur plusieurs appareils ou serveurs sans échanger les données brutes.

L’apprentissage fédéré est une décentralisation des données et permet la protection de la vie privée, quelle que soit la méthode d’apprentissage utilisée (supervisée ou non supervisée).

Le cycle de vie d’un modèle ML/IA

Un modèle d’IA/ML suit généralement un cycle de vie structuré, composé des étapes suivantes :

  1. Entraînement du modèle ML
    L’entraînement constitue la phase où le modèle « apprend » à partir des données. Cette étape comprend :
    • L’entraînement initial : exposition du modèle aux données d’entraînement pour qu’il ajuste ses paramètres.
    • La validation continue : évaluation des performances du modèle sur des données de validation distinctes.
    • Le réentraînement : ajustement du modèle si les résultats de validation ne sont pas satisfaisants
    L’objectif est d’obtenir un modèle qui capture efficacement les relations dans les données tout en évitant le surapprentissage (mémorisation des données d’entraînement sans capacité de généralisation).
  2. Test du modèle ML
    Une fois le modèle validé, il est soumis à une phase de test rigoureuse :
    • Le modèle est évalué sur un ensemble de données de test totalement nouvelles.
    • Les performances sont mesurées selon des métriques spécifiques au problème (précision, rappel, F1-score, etc.).
    • Si les performances ne répondent pas aux attentes, un retour à l’étape d’entraînement est nécessaire.
    Cette étape est cruciale pour déterminer si le modèle est capable de généraliser ses apprentissages à des données inédites.
  3. Émulation d’inférence AI/ML (optionnelle)
    Avant le déploiement en environnement réel, le modèle peut être testé dans un environnement d’émulation pour :
    • Évaluer les performances d’inférence (vitesse, latence, ressources consommées)
    • Vérifier la compatibilité avec l’infrastructure cible.
    • Identifier les potentiels impacts négatifs sur d’autres systèmes
    Cette étape, bien qu’optionnelle, permet d’anticiper les problèmes techniques qui pourraient survenir en production.
  4. Déploiement du modèle ML
    le déploiement consiste à rendre le modèle opérationnel dans son environnement cible :
    • Processus de chargement du modèle dans l’infrastructure d’inférence
    • Intégration avec les systèmes existants
    • Configuration des paramètres d’exécution
    Dans certains cas, cette étape peut être simplifiée, notamment lorsque les environnements d’entraînement et d’inférence sont co-localisés.
  5. Inférence AI/ML
    L’inférence représente l’utilisation effective du modèle en production.
    • Le modèle traite les nouvelles données entrantes et génère des prédictions.
    • Un système de surveillance évalue continuellement les performances.
    • Des mécanismes peuvent déclencher automatiquement un réentraînement si les performances se dégradent.
    Cette phase correspond à la « vie active » du modèle, où il crée de la valeur en résolvant les problèmes pour lesquels il a été conçu.

Considérations pratiques et avancées

Maintenir un système d’IA/ML en production performant implique de relever plusieurs défis :
1. Dérive des données : les caractéristiques des données réelles évoluent avec le temps, rendant progressivement le modèle moins précis.
2. Besoins computationnels : L’entraînement et l’inférence peuvent nécessiter d’importantes ressources de calcul, particulièrement pour les modèles complexes.
3. Explicabilité : comprendre pourquoi un modèle a pris une décision particulière devient crucial dans de nombreux contextes réglementaires.
4. Biais et équité : les modèles peuvent perpétuer ou amplifier les biais présents dans les données d’entraînement.

Pour maximiser les chances de succès d’un projet ML/IA :

  • Surveillance continue : mettre en place des mécanismes pour détecter les dégradations de performance
  • Réentraînement périodique : actualiser régulièrement le modèle avec des données récentes.
  • Tests A/B : comparer les performances de différentes versions du modèle
  • Documentation exhaustive : Maintenir une traçabilité complète du développement et des choix effectués

L’évolution du domaine ML/IA se caractérise par plusieurs tendances :

  • MLOps : automatisation et standardisation des processus de déploiement et de maintenance des modèles
  • Apprentissage fédéré : entraînement distribué préservant la confidentialité des données
  • Modèles auto-supervisés : réduction de la dépendance aux données étiquetées
  • ML embarqué : exécution de modèles directement sur des appareils en périphérie (edge computing)

MLOps et DevOps

MLOps est un ensemble de pratiques visant à automatiser et rationaliser le cycle de vie des modèles d’IA de leur déploiement à leur production et opération:

Surveillance et gestion de la performance

  • Surveillance en temps réel: Surveillance continue de la performance des modèles d’IA en production pour assurer qu’ils opèrent comme prévu, impliquant le suivi de métriques comme la précision, la latence et l’utilisation des ressources.
  • Boucles de feedback: Implémentation de boucles de feedback pour collecter des données de performance et le feedback utilisateur, qui peuvent être utilisés pour affiner et améliorer les modèles d’IA au fil du temps.

Automatisation

  • Réentraînement du modèle: Automatisation du processus de réentraînement pour incorporer de nouvelles données et s’adapter aux conditions changeantes, assurant que les modèles d’IA restent pertinents et efficaces à mesure que les environnements réseau évoluent.
  • Mise à l’échelle: Utilisation de la mise à l’échelle automatisée pour ajuster les ressources de calcul basées sur les demandes des tâches d’inférence et d’entraînement du modèle d’IA.
  • Pipelines CI/CD: Implémentation de pipelines CI/CD pour l’intégration continue et le déploiement des modèles d’IA, incluant l’automatisation du processus de mise à jour des modèles avec de nouvelles données, testant leur performance et les déployant dans des environnements de production.

Pratiques DevOps

Les pratiques DevOps sont essentielles pour intégrer les modèles d’IA dans le cadre plus large de gestion et d’opérations réseau:

  • Collaboration et intégration:
    • Équipes interfonctionnelles: Promouvoir la collaboration entre les data scientists, les ingénieurs réseau et les équipes opérationnelles pour assurer que les modèles d’IA sont efficacement intégrés dans les opérations réseau.
    • Flux de travail unifiés: Développer des flux de travail unifiés qui combinent la gestion réseau et les opérations du modèle d’IA, permettant une intégration et une coordination transparentes entre différents aspects de la gestion réseau.
  • Infrastructure as Code (IaC):
    • Gestion d’infrastructure automatisée: Utiliser IaC pour automatiser le provisionnement et la gestion de l’infrastructure requise pour l’entraînement et le déploiement du modèle d’IA, incluant la définition et la gestion des ressources réseau à travers le code pour assurer cohérence et efficacité.
  • Surveillance et journalisation:
    • Journalisation complète: Implémenter des pratiques de journalisation complètes pour suivre la performance du modèle d’IA et les métriques opérationnelles, aidant à identifier les problèmes, déboguer les problèmes et assurer que les modèles répondent aux standards de performance.

 

Conclusion

Le ML et l’IA représentent des technologies puissantes dont l’efficacité dépend largement de la rigueur avec laquelle leur cycle de vie est géré. De l’entraînement à l’inférence, chaque étape présente des défis spécifiques et requiert une attention particulière.
La compréhension de ce cycle de vie est essentielle pour toute organisation souhaitant tirer profit de ces technologies de manière durable et responsable. Les systèmes ML/IA ne sont pas statiques : ils nécessitent une maintenance et une amélioration continues pour rester performants face à l’évolution constante des données et des besoins.

IoT, Blockchain, IA, machine learning : Des technologies disruptives?

Les évolutions technologiques récentes vont apporter des changements profonds dans les domaines de la santé, de la logistique, le transport, l’énergie, l’agriculture, …

Si le déploiement de l’IoT (Internet of Things) destiné à collecter un ensemble d’informations constitue la première brique de cette évolution, la plus-value de cette transversalité numérique ne peut être obtenue qu’en garantissant la sécurisation des données collectées et le traitement efficace de ces données.

En cela, la technologie Blockchain s’insère dans l’écosystème de l’IoT en apportant un stockage des données, en assurant le transport sécurisé des données échangées et en permettant la traçabilité des données.

Quant aux traitements des données, l’intelligence artificielle (IA) permet de les valoriser et de les traduire en informations exploitables facilitant ainsi l’analyse décisionnelle des systèmes complexes. De surcroît, les méthodes d’apprentissages autonomes (Machine Learning) permettent également de classifier les données et d’apporter des outils de prédictions des pannes.

Les applications IA pourraient être mise en œuvre sur des lames de serveurs au plus proches des données collectées (MEC : Mobile Edge Computing).

Ainsi, les secteurs de la santé (capteurs et IA pour détecter l’évolution des maladies), du transport (véhicules autonomes), des chaînes d’approvisionnement (réparation des chaînes de production avant la cassure des pièces usées, l’approvisionnement en flux tendus), de l’énergie (délestages des sites industriels en assurant un transport de l’énergie au plus proche) seront impactés par la complémentarité de ces technologies disruptives.

Dans ces écosystèmes de plus en plus complexes, la donnée reste l’élément fondamental et le premier maillon d’une nouvelle ère économique. Les cabinets d’analystes estiment une évolution constante du marché des capteurs de l’IoT pour atteindre une centaine de milliards de dollars d’ici 2023 et une croissance du taux actuariel (CAGR – Compound annual growth rate) de 13%.

SigFox est le premier opérateur à s’être positionné sur le marché de la transmission sans fil des données issues des capteurs en déployant le réseau de transmission longue portée à basse consommation (LPWAN : LoW Power WAN).  Ce réseau LPWAN répond à la demande des compteurs intelligents (smart-meters, compteur d’eau, compteur de gaz), à la gestion des villes (smart-city) pour lesquels la communication est à latence élevée.

Aujourd’hui, l’opérateur Télécom SigFox est concurrencé par l’opérateur QoWiSio, l’opérateur Américain Ingénu, et l’alliance LoRaWAN avec le déploiement de LoRa par les opérateurs télécoms historiques.

Le réseau cellulaire 4G se positionne également sur ce secteur en étendant ses fonctionnalités pour répondre à l’émergence du marché de l’Internet des Objets. Ce réseau dédié aux communications Machine à Machine (MTC – Machine Type Communication) est destiné à devenir le premier réseau cellulaire LPWAN (Low Power WAN). Le premier avantage est de pouvoir rapidement apporter une couverture mondiale avec optionnellement une qualité de service.

L’IoT cellulaire (par son réseau d’accès NB-IoT, LTE-M et prochainement 5G NR) devrait connaître la plus forte croissance avec en point de mire, entre 10 000 et 100 000 objets connectés sous la couverture d’une seule station de base. Orange a ouvert son réseau LTE-M en novembre 2018, comme annoncé dans un précédent article traitant du cellular IoT.

Le réseau 5G quant à lui va permettre d’apporter de nouvelles solutions pour les communications M2M à temps réel (missions critiques URLLC : Ultra Reliable Low Latency Communication) pour répondre au besoin du secteur de l’automobile et de l’industrie (IIoT – Industrial IoT).

Le laboratoire LIAS s’intéresse à ces différentes technologies notamment comme application visée (de manière non exhaustive) le smart-grid, le secteur du transport,…

Dans les prochains articles je reviendrai plus particulièrement sur le MTC (réseau 4G).

Il est à rappeler que ces métiers s’adressent aux femmes et aux hommes, je vous invite à consulter le site femmes-numérique.fr

Blockchain, intelligence artificielle, big data, cyber sécurité, objets connectés, cloud…