La Déconnexion de l’Interface N2/S1 NTN

L’enjeu des réseaux hybrides terrestres-satellites dans l’écosystème 5G

Contexte technique et défis architecturaux

Les satellites LEO évoluent à des vitesses orbitales de 27 000 km/h,. Dans l’architecture regénératives, elles embarquent des stations de base mobiles (gNodeB ou gNB en 5G ou eNB en 4G) qui doivent maintenir une connectivité constante avec le cœur de réseau 5G (5GC) ou 4G (EPC) situé au sol.

La problématique centrale réside dans la nature dynamique de ces liaisons : lorsqu’un satellite sort de la zone de couverture d’une station terrienne (le feeder link, c’est à dire le lien entre le satellite et la station satellitaire terreste), la connexion sur l’interface N2 (protocole NGAP – Next Generation Application Protocol) entre le gNB satellite et l’AMF (Access and Mobility Management Function) est brutalement interrompue (ou sur l’interface S1, protocole S1AP entre l’eNB et le MME).

Impact sur les performances réseau

Cette déconnexion non contrôlée génère des dysfonctionnements opérationnels significatifs. Lorsqu’un terminal utilisateur se trouve en état de veille (RRC_IDLE) et qu’un appel entrant doit être acheminé, l’AMF consulte sa base de données de localisation et initie une procédure de radiodiffusion (paging) vers toutes les stations de base de la zone de routage, incluant le gNB/eNB satellite désormais inaccessible.

Cette situation engendre des délais d’attente (timeout) pouvant atteindre plusieurs secondes, dégradant significativement la qualité d’expérience (QoE) et l’efficacité spectrale du réseau. L’impact est d’autant plus critique que ces délais se multiplient proportionnellement au nombre de satellites déconnectés de manière non contrôlée.

Ce délai d’attente est le temps d’attendre une réponse du satellite qui n’arrivera pas.

La solution standardisée : Déconnexion Gracieuse de l’Interface N2

Principe de fonctionnement

La spécification 3GPP a défini une procédure élégante pour résoudre cette problématique : la « N2/S1 Interface Graceful Disconnection ». Cette méthode exploite la capacité prédictive des satellites à anticiper leur perte de connectivité grâce à leurs données éphémérides précises.

Séquence protocolaire détaillée

La procédure s’articule autour de quatre étapes critiques :

Phase 1 – Préparation et transferts d’urgence Le gNB satellite identifie sa prochaine déconnexion imminente et exécute les procédures de handover nécessaires pour transférer tous les utilisateurs actifs vers des stations de base alternatives, garantissant la continuité de service.

Phase 2 – Signalisation de déconnexion Le gNB émet un message N2 DISCONNECT REQUEST vers l’AMF, poue la demande de déconnexion contrôlée.

Phase 3 – Acquittement réseau L’AMF répond par un message N2 DISCONNECT RESPONSE, confirmant l’acceptation de déconnexion.

Phase 4 – Mise à jour de la topologie réseau L’AMF procède immédiatement à la mise à jour de ses tables de routage internes, supprimant le gNB satellite de la liste des points d’accès actifs pour la zone géographique concernée.

Figure 1 : Procédure de déconnexion N2/S1

Bénéfices opérationnels et techniques

L’implémentation de cette procédure apporte des améliorations mesurables :

  • Réduction des délais de paging : Élimination des timeouts liés aux tentatives de contact avec des gNB inaccessibles.
  • Optimisation des ressources réseau : Concentration des requêtes de radiodiffusion uniquement sur les stations actives
  • Amélioration de la réactivité : Détection quasi-instantanée de l’absence d’un terminal dans une zone donnée
  • Scalabilité : Adaptation efficace aux architectures à grande échelle avec de multiples satellites

Lorsque l’AMF envoie les requêtes de paging aux gNB, ceux-ci émettent la paging sur le lien radio et répond très rapidement à l’AMF si aucun UE ne répond au paging.

Mais, si l’AMF pense que le gNB est toujours connecté, il va attendre longtemps la réponse du gNB. C’est cette attente qui génère un délai important.

 

Les réseaux non-terrestres 5G : Configuration TAI, cartographie des faisceaux et localisation d’urgence

Introduction : Rappel sur le TAC (Tracking Area Code) :  Le Code Postal de l’Espace

Sur un réseau mobile terrestre classique (4G/5G), le **TAC (Tracking Area Code)** est un identifiant crucial. Imaginez-le comme un **code postal pour votre smartphone**. Le réseau regroupe plusieurs cellules (antennes) dans une même « zone de tracking » identifiée par un TAC. Votre terminal n’a pas besoin de signaliser sa position (« je suis là ! ») à chaque changement de cellule, seulement quand il passe d’un TAC à un autre. Cela permet d’économiser énormément la batterie du terminal et les ressources du réseau.

La question centrale pour les NTN (Non-Terrestrial Networks) est : comment gérer ce concept de « zone géographique fixe » lorsque l’antenne (le satellite) se déplace à plus de 27 000 km/h ? La réponse est aussi élégante que complexe.

Le Défi du Satellite Mobile

Sur un réseau satellitaire en orbite basse (LEO), la cellule (ou le faisceau) projetée au sol par le satellite se déplace très rapidement. Si on utilisait un TAC statique pour un faisceau, sa « zone de couverture » au sol défilerait à plusieurs centaines de km/h. Votre téléphone, immobile, verrait le TAC changer toutes les minutes, voire toutes les secondes ! Il déclencherait des procédures de mise à jour de localisation en permanence, rendant le réseau totalement inefficace et le terminal incapable de rester connecté.

La solution, définie par le 3GPP dès la Release 17, est de découpler le faisceau physique du satellite de la zone de tracking logique au sol.

La Solution : Le « TAC Géofixe ou Earth-fixed tracking areas » (zones de suivi fixes par rapport à la Terre) et le Network Orchestrator

Contrairement au réseau terrestre où un TAC est lié à une antenne physique fixe, en NTN, le TAC est associé à une zone géographique fixe au sol. On parle de TAI (Tracking Area Identity) géofixe.

Comment cela fonctionne-t-il ?

1. Le Réseau est Omniscient : Le segment spatial (les satellites) et le segment terrestre (les stations de gateway et le cœur de réseau 5G – 5GC) connaissent en temps réel la position précise de chaque satellite et l’orientation de chacun de ses faisceaux.

2. La Table de Mapping Dynamique : Il existe bien une table de correspondance, mais elle n’est pas stockée dans le satellite. Elle est gérée de manière centralisée par une entité d’orchestration du réseau (souvent appelée Network Orchestrator ou NTN Management Function). Cette table dynamique fait le lien entre :

  • L’identifiant du faisceau satellite (ex: Beam ID #15 du Satellite « A »)
  • La position géographique actuelle de ce faisceau sur Terre (sa « footprint »)
  • Le **TAC géofixe** qui correspond à cette zone géographique.

3. La Diffusion en Temps Réel : Le satellite, ou plus précisément la station de gateway qui le contrôle, modifie le contenu du message système SIB (System Information Block). Conformément à la spécification 3GPP TS 38.331, le SIB contient entre autres le TAC. Grâce à la table de mapping, le réseau injecte dans le SIB le TAC géofixe correspondant à la zone survolée à cet instant précis par le faisceau

Exemple Concret

Imaginons que le TAC `0x5A01` soit attribué à la région de Paris.
À l’instant T1 : Le faisceau du Satellite A survole Paris. Le Network Orchestrator lui dit : Diffuse le TAC `0x5A01` dans ton SIB.

À l’instant T2 (10 min plus tard) : Le Satellite A a avancé et son faisceau survole maintenant la Bourgogne, attribuée au TAC `0x5B02`. L’Orchestrator met à jour l’info : Maintenant, diffuse le TAC `0x5B02`.

Pendant ce temps, à l’instant T2 : Le Satellite B arrive au-dessus de Paris. L’Orchestrator lui ordonne : « Toi, diffuse le TAC `0x5A01` ».

Résultat : Un terminal immobile à Paris verra toujours le même TAC `0x5A01`,
peu importe le satellite ou le faisceau qui le sert. Il ne déclenchera une mise à jour de localisation que s’il se déplace hors de la zone de Paris, vers un autre TAC.

 

La spécification et les choix de l’opérateur

Question 1 : Est-ce la même valeur de TAC que celle diffusée par les cellules sur terre ?

Ca dépend de l’opérateur et de l’intégration, mais c’est techniquement possible et même probable. Rien n’empêche un opérateur comme Orange ou SpaceX (via des partenariats) d’attribuer le même TAC à une zone géographique, qu’elle soit couverte par une antenne terrestre ou par un satellite. Cette approche d’intégration transparente (Transparent NTN ») est un objectif clé de la 5G avancée.

Avantages :

Pour le terminal : Il est incapable de faire la différence. Il voit un TAC, point final. Cela garantit une compatibilité maximale avec les terminaux existants (avec les firmwares appropriés).
Pour le réseau cœur (5GC) : La gestion de la mobilité entre la Terre et l’Espace devient beaucoup plus simple. Le 5GC voit un terminal qui passe d’une cellule TAC `0x5A01` (terrestre) à une autre cellule TAC `0x5A01` (satellite). Cela peut être traité comme un simple handover intra-cellule, sans déclencher de procédure de « Tracking Area Update ».

Cependant, un opérateur purement satellitaire pourrait aussi choisir une plage de TACs distincte pour son réseau NTN pour des raisons de gestion interne.

Conclusion : Une Danse Orchestrée depuis le Sol

La politique de diffusion des TAC en 5G NTN n’est donc pas une table statique embarquée dans le satellite, mais bien **un mapping dynamique et centralisé, piloté en temps réel par l’intelligence du réseau.

Le satellite devient un « exécutant » qui projette une identité logique (le TAC) sur une zone géographique prédéfinie. Cette abstraction est la clé de voûte qui permet de faire cohabiter des réseaux cellulaires fixes et des constellations de satellites mobiles dans un écosystème 5G unifié et efficace.

 

Pour Aller Plus Loin :

Source 3GPP TS 38.413 : Cette spécification décrit les procédures du NG-RAN et mentionne comment le système peut gérer la mobilité et les associations entre cellules NTN et zones de tracking.

3GPP TR 38.821 : « Solutions for NR to support non-terrestrial networks (NTN) » – Le document fondateur.

3GPP TS 23.122 :** « Non-Access-Stratum (NAS) functions related to Mobile Station (MS) in idle mode » – Décrit les procédures de Tracking Area.

5G NTN – Le Dilemme des Cellules : Fixes au Sol ou Mobiles avec le Satellite ?

Deux Philosophies pour Résoudre un Problème

Le défi de base est simple : un satellite (surtout en orbite basse – LEO) se déplace très vite par rapport à la Terre. Comment projeter une couverture cellulaire stable depuis un objet en mouvement ?

Le 3GPP a standardisé deux réponses radicalement différentes à cette question, donnant naissance aux deux scénarios que vous mentionnez :

1. Earth-Fixed Cell (EFC) : La cellule est « scotchée » au sol.
2. Earth-Moving Cell (EMC) : La cellule est « scotchée » au satellite.

1. Earth-Fixed Cell (EFC) – La Cellule « Géofixe »

C’est le scénario le plus complexe à gérer pour le réseau mais le plus transparent et simple pour l’utilisateur. C’est aussi le plus courant dans les discussions initiales de la 5G NTN.

Concept : Le réseau découpe la surface de la Terre en cellules virtuelles et fixes, comme un réseau terrestre. La mission du système satellitaire est de projeter dynamiquement la couverture de ces cellules fixes, peu importe quel satellite est au-dessus.

Comment ça marche ?

Une cellule au sol a un identifiant unique (Cell ID) et est associée à une zone de tracking fixe (TAC géofixe), comme expliqué précédemment.

Les faisceaux des satellites sont très agiles. Le réseau (l’Orchestrator) calcule en temps réel la position de chaque satellite et steer son faisceau pour que la projection au sol (« footprint ») de ce faisceau coïncide PARFAITEMENT avec les limites de la cellule géofixe.

Lorsque le satellite s’éloigne, le faisceau est déformé et dirigé pour continuer à couvrir exactement la même zone géographique fixe. Au moment où il ne peut plus le faire, un handover parfait est effectué vers le satellite suivant, qui prend le relais pour couvrir cette même cellule fixe.

Analogie : Imaginez un groupe de projecteurs (les satellites) en mouvement au-dessus d’un stade. Chaque projecteur est assigné à éclairer un même marquage au sol (la cellule fixe) pendant un moment. Ils bougent leur faisceau de lumière pour le garder parfaitement aligné sur la cible, et se passent le relais pour que la zone soit toujours éclairée.

Avantages :
Transparence totale pour le terminal : Le téléphone ne voit aucune différence avec un réseau terrestre. La cellule (Cell ID) et la zone de tracking (TAC) ne changent pas tant qu’il est immobile.
Pas de mobilité pour l’utilisateur immobile : Un capteur IoT fixe n’aura jamais à mettre à jour sa localisation.
Intégration facilitée avec les réseaux terrestres : On peut utiliser exactement les mêmes TACs.

Inconvénients :
Extrêmement complexe : Nécessite des satellites avec des antennes très agiles (phased-array antennas) et un Network Orchestrator ultra-performant pour calculer et piloter tout cela en temps réel.

Coût élevé.

Exemples de systèmes visant ce scénario :** Le projet **AST SpaceMobile**.

2. Earth-Moving Cell (EMC) – La Cellule « Mobile »**

C’est le scénario historique des constellations comme Iridium ou Globalstar. C’est plus simple pour le réseau mais plus complexe pour le terminal.

Concept :,La cellule est rigidement attachée au satellite. Le faisceau pointe dans une direction fixe par rapport au satellite. Par conséquent, la cellule « défile » sur la surface de la Terre à la vitesse du satellite (environ 27,000 km/h pour un LEO).

Comment ça marche ?  La cellule a un identifiant (Cell ID) et un TAC qui lui sont propres, mais ils ne sont pas liés à une zone géographique.
Un utilisateur immobile verra défiler les cellules très rapidement : une cellule (du satellite A) arrive, le terminal s’y connecte, puis elle s’éloigne et le terminal doit en chercher une nouvelle (souvent du satellite B).
Le terminal subit des handovers très fréquents (toutes les quelques minutes, voire secondes) alors même qu’il est immobile.

Analogie : Reprenons les projecteurs, mais cette fois, chacun pointe droit vers le bas, fixement. La tache de lumière (la cellule) traverse le stade à grande vitesse. Les spectateurs (les terminaux) voient une lumière arriver, les illuminer, puis repartir, pour être illuminés par la tache de lumière du projecteur suivant.

Avantages :

Beaucoup plus simple pour le satellite : Les antennes peuvent être plus simples (moins d’agilité de faisceau requise). La gestion du réseau est simplifiée car elle suit la mécanique orbitale naturelle.
Moins coûteux à mettre en œuvre (conception heritage des systèmes comme Iridium).

Inconvénients :
Très pénalisant pour les terminaux : Ils doivent être constamment en recherche de nouvelle cellule et effectuer des handovers très fréquents, ce qui consomme énormément de batterie. C’est rédhibitoire pour les capteurs IoT qui doivent fonctionner 10 ans sur une pile.

Conclusion : Qui Va Gagner ?

Le choix du scénario dépend entièrement de l’usage cible :

Pour du haut débit mobile (smartphones) et de l’IoT basse consommation, le scénario Earth-Fixed Cell (EFC) est indispensable. C’est la voie privilégiée pour la véritable intégration « sans couture » de la 5G NTN.

Le scénario Earth-Moving Cell (EMC) reste pertinent pour des applications spécialisées (e.g., tracking de containers, systèmes militaires) ou pour des constellations héritées qui cherchent à moderniser leur service sans changer radicalement leur architecture spatiale.

La grande majorité des développements récents en 5G NTN (Release 17 et au-delà) se concentre sur le scénario Earth-Fixed Cell, car il offre l’expérience utilisateur la plus proche de la promesse 5G : une connectivité omniprésente et transparente, que vous soyez connecté à une antenne sur un toit ou à un satellite dans le ciel.

Mais dans les deux cas, il y a mise à jour du TAC

IRIS² : La constellation européenne et l’avenir des communications spatiales

Introduction : L’Europe dans la course spatiale

Après les succès de Galileo (navigation) et Copernicus (observation de la Terre), l’Europe franchit une nouvelle étape avec IRIS² (Infrastructure de résilience, d’interconnectivité et de sécurité par satellite). Cette constellation de satellites de télécommunications, qui sera déployée en 2030, représente bien plus qu’un simple projet technologique : elle incarne la volonté européenne d’autonomie stratégique face à la domination actuelle des acteurs extra-européens.

Qu’est-ce qu’IRIS² ?

IRIS² est la réponse européenne aux méga-constellations de satellites qui révolutionnent actuellement le marché des télécommunications spatiales. Le projet se compose de :

  • 264 satellites en orbite basse (LEO – 1 200 km d’altitude)
  • 18 satellites en orbite moyenne (MEO – 8 000 km d’altitude)
  • Un budget de 10,6 milliards d’euros (60% de fonds publics, 40% privés)
  • Un consortium SpaceRISE formé par Eutelsat, SES et Hispasat

Contrairement à Starlink qui compte déjà 7 000 satellites et vise les 42 000, IRIS² n’est pas une méga-constellation pure mais privilégie une approche équilibrée entre besoins gouvernementaux et services commerciaux.

Les défis technologiques d’IRIS² : la révolution 5G NTN

La 5G NTN (Non-Terrestrial Networks) représente l’intégration des réseaux satellitaires dans l’écosystème 5G standard. Concrètement, cela signifie que votre smartphone pourra se connecter directement aux satellites comme il le fait actuellement avec les antennes terrestres, sans modification ni équipement spécial.

Cette technologie, déjà expliquée dans ce blog, permet :

  • Une couverture universelle : Internet haut débit même dans les zones les plus isolées
  • Une continuité de service : Basculement automatique entre réseaux terrestres et satellitaires
  • Des communications d’urgence : Connectivité maintenue lors de catastrophes naturelles
  • Support IoT global : Objets connectés fonctionnant partout sur la planète

Les innovations techniques d’IRIS²

IRIS² intègre plusieurs technologies de pointe :

Communication inter-satellite par laser : Les données transitent entre satellites via des liens optiques à très haut débit, réduisant la dépendance aux infrastructures terrestres.

Miniaturisation électronique avancée : Utilisation de puces gravées en 7 nm, une première en Europe, permettant des satellites entièrement reprogrammables.

Compatibilité 5G native : Transition fluide vers la 6G prévue grâce à la reprogrammabilité des satellites.

Sécurisation renforcée : Seulement 5 points de présence au sol, tous en territoire européen, pour un contrôle total des communications.

Le paysage concurrentiel : qui sont les autres acteurs ?

Les géants américains

SpaceX Starlink : Le leader incontesté avec plus de 7 000 satellites opérationnels et 5 millions d’utilisateurs dans 125 pays. Starlink vise 42 000 satellites et développe des services Direct-to-Cell avec T-Mobile, permettant aux smartphones de communiquer directement avec les satellites.

Amazon Project Kuiper : 3 236 satellites planifiés, premiers lancements opérationnels en avril 2025. Amazon mise sur l’intégration avec AWS et ses partenariats avec Verizon et Vodafone. Service commercial prévu vers 2026.

OneWeb (Eutelsat) : 648 satellites actifs en orbite polaire, focus sur les marchés B2B, gouvernementaux et maritimes. Racheté par Eutelsat en 2023, OneWeb privilégie la qualité de service sur des marchés de niche.

Les constellations chinoises : la montée en puissance

La Chine développe trois projets majeurs qui pourraient bouleverser le marché :

Qianfan (G60) : 12 000 satellites planifiés par Shanghai Spacecom Satellite Technology, avec un financement de 943 millions de dollars. Premier lancement de 18 satellites en août 2024, objectif de 600 satellites d’ici fin 2025 et service global d’ici 2030.

Guowang : Le projet gouvernemental le plus ambitieux avec 13 000 satellites prévus, directement contrôlé par l’État chinois via China Satellite Network Group.

Honghu-3 : 10 000 satellites développés par Landspace, une entreprise privée chinoise qui développe aussi des fusées réutilisables comparables au Falcon 9 de SpaceX.

Autres acteurs significatifs

Telesat Lightspeed (Canada) : 300 satellites en orbite polaire haute (1 325 km), focus sur les entreprises et gouvernements avec des garanties de performance contractuelles.

Viasat : Spécialiste des satellites géostationnaires haute capacité, 600 000 abonnés actuels.

SES O3b mPOWER : Constellation en orbite moyenne (8 000 km) intégrée à IRIS².

Les enjeux géopolitiques et stratégiques

Autonomie européenne

IRIS² répond à un impératif de souveraineté numérique. La guerre en Ukraine a démontré l’importance stratégique des communications satellitaires, Starlink étant devenu un outil géopolitique majeur. L’Europe ne peut dépendre d’acteurs extra-européens pour ses besoins critiques.

La bataille des fréquences

L’Europe possède un avantage considérable : IRIS² hériteront des droits fréquentiels d’OneWeb (prioritaire sur Starlink en orbite basse) et d’O3b mPOWER. La bande Ka militaire européenne bénéficie également d’excellents droits de priorité.

Concurrence et coopération paradoxale

Paradoxalement, les concurrents collaborent parfois : OneWeb a utilisé les fusées SpaceX après l’arrêt des lancements russes Soyuz suite aux sanctions. Cette interdépendance révèle la complexité du marché spatial actuel.

L’écosystème technologique de la 5G NTN

Les standards 3GPP

La 5G NTN s’appuie sur les standards 3GPP (3rd Generation Partnership Project) :

  • Release 17-18 : Architecture « transparente » où les satellites agissent comme répéteurs
  • Release 19 : Introduction des charges utiles « régénératives » avec stations de base complètes embarquées
  • Release 20-21 : Optimisations et nouvelles capacités avancées

Types d’orbites et applications

LEO (Low Earth Orbit – 300-2000 km) :

  • Latence faible (20-40 ms)
  • Couverture mobile nécessitant de nombreux satellites
  • Idéal pour Internet haut débit et communications temps réel

MEO (Medium Earth Orbit – 8000-20000 km) :

  • Compromis latence/couverture
  • Moins de satellites nécessaires
  • Applications spécialisées

GEO (Geostationary Orbit – 35 786 km) :

  • Couverture fixe continue
  • Latence élevée (600+ ms)
  • Broadcasting et services IoT

Défis et perspectives d’avenir

Débris spatiaux et durabilité

Avec potentiellement plus de 100 000 satellites en orbite d’ici 2030, la gestion des débris spatiaux devient critique. IRIS² mise sur la durabilité avec seulement 282 satellites sur 10 ans, contrastant avec les méga-constellations concurrentes.

Impact astronomique

Les constellations affectent l’observation astronomique. IRIS² développe des satellites « non-émissifs » pour préserver l’astronomie, un engagement que tous les concurrents ne prennent pas.

Intégration terrestrial-spatial

L’avenir appartient aux réseaux hybrides combinant infrastructures terrestres et spatiales. La 5G NTN permettra un basculement transparent entre les deux, ouvrant la voie aux applications 6G futures.

Chronologie et déploiement

2024-2025 : Phase de développement, premiers tests 2026-2027 : Début des lancements IRIS² 2028-2030 : Déploiement opérationnel complet 2030+ : Services commerciaux pleinement opérationnels

Parallèlement, la concurrence s’intensifie :

  • Kuiper : Service commercial dès 2026
  • Qianfan : 600 satellites d’ici fin 2025
  • Starlink : Expansion continue vers 42 000 satellites

Conclusion : vers un internet spatial multipolaire

IRIS² représente plus qu’une constellation satellitaire : c’est un pari sur l’avenir d’un internet spatial européen souverain. Face à la domination américaine de Starlink et à l’émergence des constellations chinoises, l’Europe trace sa propre voie, privilégiant la durabilité et la sécurité.

La révolution 5G NTN transformera fondamentalement nos communications, rendant l’internet spatial accessible à tous via nos équipements actuels. Dans ce nouveau monde connecté, la maîtrise des technologies spatiales devient un enjeu de souveraineté nationale.

Le Rôle du NSACF dans l’Architecture 5G et 6G

Introduction

En s’appuyant sur la virtualisation du réseau, la technologie 5G permet un découpage réseau (network slicing) pour créer des réseaux virtuels personnalisés sur une infrastructure physique commune.

La 4G peut également proposer la virtualisation par le concept DCN dans la R.13 (nommé DECOR – Dedicated Core Network puis eDECOR en R.14 mais seul le coeur de réseau est dédié aux UE et le choix du coeur du réseau est basé sur l’IMSI (statique).

La 5G est Cloud Native. L’architecture SBA facilite l’approche d’un coeur de réseau et d’un RAN dédiés de manière dynamique pour les UE. Le Network Slicing apparait dès la R.15.

Dans la spécification R.17, une fonction spécifique est ajoutée pour gérer les ressources des slices : le Network Slice Admission Control Function (NSACF). Cette fonctiot, permet de garantir l’efficacité et l’équité d’accès aux tranches de réseau dans un environnement où les ressources, bien qu’importantes, demeurent finies.

Nous allons décrire le rôle du NSACF, son évolution au sein des normes 5G, et analyser comment le réseau fonctionnaient avant son introduction (R.15 et R.16). Nous explorerons également les mécanismes alternatifs qui permettent à un équipement utilisateur (UE) d’accéder à ses services même lorsque le NSACF refuse temporairement l’accès à une tranche spécifique

Contexte Historique et Évolution des Normes

L’Émergence du Network Slicing dans les Standards 5G

Le concept de découpage réseau, ou network slicing est l’une des caractéristiques différenciatrices majeures de la 5G afin de supporter une multitude de cas d’usage avec des exigences très différentes : de l’Internet des objets massif (mMTC) nécessitant de faibles débits mais une grande densité de connexions, aux communications ultra-fiables à faible latence (URLLC) pour les applications critiques, en passant par le haut débit mobile amélioré (eMBB) pour la consommation multimédia..

Introduction Progressive du Contrôle d’Admission

La Release 15 avait posé les bases architecturales du network slicing, mais les mécanismes de contrôle d’admission n’étaient pas encore définis. Initialement, la sélection des tranches et l’allocation des UE à ces tranches reposaient principalement sur le Network Slice Selection Function (NSSF) et sur des politiques relativement statiques.

La Release 16 a apporté des améliorations sur la gestion des tranches de réseau comme la surveillance et le reporting des tranches, et le support multi-opérateur. Mais la R.16 n’avait pas encore formalisé une fonction dédiée spécifiquement au contrôle d’admission basé sur la charge et les ressources.

Définition Formelle du NSACF

Le NSACF a été formellement défini dans la Release 17 du 3GPP.pour répondre à un besoin d’optimisation en temps réel des ressources entre les différentes tranches de réseau.

Le 3GPP TR 23.700-91 « Study on enablers for Network Automation for 5G » et les spécifications TS 23.501 « System Architecture for the 5G System » constituent les documents de référence qui définissent le NSACF et son intégration dans l’architecture 5G. Ces documents décrivent le NSACF comme une fonction réseau chargée de déterminer si un UE peut être admis dans une tranche particulière en fonction de facteurs tels que la charge actuelle, les ressources disponibles et les politiques établies.

L’introduction du NSACF s’inscrit dans une évolution plus large vers l’automatisation des réseaux et les réseaux auto-optimisants, où les décisions d’allocation de ressources sont prises de manière dynamique en fonction des conditions en temps réel plutôt que sur la base de configurations statiques.

Architecture et Fonctionnement du NSACF

Positionnement dans l’Architecture 5G

Dans l’architecture de référence, le NSACF communique directement avec :

  • Le Network Slice Selection Function (NSSF) qui identifie initialement la tranche appropriée pour un UE
  • Le Network Data Analytics Function (NWDAF) qui fournit des analyses sur l’état du réseau et la charge des tranches
  • Le Policy Control Function (PCF) qui définit les politiques générales d’allocation de ressources
  • Le Network Repository Function (NRF) pour la découverte et l’enregistrement des services

Cette interconnexion permet au NSACF d’avoir une vision globale de l’état du réseau tout en restant focalisé sur sa mission principale : le contrôle d’admission aux tranches.

Fonctionnalités Clés du NSACF

Les principales fonctionnalités du NSACF sont :

  1. Évaluation des demandes d’admission : Analyser chaque demande d’accès à une tranche en fonction des caractéristiques demandées et des ressources requises.
  2. Monitoring de la charge des tranches : Maintenir une vision à jour de l’utilisation des ressources par chaque tranche de réseau.
  3. Application des politiques d’admission : Implémenter les règles et politiques définies par l’opérateur concernant les priorités entre différents types de services ou d’abonnés.
  4. Décision d’admission : Déterminer si une demande d’accès à une tranche doit être acceptée, refusée ou redirigée.
  5. Coordination multi-domaines : Dans les scénarios impliquant plusieurs opérateurs ou domaines, coordonner les décisions d’admission entre ces différentes entités.
  6. Génération de métriques et rapports : Fournir des statistiques et des données sur les décisions d’admission et l’état des tranches pour alimenter les systèmes d’analyse et d’automatisation du réseau.

Call FLOW

Voici un exemple de call flow impliquant le NSACF  :

  1. Un UE envoie une demande de connectivité sur un slice, incluant ses besoins en termes de service.
  2. L’AMF (Access and Mobility Management Function) traite cette demande et consulte le NSSF pour identifier la tranche de réseau appropriée.
  3. Le NSSF détermine la tranche candidate et consulte le NSACF pour vérifier si cette tranche peut accepter une nouvelle connexion.
  4. Le NSACF évalue la demande en fonction de :
    • La charge actuelle de la tranche
    • Les ressources disponibles
    • Les politiques d’admission en vigueur
    • La priorité de la demande
  5. Le NSACF renvoie sa décision : acceptation, refus, ou suggestion d’une tranche alternative.
  6. En fonction de cette décision, l’UE est soit connecté à la tranche demandée, soit redirigé vers une tranche alternative, soit informé de l’impossibilité temporaire d’accéder au service.

Méthodes d’Évaluation et Critères de Décision

Les décisions du NSACF reposent sur plusieurs critères et méthodes d’évaluation sophistiqués :

  1. Modèles de charge prédictifs : Utilisation d’algorithmes pour anticiper l’évolution de la charge des tranches en fonction des tendances historiques.
  2. Seuils dynamiques : Définition de seuils d’utilisation adaptés à chaque type de tranche et ajustés en fonction du contexte (heure de la journée, événements spéciaux, etc.).
  3. Évaluation multi-paramètres : Prise en compte simultanée de plusieurs métriques comme la bande passante disponible, la capacité de traitement, la latence attendue, etc.
  4. Politiques de priorité et préemption : Application de règles permettant à certains services critiques ou utilisateurs prioritaires d’accéder aux tranches même en situation de congestion.
  5. Optimisation globale du réseau : Décisions visant à maximiser l’efficacité globale du réseau plutôt que simplement satisfaire des demandes individuelles.

Ces mesures permettent au NSACF de prendre des décisions qui équilibrent les besoins immédiats des utilisateurs avec l’optimisation des ressources réseau à plus long terme.

Différences Fonctionnelles : Avant et Après le NSACF

Gestion des Tranches Avant le NSACF

Avant l’introduction formelle du NSACF dans la Release 17, le contrôle d’admission aux tranches de réseau existait sous des formes moins centralisées et moins sophistiquées. Dans les premières implémentations du network slicing (Release 15 et Release 16), plusieurs mécanismes et fonctions coopéraient pour assurer un rôle similaire :

  1. Approche par politiques statiques : Les décisions d’allocation étaient principalement basées sur des politiques prédéfinies et relativement rigides, configurées par l’opérateur.
  2. Rôle central du NSSF : Le Network Slice Selection Function jouait un rôle prépondérant dans la sélection des tranches, mais ses décisions étaient davantage fondées sur les caractéristiques du service demandé que sur l’état de charge des tranches.
  3. Limitations du PCF : Le Policy Control Function contribuait à l’application des politiques, mais n’avait pas la visibilité spécifique sur l’utilisation des ressources par tranche.
  4. Absence de vision globale : Sans fonction centralisée, il était difficile d’avoir une vision d’ensemble de l’utilisation des ressources par les différentes tranches.
  5. Gestion réactive plutôt que proactive : Les problèmes de congestion étaient souvent traités après leur apparition plutôt qu’anticipés.
  6. Dimensionnement par surcapacité : Pour pallier l’absence de contrôle d’admission dynamique, les opérateurs tendaient à surdimensionner les ressources allouées à chaque tranche, réduisant l’efficacité globale.

Cette approche présentait plusieurs défis :

  • Risque de congestion de certaines tranches tandis que d’autres étaient sous-utilisées
  • Difficulté à réagir rapidement aux variations de demande
  • Efficacité limitée dans l’utilisation des ressources réseau
  • Complexité accrue dans la gestion des priorités entre services

Améliorations Apportées par le NSACF

L’introduction du NSACF a apporté des améliorations significatives sur plusieurs aspects :

  1. Centralisation des décisions : Une fonction unique et spécialisée traite désormais toutes les décisions d’admission, garantissant une cohérence globale.
  2. Décisions basées sur l’état réel : Le NSACF prend ses décisions en fonction de l’état actuel et prévu des tranches, plutôt que sur des règles statiques.
  3. Optimisation dynamique : Les ressources peuvent être allouées de manière plus fluide entre les tranches en fonction des besoins réels.
  4. Gestion proactive : La capacité à anticiper les congestions permet d’agir avant que les problèmes n’affectent les utilisateurs.
  5. Équilibrage charge/qualité : Meilleur équilibre entre maximisation du nombre d’utilisateurs et maintien de la qualité de service.
  6. Intégration avec l’analytique réseau : Le NSACF peut exploiter les données d’analytique du réseau pour des décisions plus informées.
  7. Support des SLA différenciés : Capacité accrue à respecter différents niveaux de service pour diverses catégories d’utilisateurs ou applications.

Ces améliorations ont des impacts concrets :

  • Meilleure utilisation des ressources réseau, permettant de servir plus d’utilisateurs avec la même infrastructure
  • Réduction des incidents liés à la congestion des tranches
  • Amélioration de l’expérience utilisateur grâce à une qualité de service plus stable
  • Support plus efficace de la diversification des services sur le réseau 5G

Alternatives et Mécanismes de Continuité de Service

Scénarios de Refus d’Admission

Lorsqu’un UE se voit refuser l’accès à une tranche de réseau par le NSACF, plusieurs scénarios peuvent se présenter, chacun avec ses propres implications :

  1. Refus temporaire : La tranche est momentanément surchargée mais devrait redevenir disponible rapidement.
  2. Refus persistant : La tranche est confrontée à une congestion de longue durée ou à des limitations de ressources structurelles.
  3. Refus partiel : L’accès est accordé mais avec des limitations de service (bande passante réduite, priorité moindre, etc.).
  4. Refus sélectif : Certains types de services au sein d’une tranche sont limités tandis que d’autres restent accessibles.

Ces différents scénarios nécessitent des approches distinctes pour assurer la continuité du service pour l’utilisateur.

Mécanismes de Redirection vers des Tranches Alternatives

L’un des principaux mécanismes permettant de maintenir le service malgré un refus d’admission est la redirection vers des tranches alternatives :

  1. Tranches équivalentes : Redirection vers une autre tranche offrant des caractéristiques similaires mais moins chargée.
  2. Tranches de repli (fallback) : Utilisation de tranches spécifiquement conçues pour absorber le trop-plein des tranches principales.
  3. Tranches hiérarchisées : Système où les tranches sont organisées en niveaux de priorité, permettant un « débordement » structuré.
  4. Tranches dynamiques : Création à la volée de nouvelles instances de tranches pour répondre aux pics de demande.

Le processus de redirection est généralement transparent pour l’utilisateur, qui continue à bénéficier du service sans percevoir le changement de tranche sous-jacent. Cette transparence est essentielle pour maintenir une expérience utilisateur.

Politiques de Priorité et Préemption

Les mécanismes de priorité et préemption constituent une autre approche importante :

  1. Niveaux de priorité des UE : Attribution de niveaux de priorité différents aux utilisateurs en fonction de leur type d’abonnement ou de leur rôle (services d’urgence, infrastructures critiques, etc.).
  2. Préemption contrôlée : Possibilité de libérer des ressources en réduisant le service alloué à des connexions de moindre priorité.
  3. Dégradation gracieuse : Réduction progressive de la qualité de service pour accommoder plus d’utilisateurs plutôt que de refuser totalement l’accès.
  4. Quotas garantis : Réservation de ressources minimales pour chaque niveau de priorité, assurant qu’un service de base reste disponible même en cas de congestion.

Ces mécanismes permettent d’assurer que les services les plus critiques restent disponibles même dans des conditions de ressources limitées, tout en maximisant le nombre d’utilisateurs pouvant accéder au réseau.

Stratégies de Partage de Ressources

Le partage intelligent des ressources entre tranches constitue également une stratégie efficace :

  1. Partage dynamique : Allocation flexible des ressources entre tranches en fonction de l’utilisation réelle plutôt que de réservations statiques.
  2. Mutualisation conditionnelle : Possibilité pour une tranche d’utiliser temporairement les ressources inutilisées d’une autre tranche.
  3. Isolation garantie avec débordement : Maintien d’un niveau d’isolation entre tranches pour la qualité de service, tout en permettant un débordement contrôlé en cas de besoin.
  4. Adaptation temporelle : Modification des allocations de ressources en fonction des variations prévisibles de la demande (heures de pointe, événements spéciaux, etc.).

Ces stratégies permettent d’optimiser l’utilisation globale des ressources du réseau tout en préservant les caractéristiques essentielles de chaque tranche.

Défis et Perspectives d’Évolution

Défis Actuels dans l’Implémentation du NSACF

Malgré ses avantages significatifs, le NSACF et les mécanismes associés font face à plusieurs défis :

  1. Complexité algorithmique : Développer des algorithmes de décision efficaces qui équilibrent multiples facteurs tout en prenant des décisions en temps réel.
  2. Cohérence multi-domaines : Assurer une cohérence des décisions d’admission lorsque les services traversent plusieurs domaines ou opérateurs.
  3. Prédiction de charge précise : Améliorer la précision des prévisions de charge pour des décisions proactives plutôt que réactives.
  4. Équité vs optimisation : Trouver le juste équilibre entre l’optimisation des ressources et l’équité d’accès entre différentes catégories d’utilisateurs.
  5. Diversité des métriques : Intégrer une multitude de métriques hétérogènes dans le processus de décision (bande passante, latence, fiabilité, etc.).
  6. Transparence pour l’utilisateur : Gérer les redirections et adaptations de service de manière transparente pour préserver l’expérience utilisateur.
  7. Conformité aux SLA : Garantir que les décisions d’admission respectent les engagements contractuels pris envers les clients.

Évolutions Attendues dans les Futures Releases

Les prochaines évolutions du 3GPP devraient apporter des améliorations significatives au NSACF et aux mécanismes associés :

  1. Intégration accrue avec l’IA et le ML : Utilisation d’algorithmes d’intelligence artificielle et de machine learning pour optimiser dynamiquement les décisions d’admission.
  2. Automatisation avancée : Évolution vers des réseaux auto-optimisants où les paramètres du NSACF s’ajustent automatiquement en fonction des conditions.
  3. Harmonisation inter-opérateurs : Standardisation accrue des interfaces permettant une meilleure coordination entre NSACF de différents opérateurs.
  4. Granularité plus fine : Passage d’une gestion au niveau des tranches à une gestion au niveau des flux ou des sessions individuelles.
  5. Intégration MEC (Multi-access Edge Computing) : Prise en compte de la localisation des ressources de computing edge dans les décisions d’admission.
  6. Mécanismes de réservation anticipée : Possibilité de réserver des ressources pour des événements planifiés ou des services critiques.
  7. Différenciation contextuelle : Adaptation des critères d’admission en fonction du contexte (localisation, type d’appareil, application, etc.).

Impact sur les Futurs Services et Applications

Ces évolutions du NSACF auront un impact significatif sur le développement des services  6G :

  1. Support de garanties de QoS plus strictes : Permettra l’émergence d’applications critiques nécessitant des garanties de service très strictes.
  2. Personnalisation accrue des services : Facilitera la création de services hautement personnalisés avec des caractéristiques réseau sur mesure.
  3. Efficacité énergétique : Contribuera à l’optimisation de la consommation énergétique des réseaux par une allocation plus efficiente des ressources.
  4. Extension aux environnements non-terrestres : Adaptation des mécanismes pour les réseaux satellitaires et autres environnements non-terrestres.
  5. Convergence fixe-mobile : Facilitation de l’intégration transparente entre réseaux fixes et mobiles grâce à des mécanismes d’admission harmonisés.
  6. Virtualisation extrême : Support de modèles où presque toutes les fonctions réseau sont virtualisées et dynamiquement reconfigurables.
  7. Applications distribuées complexes : Facilitation du déploiement d’applications distribuées utilisant simultanément plusieurs tranches avec différentes caractéristiques.

Ces évolutions ouvrent la voie à une nouvelle génération de services numériques où les caractéristiques réseau deviennent une ressource flexible et programmable, s’adaptant dynamiquement aux besoins spécifiques de chaque application.

Conclusion

En passant d’une allocation relativement statique des ressources à une approche dynamique et contextuelle, le NSACF apporte de la flexibilités et de l’adaptabilité sur l’allocation des ressources afin de garantir :

  • une optimisation de l’utilisation des ressources
  • une meilleure garantie de la qualité de service
  • un support plus efficace de la diversification des services
  • une capacité à gérer des pics de demande sans dégradation majeure de l’expérience utilisateur.

Même lorsqu’un équipement utilisateur se voit refuser l’accès à une tranche spécifique, les mécanismes de redirection, priorisation et adaptation permettent dans la plupart des cas de maintenir la continuité du service. Cette capacité à équilibrer l’admission aux tranches tout en préservant l’expérience utilisateur est le rôle principal de cette fonction.

Les défis actuels et les évolutions futures du NSACF s’inscrivent dans une tendance plus large vers des réseaux toujours plus intelligents, automatisés et adaptables. L’intégration progressive de l’intelligence artificielle, de l’analyse prédictive et de mécanismes d’auto-optimisation ouvre la voie à des réseaux capables de s’adapter en temps réel à des besoins en constante évolution pour transformer les réseaux de simples canaux de communication en plateformes de services intelligentes où les caractéristiques réseau deviennent des ressources programmables au service de l’innovation numérique.

 

Références

 

  • 3GPP TR 23.700-91, « Study on enablers for Network Automation for 5G », 2020-2021
  • 3GPP TS 23.501, « System Architecture for the 5G System; Stage 2 », v17.0.0, 2021
  • 3GPP TS 28.552, « Management and orchestration; 5G performance measurements », v17.2.0, 2021
  • Ericsson, « 5G Network Slicing: Ensuring end-to-end performances », Ericsson Technology Review, 2020
  • Nokia Bell Labs, « Dynamic Resource Allocation in 5G Network Slicing », Nokia White Paper, 2019
  • Huawei, « 5G Network Slicing Whitepaper », 2020
  • ZTE, « Network Slicing and Resource Management in 5G Networks », ZTE Communications, vol. 17, no. 2, 2019

 

Comprendre le concept du modèle ML/IA – Le cycle de vie (TR28.908)

Le cycle de vie d’un modèle IA en 5G

À partir du document 3GPP TR 28.908 version 18.0.0 Release 18 « Study on Artificial Intelligence/Machine Learning (AI/ ML) management », cet article présente le cycle de vie d’un modèle IA.

Après avoir traduit le document TR 28.908, je propose une explication de quelques lignes.

Entraînement du modèle ML

Traduction : L’entraînement d’un modèle ML ou d’un groupe de modèles ML en phase de production a pour objectif d’évaluer ses performances lorsqu’il traite les données d’entraînement et les données de validation. Si le résultat de validation ne répond pas aux attentes (par exemple, si la variance n’est pas acceptable), le modèle ML doit être réentraîné.

C’est la première phase où l’on nourrit le modèle avec des données pour qu’il apprenne des motifs et des relations. La validation intervient pendant cette phase pour vérifier si le modèle apprend correctement, sans surapprentissage ni sous-apprentissage.

Test du modèle ML

Traduction : test d’un modèle ML validé pour évaluer les performances du modèle entraîné lorsqu’il traite des données de test. Si le résultat du test répond aux attentes, le modèle ML peut passer à l’étape suivante. Si le résultat du test ne répond pas aux attentes, le modèle ML doit être ré-entraîné.

Explication : après l’entraînement et la validation, on teste le modèle avec des données qu’il n’a jamais vues pour confirmer qu’il généralise bien ses apprentissages. Cette phase détermine si le modèle est prêt pour le déploiement réel.

Émulation d’inférence IA/ML

Traduction : Exécution d’un modèle ML pour l’inférence dans un environnement d’émulation. L’objectif est d’évaluer les performances d’inférence du modèle ML dans cet environnement avant de l’appliquer au réseau ou système cible. Si le résultat de l’émulation ne répond pas aux attentes (par exemple, si les performances d’inférence n’atteignent pas l’objectif, ou si le modèle ML impacte négativement les performances d’autres fonctionnalités existantes), le modèle ML doit être ré-entraîné.

NOTE : L’émulation d’inférence IA/ML est considérée comme optionnelle et peut être ignorée dans le cycle de vie du modèle ML.

Explication : cette étape simule l’utilisation du modèle dans des conditions réelles, mais dans un environnement contrôlé. On vérifie la vitesse, la fiabilité et l’impact du modèle sur les systèmes existants avant de risquer un déploiement en production.

Déploiement du modèle ML

Traduction : le déploiement du modèle ML comprend le processus de chargement du modèle ML (également appelé séquence d’actions atomiques) pour rendre un modèle ML entraîné disponible pour utilisation par la fonction d’inférence IA/ML cible.

Le déploiement du modèle ML peut ne pas être nécessaire dans certains cas, par exemple lorsque la fonction d’entraînement et la fonction d’inférence sont co-localisées.

Explication : C’est l’étape où le modèle est installé dans l’environnement de production. Cela peut impliquer des transformations du modèle, des optimisations ou des intégrations avec d’autres systèmes.

Inférence IA/ML

Traduction : Réalisation d’inférences en utilisant un modèle ML entraîné par la fonction d’inférence IA/ML. L’inférence IA/ML peut également déclencher un réentraînement ou une mise à jour du modèle basée, par exemple, sur la surveillance et l’évaluation des performances.

NOTE : Selon l’implémentation du système et les arrangements de fonctionnalités IA/ML, les étapes d’émulation d’inférence IA/ML et de déploiement ML peuvent être ignorées.

Explication : C’est l’utilisation proprement dite du modèle en production pour générer des prédictions ou des décisions sur de nouvelles données. À cette étape, le modèle peut être configuré pour signaler quand ses performances se dégradent, ce qui déclencherait un nouveau cycle d’entraînement.

En résumé, ces étapes décrivent le cycle de vie complet d’un modèle d’apprentissage automatique, de sa création à son déploiement en production, avec des points de contrôle et de validation à différentes étapes pour garantir sa qualité et son efficacité.

Figure 1 : extraite de Sharetechnote https://www.sharetechnote.com/html/5G/5G_AI_ML.html

 

 

 

 

 

 

 

MSISDN-less MO SMS

Introduction

MSISDN-less MO SMS est un service qui permet à un appareil sans numéro de téléphone classique (MSISDN-less), comme un objet connecté, d’envoyer un SMS vers un serveur applicatif via le NEF, en utilisant des identifiants alternatifs comme le GPSI. Il faut que cet appareil ait un abonnement spécifique, et le réseau ne stocke pas le SMS s’il ne peut pas être délivré immédiatement.

Description

Nous allons commencer par expliquer les termes de ce service :

  • MO SMS signifie Mobile Originated SMS, c’est-à-dire un SMS envoyé depuis le terminal mobile (UE – User Equipment).
  • MSISDN-less veut dire qu’il n’y a pas de numéro de téléphone classique (le MSISDN) associé à l’envoi du SMS. Ça veut dire que l’UE (le terminal) envoie un SMS sans s’identifier avec un numéro de téléphone mobile, mais plutôt via d’autres identifiants, comme le GPSI ou l’IMSI.

👉 Ce service est souvent utile pour des objets IoT (Internet of Things) ou des appareils qui n’ont pas de numéro de téléphone traditionnel.

La souscription au service :

  • Avant de pouvoir envoyer ce genre de SMS, l’UE doit avoir un abonnement spécifique (subscription) dans le réseau.
  • Ce sous-service indique au réseau si l’UE est autorisé ou non à envoyer ce type de SMS MSISDN-less.

Service Centre Address & SMS-SC :

  • L’UE est préconfiguré avec l’adresse d’un Service Centre (SC) spécifique.
  • Ce SC est en fait un SMS-SC (Short Message Service – Service Centre), qui s’occupe de prendre en charge et d’acheminer le SMS envoyé par l’UE.
  • Ici, ce SMS-SC travaille avec le NEF pour délivrer le SMS.

NEF & AF :

  • NEF (Network Exposure Function) est une passerelle dans l’architecture du réseau 5G. C’est lui qui expose des services réseau aux applications externes (AF – Application Function).
  • Dans ce cas, le NEF sert à transporter le SMS vers une destination prédéfinie, qui est une Application Function (AF).

👉 L’adresse du destinataire du SMS (SME – Short Message Entity) est pré-configurée dans le terminal.

Les identifiants GPSI et IMSI 

  • Le GPSI (Generic Public Subscription Identifier) est une identité publique, un peu comme le MSISDN, mais qui peut prendre différentes formes (adresse e-mail, identifiant SIP…).
  • Si l’UE a plusieurs GPSI associés au même IMSI (l’identité internationale d’abonné), alors on utilise une valeur spécifique (Application Port ID) présente dans le SMS pour savoir quel GPSI est concerné.
  • Le NEF peut interroger le UDM (User Data Management) avec l’IMSI + le port d’application pour retrouver le bon GPSI.

Delivery & Reporting :

  • Le terminal (UE) sait si son SMS est délivré ou pas, grâce à un rapport de livraison qui lui est renvoyé par le SMS-SC.
  • Par contre, il n’y a pas de fonction de « store and forward » pour ces SMS.

👉 Ça veut dire que si l’AF n’est pas dispo pour recevoir le message au moment de l’envoi, le réseau ne le stocke pas pour le retenter plus tard.

Pour aller plus loin : TS 23.502 :

Le TS 23.502 décrit les services du réseau 5G, on trouve une description plus complète du fonctionnement du NEF, de ses services et opérations, notamment comment il expose les SMS aux AF.

 

Comprendre le concept du modèle ML/IA – Sur le CN

Cet article reprend une partie des fonctionnalités déjà détaillées pour le NWDAF

Intégration de l’IA/ML dans le cœur 5G

La nouveauté majeure introduite dans la Release 15 du 3GPP est le Network Data Analytics Function (NWDAF), qui fournit divers résultats d’analyse pour soutenir un ensemble de cas d’utilisation.

Le NWDAF héberge différents algorithmes d’IA/ML alimentés par des données provenant de diverses fonctions réseau NF (Network Function). Il produit des résultats d’analyse spécifiques qui peuvent être consommés (en référence à l’architecture SBA ou les fonctions sont productrives ou consommatrices) par différentes fonctions réseau. Les exemples d’applications incluent:

  • La prédiction des modèles de trafic pour optimiser le nombre d’instances UPF déployées
  • La prévision de la mobilité des utilisateurs
  • L’optimisation dynamique des ressources réseau

Les capacités IA/ML du NWDAF incluent des algorithmes de prédiction, des capacités d’IA générative, et des techniques de clustering.

Approches d’apprentissage pour les modèles IA/ML

Avec la disponibilité de volumes importants de données provenant de différentes sources à différents endroits, l’entraînement des modèles IA/ML peut adopter diverses approches:

  1. Apprentissage centralisé: Les modèles sont entraînés dans un emplacement centralisé avec des données agrégées.
  2. Apprentissage fédéré: L’entraînement se produit en continu dans différentes parties du réseau. Les modèles sont entraînés sur des nœuds locaux avec des sources de données locales et mis à jour par un modèle global entraîné dans un emplacement centralisé avec des sources de données agrégées. On distingue l’apprentissage fédéré horizontal et verticale (R.19)
  3. Approches alternatives: D’autres méthodes d’apprentissage distribuées peuvent être employées selon les cas d’utilisation spécifiques.

L’apprentissage fédéré améliore l’évolutivité, la sécurité et la précision en adaptant le modèle IA/ML aux données uniques spécifiques à chaque emplacement.

On distingue l’apprentissage fédéré horizontal (gauche Figure 1) et l’apprentissage fédérée verticale (droite Figure 1)

Figure 1 : Horizontal Federated Learning HFL (gauche) et Vertical Federated Learning  VFL (droite)

Dans le cas du HFL, on alimente deux ML qui ont les mêmes caractéristiques avec des données complémentaires. Par exemple, deux opérateurs peuvent apporter un profil de leurs clients pour augmenter les données;

Dans le cas du VFL, on alimente deux ML avec des données complémentaires. Par exemple, on peut s’intéresser pour un client donnée de ses états MM et on complète par les états CM

Gestion de réseau assistée par IA pour le cœur du réseau

Orchestration et provisionnement automatisés

  • Orchestration: L’IA/ML peut aider à automatiser les processus de provisionnement et à optimiser l’allocation des ressources pour diverses fonctions réseau.
  • Détection d’erreurs de provisionnement: Les algorithmes d’IA/ML peuvent détecter les erreurs de provisionnement de manière automatisée, permettant des corrections proactives.
  • Analyse des journaux de trafic: L’analyse GenAI des journaux de trafic, qui comprend un mélange de données non structurées et structurées, peut indiquer des défaillances potentielles, y compris la prédiction des défaillances et aider à identifier les causes profondes.
  • Détection des failles de sécurité: Les violations de sécurité potentielles peuvent être détectées via des algorithmes d’IA/ML, aidant à décider de manière proactive de l’atténuation appropriée.

Amélioration de l’efficacité opérationnelle

Dans l’OSS/BSS, l’IA/ML et l’IA générative peuvent améliorer considérablement l’efficacité opérationnelle et l’expérience client:

  • Gestion de l’expérience client: Les chatbots pilotés par l’IA peuvent gérer les requêtes courantes des clients.
  • Facturation et assurance des revenus: La prédiction du taux d’abandon (churn predicting) basée sur l’IA/ML peut grandement bénéficier à ces domaines pour estimer à quel moment un client arrête le service demandé..
  • Planification réseau: La planification réseau peut être soutenue par des techniques de prévision de trafic basées sur l’IA/ML.

En cas de défaillance, la gestion centralisée de plusieurs agents permet d’analyser différentes pistes afin de trouver la cause réelle de la panne. Par exemple, un appel VoNR qui s’arrête peut provenir de plusieurs causes : coupure radio, restauration du P-CSCF, TAS en erreur, routage erroné, … Les outils comme Agentic.ia va explorer les différents log et si un prestataire doit être contacté, l’outil peut générer le ticket client.

Network Data Analytics Function (NWDAF)

Introduction et évolution du NWDAF

Le NWDAF a été introduit à l’origine dans la Release 15 du 3GPP comme mécanisme pour rapporter des insights sur le fonctionnement du réseau. Ces insights peuvent ensuite être utilisés par d’autres fonctions pour réaliser une automatisation en boucle fermée afin d’améliorer le fonctionnement du réseau.

On appelle insight des connaissances exploitables ou des résultats d’analyse dérivés des données du réseau. Ces insights peuvent concerner par exemple les modèles de trafic, le comportement des utilisateurs, ou les performances du réseau, et sont utilisés par d’autres fonctions du réseau pour optimiser leur fonctionnement.

Le NWDAF réalise cela en:

  • Collectant et agrégeant des données de différentes parties du réseau cœur
  • Analysant ces données pour identifier des modèles et générer des prédictions via des algorithmes statistiques et basés sur le ML (y compris le DL)
  • Respectant la confidentialité lors de la collecte de données, permettant aux utilisateurs de choisir de participer ou non à la collecte de données

Intégration avec d’autres fonctions réseau

Le NWDAF s’intègre avec d’autres fonctions réseau via une interface basée sur les services (SBI). Cette intégration permet à d’autres fonctions réseau de devenir des abonnés aux événements générés par le NWDAF et d’influencer le fonctionnement du réseau cœur en consommant ces événements.

Toute fonction réseau conforme au 3GPP, fonction d’application (AF) ou opération, administration et maintenance (OAM) devrait pouvoir utiliser les services d’analyse activés par le NWDAF en tant que consommateur pour prendre des décisions basées sur l’analyse dans le cadre de leurs procédures réseau.

Cas d’utilisation et services d’analyse

Différents cas d’utilisation ont été implémentés et pris en charge dans le NWDAF dans un environnement multi-fournisseurs. Le NWDAF de la version 16 de la spécification technique 29.520 [2] du 3GPP prend en charge les services d’analyse définis dans la TS 23.288 [1]:

  1. Analytique de charge de tranche réseau
  2. Analytique d’expérience de service
  3. Analytique de charge de fonction réseau
  4. Analytique de performance réseau
  5. Analytique de comportement anormal/attendu de l’UE
  6. Analytique de mobilité de l’UE
  7. Analytique de communication de l’UE
  8. Analytique de congestion des données utilisateur
  9. Analytique de durabilité de la QoS

Apprentissage fédéré dans le NWDAF

Le document détaille comment le NWDAF a évolué pour inclure des capacités d’apprentissage fédéré:

  • Release 17: Le NWDAF a acquis la capacité d’effectuer un apprentissage fédéré horizontal (HFL), souvent simplement appelé apprentissage fédéré. Le HFL est une technique de ML préservant la confidentialité qui permet un entraînement de modèle collaboratif entre différentes zones d’intérêt.
  • Fonctionnement du HFL: Chaque zone d’intérêt entraîne son modèle localement en utilisant le NWDAF le plus proche, et l’apprentissage collectif de plusieurs zones est ensuite agrégé via une fonction centrale sur le serveur NWDAF. Le processus est qualifié d' »horizontal » car chaque participant a le même espace de caractéristiques mais des échantillons différents.
  • Avantages du HFL: Cette approche réduit le volume de données transférées sur le SBI, car seuls les paramètres neuronaux—améliorés par des protocoles préservant la confidentialité comme l’agrégation sécurisée—sont transmis, plutôt que les données brutes. La réduction du volume de données peut être encore améliorée via l’utilisation de techniques comme la distillation de connaissances, la quantification et l’élagage des paramètres neuronaux.
  • Release 18: La Release 18 a introduit l’apprentissage fédéré et le transfert de modèle de machine learning entre différents domaines administratifs, comme les réseaux mobiles connectés par des accords d’itinérance, étendant davantage le cycle de vie des modèles initialement déployés dans le NWDAF.
  • Release 19: La Release 19 introduit l’apprentissage fédéré vertical (VFL) dans le NWDAF entre les NWDAF et les fonctions d’application. Le VFL offre plusieurs améliorations par rapport au HFL:
    • Chaque participant peut avoir sa propre architecture de réseau neuronal
    • Chaque participant peut avoir son propre espace de caractéristiques
    • Les nouvelles données, comme celles collectées dans les fonctions d’application, peuvent être utilisées en combinaison avec le réseau cœur pour entraîner de meilleurs modèles ML
  • Applications du VFL: Des cas d’utilisation comme la prédiction de QoS utilisant l’entrée des fonctions d’application sont en cours de développement et bénéficient du VFL. Notamment, le VFL est introduit comme une extension de l’apprentissage fédéré, ce qui signifie que les cas d’utilisation existants peuvent également bénéficier de cette nouvelle fonctionnalité.

Fonctionnement du VFL vs HFL

Dans le VFL, le modèle ML est divisé en modèle de tête et modèle de queue. Le processus d’entraînement VFL implique:

  1. La propagation vers l’avant commence sur les modèles des Clients A et B
  2. Leurs activations sont communiquées au modèle de queue où elles sont concaténées
  3. Le modèle de queue effectue une propagation vers l’avant et calcule la perte en utilisant des étiquettes locales
  4. La rétropropagation commence et les dérivées partielles sont envoyées aux modèles de tête correspondants
  5. Chaque client effectue sa propre rétropropagation
  6. Le processus se poursuit avec plusieurs itérations jusqu’à ce que toutes les données aient été traitées

Du point de vue du 3GPP, HFL et VFL sont deux approches pour apprendre un modèle collaborativement sans partager de données. Ils sont spécifiés de manière agnostique au processus de HFL ou VFL, considérant plutôt une architecture client-serveur et la capacité de chaque nœud à prendre en charge HFL ou VFL et potentiellement d’autres techniques qui pourraient être introduites à l’avenir.

Gestion du cycle de vie et flux de travail dans le NWDAF

Les procédures introduites dans le NWDAF pour prendre en charge l’apprentissage automatique permettent la gestion du cycle de vie des modèles IA/ML dans le réseau cœur. La gestion du cycle de vie des modèles IA/ML est le processus ou l’ensemble de tâches nécessaires pour entraîner, mettre à jour et maintenir un modèle d’apprentissage automatique.

En raison de la nature basée sur les données des modèles d’apprentissage automatique, la gestion du cycle de vie des modèles IA/ML est essentielle car elle assure la reproductibilité de l’apprentissage automatique lorsqu’ils quittent l’environnement de science des données et passent en production.

La gestion du cycle de vie des modèles aborde des problèmes tels que:

  • Comment entraîner et déployer un modèle à grande échelle
  • La gouvernance, la qualité et la conformité des données
  • La supervision du processus d’entraînement via des pipelines de traitement de données
  • Les mécanismes pour se connecter aux sources de données et prétraiter les données

Le rôle de l’IA générative dans le cœur du paquet et les systèmes BSS/OSS

Amélioration du traitement des données

Le document explique que l’IA générative peut améliorer significativement le traitement et l’analyse des données dans les réseaux cœur et le NWDAF, ainsi que les systèmes OSS/BSS:

  • Génération de données synthétiques: L’IA générative peut générer des données synthétiques pour compenser les lacunes ou enrichir les ensembles de données avec des informations limitées. Cela réduit le besoin de collecte extensive de données, ce qui diminue les coûts de communication et améliore la confidentialité lors du traitement de données sensibles.
  • Jumeaux numériques: Dans le contexte du NWDAF, l’IA générative peut aider à créer des jumeaux numériques de fonctions réseau NF, permettant la simulation de divers scénarios. Par exemple, elle peut modéliser des conditions futures potentielles comme l’augmentation du trafic réseau et prédire leur impact sur des KPI comme la latence, le débit et la consommation d’énergie, tout en tenant compte de la durabilité.

Transformation des systèmes BSS/OSS

Les systèmes BSS/OSS, cruciaux pour soutenir les opérations et les fonctions commerciales d’un opérateur de télécommunications, peuvent grandement bénéficier de l’IA générative:

  • Évolution des systèmes: Traditionnellement, les systèmes BSS/OSS s’appuyaient sur des requêtes SQL pour récupérer des données des bases de données. Cependant, avec l’avènement du big data, ces systèmes ont évolué pour incorporer l’IA et l’analytique avancée pour des insights plus profonds dans les opérations réseau.
  • Capacités des LLM: L’IA générative, particulièrement les grands modèles de langage (LLM), offre de nouvelles capacités. Par exemple, les LLM peuvent traduire le langage naturel en requêtes SQL, rendant l’accès à l’information plus intuitif et éliminant le besoin d’une connaissance intriquée des schémas de base de données.
  • Analyse de données améliorée: Les LLM peuvent améliorer l’analyse de données au sein des systèmes BSS/OSS grâce à des techniques comme la génération augmentée par récupération ou le fine-tuning, leur permettant d’intégrer les résultats avec des connaissances supplémentaires et de fournir des insights plus complets.

Applications pratiques

L’intégration des LLM dans les systèmes BSS/OSS promet des avantages significatifs pour les réseaux mobiles:

  • Automatisation du dépannage: Les LLM peuvent être utilisés pour automatiser les processus de dépannage en exploitant les informations des tickets précédemment résolus pour la gestion du réseau.
  • Service client: Les LLM peuvent agir comme un assistant virtuel infatigable fournissant une aide directe aux abonnés, améliorant l’expérience utilisateur et réduisant la charge sur le support client humain.
  • Cybersécurité: Les LLM peuvent être utilisés pour générer de nouvelles attaques dans les réseaux mobiles, qui peuvent ensuite être utilisées pour développer des mécanismes de défense qui préviennent de telles attaques, renforçant la posture de sécurité globale.

Ces applications démontrent le potentiel transformateur de l’IA générative dans les opérations de réseau cœur et les systèmes BSS/OSS, conduisant à une efficacité opérationnelle accrue, une meilleure expérience client et une sécurité renforcée.

Processus de bout en bout pour le déploiement de l’IA dans les réseaux

Le document souligne que l’IA/ML peut être utilisée pour optimiser le fonctionnement de divers segments des réseaux cellulaires. Pour y parvenir, les processus d’entraînement de l’IA/ML et les moteurs d’inférence doivent être intégrés dans les différents segments des réseaux cellulaires et pris en charge pour la gestion de leur cycle de vie.

Réseaux pilotés par l’intention et IA

L’IA joue un rôle crucial dans les réseaux pilotés par l’intention, où elle et l’approche basée sur l’intention se renforcent mutuellement:

  • L’IA aide à éliminer les goulets d’étranglement dans l’implémentation des intentions, tandis que les réseaux basés sur l’intention simplifient l’exécution des politiques d’IA, réduisant le besoin d’API traditionnelles.
  • Les réseaux pilotés par l’intention représentent un changement de paradigme vers une approche de gestion de réseau plus dynamique et adaptative. Ils se concentrent sur la traduction d’objectifs commerciaux de haut niveau en politiques et configurations réseau exploitables.

L’IA améliore les réseaux pilotés par l’intention de plusieurs façons:

  1. Décisions contextuelles: L’IA améliore les réseaux pilotés par l’intention en permettant une prise de décision contextuelle. Elle aide à traduire les intentions commerciales en actions réseau en analysant les données en temps réel et en adaptant les politiques réseau pour s’aligner avec des objectifs spécifiques.
  2. Automatisation et optimisation: L’automatisation pilotée par l’IA facilite l’implémentation de politiques basées sur l’intention à travers le réseau. Elle optimise les ressources et la performance réseau basées sur des intentions commerciales prédéfinies, réduisant l’intervention manuelle et améliorant l’efficacité opérationnelle.
  3. Évolutivité et flexibilité: L’évolutivité de l’IA lui permet de s’adapter à divers environnements et intentions réseau. Que ce soit dans le Cloud RAN, l’Open RAN ou le RAN traditionnel, l’IA peut être exploitée pour interpréter et exécuter les intentions réseau, assurant que le réseau évolue en réponse aux besoins commerciaux et conditions opérationnelles changeants.

Gestion du cycle de vie (LCM) des modèles d’IA

Une gestion efficace du cycle de vie des modèles d’IA est cruciale pour assurer la performance optimale des modèles d’IA/ML afin d’apporter plus d’adaptabilité dans les architectures réseau modernes. Cela implique plusieurs processus et méthodologies clés.

Collecte et préparation des données

Les modèles d’IA sont fondamentalement pilotés par les données, faisant de la collecte de données une première étape critique dans leur développement:

  • Pour créer des modèles d’IA efficaces, il est essentiel de recueillir des données extensives de divers éléments réseau, y compris RAN, le coeur du réseaux et les applications.
  • Ces données englobent le comportement utilisateur, les modèles de trafic et les métriques de performance réseau.
  • La qualité et l’efficacité des résultats de l’IA dépendent de l’accès à des données amples, à jour et anonymisées pour l’entraînement.
  • Les données brutes contiennent souvent des erreurs ou des valeurs manquantes qui doivent être nettoyées et formatées pour permettre aux modèles d’IA d’apprendre avec précision et efficacité.

Sélection et entraînement des modèles

Après la phase de préparation des données, la sélection d’un modèle d’IA approprié est cruciale:

  • Le choix du modèle influence significativement la performance dans la reconnaissance de modèles et la précision de prédiction.
  • Le modèle doit s’aligner avec le problème spécifique à adresser.
  • Une fois le modèle et les données préparés, le processus d’entraînement peut commencer en utilisant les données traitées.
  • Les algorithmes d’IA/ML doivent être entraînés pour comprendre les comportements sous-jacents du réseau ou d’environnements similaires.
  • Des barrières de protection et des mécanismes de surveillance adéquats assurent que le réseau opère dans les paramètres attendus, maintenant la stabilité et la performance.

Évaluation, validation et déploiement

Après l’entraînement, le modèle subit une évaluation et une validation:

  • Cette étape détermine si un développement supplémentaire est nécessaire, pouvant impliquer l’ajustement fin du modèle, l’optimisation des paramètres et le réentraînement pour améliorer la précision.
  • Ce processus itératif est essentiel pour affiner le modèle et améliorer sa performance.
  • Les modèles d’IA sont développés en utilisant à la fois des données historiques et en temps réel pour aborder des tâches spécifiques comme la gestion du trafic, l’équilibrage de charge ou la maintenance prédictive.
  • Les ressources basées sur le cloud sont communément utilisées pour l’entraînement en raison de leur évolutivité et puissance de calcul, cruciales pour gérer de larges ensembles de données et des modèles complexes.
  • Une fois le développement du modèle terminé, il est déployé et utilisé pour l’inférence, où le modèle est appliqué aux données réseau actuelles pour effectuer des tâches comme la détection d’anomalies ou l’optimisation du trafic.
  • Une allocation efficace des ressources est vitale pour les tâches d’inférence, exploitant les ressources distribuées dans le Cloud RAN ou l’architecture modulaire de l’Open RAN pour assurer un traitement efficace des tâches d’inférence, réduisant la latence et améliorant la performance globale.

 

Conclusion et perspectives futures

La section 3 conclut en soulignant l’importance croissante de l’IA dans les réseaux cœur, OSS/BSS et la gestion réseau. Elle suggère que l’avenir verra une intégration encore plus profonde de l’IA, particulièrement de l’IA générative, dans ces systèmes.

Références

[1] TS 23.288 : Architecture enhancements for 5G System (5GS) to support network data analytics services : https://www.3gpp.org/ftp/Specs/archive/23_series/23.288/23288-j10.zip

[2] TS 29.520 : 5G System; Network Data Analytics Service, https://www.3gpp.org/ftp/Specs/archive/29_series/29.520/29520-j10.zips; Stage 3

Comprendre le concept du modèle ML/IA – Sur le RAN – Partie 3

L’IA dans les différentes architectures RAN (D-RAN/C-RAN/O-RAN)

Nous allons dans cet article présenter plus spécifiquement le rôle de l’IA dans trois architectures RAN principales: le RAN traditionnel, le Cloud RAN et l’Open RAN.

L’intégration et l’impact de l’IA dans ces différentes architectures réseau présentent des potentiels variables pour améliorer les performances, l’évolutivité et l’adaptabilité des réseaux. Chaque architecture offre des opportunités et des contraintes distinctes pour l’utilisation de l’IA.

L’IA dans le RAN traditionnel

Caractéristiques et avantages

  • Les architectures RAN traditionnelles sont dites de conception monolithique. L’environnement est  stable et optimisé pour l’IA
  • Cette architecture répond efficacement aux exigences strictes de latence

Limitations

  • La structure rigide rend difficile l’adaptation rapide aux nouvelles innovations en IA
  • Les contraintes liées aux systèmes propriétaires d’un seul fournisseur peuvent limiter l’intégration et la mise à jour des modèles d’IA
  • L’adaptabilité aux technologies émergentes est restreinte.

L’intégration ciblée du RAN traditionnel permet d’apporter des améliorations réseau, mais le manque de flexibilité conduit à des limitations.

L’IA dans le Cloud RAN

Architecture

  • Le Cloud RAN (C-RAN) désagrège le matériel et le logiciel
  • Il déploie les fonctions réseau sous forme de fonctions réseau virtualisées (VNF) dans un environnement COTS (Commercial Off-The-Shelf)
  • Cette configuration permet un traitement centralisé et une gestion flexible des ressources
  • Cette architecture est particulièrement adaptée à l’intégration de l’IA

Capacités d’IA

  • Inférence en temps réel et quasi-temps réel: L’architecture centralisée permet une inférence IA efficace, supportant l’optimisation et la gestion du réseau basées sur l’analyse de données extensives
  • Adaptation dynamique: La virtualisation des modèles d’IA et leur allocation dans des schémas centralisés ou distribués selon la couche ou le cas d’utilisation améliorent le comportement dynamique du réseau
  • Capture de modèles localisés: Les unités distribuées permettent de capturer des modèles et comportements plus localisés dans le réseau

Cette flexibilité du Cloud RAN offre de nombreuses possibilités d’optimisation et d’amélioration des performances en réponse aux données et prédictions en temps réel, améliorant l’allocation des ressources et l’expérience utilisateur.

L’IA dans l’Open RAN

Architecture

  • L’Open RAN (O-RAN) présente également une désagrégation matériel-logiciel comme le Cloud RAN
  • Il se distingue par ses interfaces ouvertes et ses composants standardisés permettant une plus grande interopérabilité
  • Le Contrôleur Intelligent RAN (RIC) sert de plateforme centralisée pour la gestion et l’optimisation des performances réseau via l’IA
  • Il supporte des applications en temps réel et non-temps réel, améliorant l’adaptabilité du réseau

Organisation et contrôle dans l’O-RAN

  • Le RIC non-RT fait partie du framework SMO (Session Management and Orchestration) et supporte les rAPPs contenant des algorithmes IA/ML
  • Le RIC near-RT réside dans le cloud télécoms régional ou de périphérie et active l’optimisation réseau via les xAPPs
  • La release « Cherry » de l’alliance O-RAN (janvier 2021) standardise les frameworks IA/ML dans l’écosystème O-RAN
  • L’architecture SMO découplée supporte une entité de gestion de flux de travail IA/ML pour assister les fonctions RIC

Capacités d’IA

  • Interopérabilité accrue: La conception modulaire et ouverte facilite les capacités d’IA natives
  • Déploiement d’IA évolutif: L’architecture flexible permet d’appliquer l’IA à des fonctionnalités individuelles, des systèmes ou l’ensemble du réseau

Illustration de l’interaction de l’IA dans les architectures RAN

  • Dans le RAN intégré: Application de l’IA directement aux fonctions critiques comme la formation de faisceaux, l’ordonnancement, et la gestion du spectre
  • Dans le Cloud et Open RAN: Utilisation de l’IA à travers des couches multiples avec différents types de boucles de contrôle (temps réel, proche temps réel, et non-temps réel)

Conclusion

  • Le RAN traditionnel offre stabilité et performances optimisées mais avec une flexibilité limitée
  • Le Cloud RAN permet une centralisation et une flexibilité accrues, idéales pour l’inférence IA en temps réel sur de grandes quantités de données
  • L’Open RAN, avec ses interfaces ouvertes et son architecture modulaire, facilite particulièrement l’interopérabilité et le déploiement évolutif de solutions basées sur l’IA

La tendance générale montre une évolution vers des architectures qui supportent une intégration plus profonde et plus native de l’IA, permettant des réseaux plus intelligents, adaptatifs et efficaces.

Comprendre le concept du modèle ML/IA – Sur le RAN – Partie 2 —

AI appliquée à la couche liaison de données (Link Layer L2) et réseau (Network Layer L3): Une analyse approfondie

Introduction

Ces couches jouent un rôle crucial dans le fonctionnement des réseaux cellulaires modernes. La couche de liaison de données (L2) gère l’allocation des ressources, la fiabilité du transfert de données entre deux dispositifs sur un lien physique, comprenant des fonctions comme la détection d’erreurs, la correction d’erreurs et le contrôle du trafic. La couche réseau (L3) est responsable du routage des paquets à travers le réseau et de la gestion de la mobilité, faisant d’elle un élément essentiel pour maintenir une connectivité transparente lorsque les utilisateurs se déplacent.

Cette analyse approfondie explorera comment l’IA transforme ces couches, en examinant les défis existants, les solutions proposées, et l’impact potentiel sur les performances globales du réseau et l’expérience utilisateur.

Distinction entre l’IA à la couche physique et aux couches supérieures

Différence de portée

L’IA à la couche physique (L1) opère dans un cadre plus localisé, se concentrant sur l’amélioration de l’efficacité de la transmission et de la réception des signaux au niveau du dispositif et de la cellule. Son champ d’action est relativement restreint, bien que fondamental pour la performance du réseau.

En revanche, l’IA dans les couches L2 et L3 opère dans un cadre plus large, influençant les politiques et stratégies à l’échelle du réseau qui affectent de multiples dispositifs, cellules, et potentiellement l’ensemble du réseau. Cette différence de portée est essentielle pour comprendre l’impact potentiel de l’IA à ces niveaux.

Différence d’impact

L’impact de l’IA à la couche physique est souvent immédiat, améliorant en temps réel la qualité de la communication. Les algorithmes d’IA à ce niveau contribuent directement à optimiser des paramètres comme la modulation, le codage, ou la formation de faisceaux, avec des effets quasi instantanés sur la qualité du signal.

Par contre, l’IA dans les couches L2 et L3 a un impact plus stratégique et à plus long terme. Elle façonne la manière dont le réseau répond aux conditions changeantes, gère les ressources sur la durée, et assure la performance et la fiabilité du réseau à long terme. Ces décisions peuvent avoir des effets durables sur la santé du réseau et la qualité de service fournie aux utilisateurs.

L’IA dans la couche de liaison de données (L2)

La couche de liaison de données (L2) est responsable de la gestion des ressources, de la fiabilité du transfert de données entre deux dispositifs sur un lien physique, et englobe des fonctions comme la détection d’erreurs, la correction d’erreurs et le contrôle du trafic. L’intégration de l’IA à ce niveau transforme fondamentalement ces processus.

Allocation dynamique des ressources

L’un des apports majeurs de l’IA à la couche L2 concerne l’allocation dynamique des ressources:

Prédiction des modèles de trafic

Les algorithmes d’IA peuvent analyser les historiques de trafic et le comportement des utilisateurs pour prévoir les futures demandes en bande passante. Cette capacité prédictive permet au réseau d’anticiper les congestions potentielles et d’allouer proactivement les ressources nécessaires.

Par exemple, un modèle d’IA peut apprendre que certaines zones géographiques connaissent des pics de trafic à des moments spécifiques de la journée ou lors d’événements particuliers. En utilisant ces informations, le réseau peut réserver la bande passante appropriée et ajuster les paramètres d’ordonnancement avant même que la demande n’augmente.

Ordonnancement intelligent

L’IA permet un ordonnancement (scheduling) plus sophistiqué des ressources entre différents dispositifs en fonction de multiples facteurs contextuels:

  • Les conditions du canal pour chaque dispositif
  • La priorité et la sensibilité à la latence de chaque type de trafic
  • Les accords de niveau de service (SLA) pour différents clients
  • L’état de la batterie des dispositifs mobiles
  • Les modèles d’utilisation historiques

Cet ordonnancement intelligent garantit que les ressources limitées sont allouées de manière à optimiser l’expérience utilisateur globale tout en respectant diverses contraintes opérationnelles.

Gestion proactive de la congestion

Les techniques d’IA peuvent identifier les signes avant-coureurs de congestion réseau et prendre des mesures préventives pour l’éviter:

  • Redirection du trafic vers des chemins alternatifs
  • Modification temporaire des priorités de certains flux de données
  • Ajustement adaptatif des algorithmes de contrôle de flux
  • Allocation préemptive de ressources supplémentaires dans les zones à risque

Cette approche proactive de la gestion de la congestion permet d’éviter les dégradations de service qui surviendraient avec des méthodes réactives traditionnelles.

Prédiction et correction d’erreurs

Un autre domaine où l’IA apporte une valeur significative à la couche L2 est la prédiction et la correction d’erreurs:

Anticipation des erreurs de transmission

Les modèles d’IA peuvent anticiper les erreurs potentielles dans la transmission de données en analysant:

  • Les modèles de bruit et d’interférence dans différents environnements
  • Les caractéristiques de propagation du signal à différentes fréquences
  • L’historique des performances de transmission dans des conditions similaires
  • Les défaillances récurrentes ou systémiques dans certaines parties du réseau

Cette capacité d’anticipation permet au système de prendre des mesures préventives avant que les erreurs ne se produisent, réduisant ainsi le besoin de retransmissions.

Mécanismes de correction préemptifs

Au lieu de simplement réagir aux erreurs détectées, l’IA permet la mise en œuvre de mécanismes de correction préemptifs:

  • Ajustement dynamique des schémas de codage correcteurs d’erreurs
  • Adaptation du niveau de redondance en fonction des conditions prévues du canal
  • Mise en œuvre de techniques de diversité spécifiques au contexte
  • Priorisation stratégique des paquets ayant une plus forte probabilité de transmission réussie

Ces approches proactives réduisent considérablement le taux d’erreur global et améliorent l’efficacité des ressources réseau en minimisant les retransmissions.

Gestion adaptative de la qualité de service (QoS)

La gestion de la qualité de service à la couche L2 bénéficie considérablement de l’intégration de l’IA:

Prédiction des conditions réseau

L’IA permet de prévoir l’évolution des conditions du réseau à court et moyen terme, ce qui est crucial pour maintenir la QoS:

  • Prédiction des fluctuations de charge sur différentes cellules
  • Anticipation des interférences basée sur l’utilisation historique du spectre
  • Prévision des effets des conditions météorologiques sur les performances du réseau
  • Modélisation de l’impact des grands événements sur la demande de ressources

Ces prédictions permettent une gestion proactive des ressources pour maintenir la QoS même dans des conditions changeantes.

Priorisation contextuelle du trafic

L’IA permet une priorisation plus nuancée et contextuelle du trafic par rapport aux approches basées sur des règles statiques:

  • Les applications à faible latence (comme le gaming en ligne ou la réalité virtuelle) peuvent recevoir une priorité plus élevée lorsque les utilisateurs sont activement engagés.
  • Les applications critiques (comme la télémédecine ou les communications d’urgence) peuvent être identifiées et priorisées dynamiquement.
  • Les flux de données susceptibles de contribuer significativement à l’expérience utilisateur peuvent être favorisés en fonction du contexte d’utilisation.

Cette priorisation intelligente garantit que les ressources limitées sont allouées de manière à maximiser la valeur perçue par les utilisateurs.

Équilibrage dynamique des exigences contradictoires

L’IA excelle dans l’équilibrage de multiples objectifs contradictoires, ce qui est particulièrement utile pour la gestion de la QoS:

  • Équilibrer la latence et le débit pour différents types d’applications
  • Concilier l’équité entre les utilisateurs et l’optimisation des performances globales
  • Trouver le compromis optimal entre l’efficacité énergétique et la performance
  • Pondérer les besoins des applications en temps réel par rapport au trafic en arrière-plan

Cet équilibrage dynamique permet d’offrir la meilleure expérience possible à tous les utilisateurs malgré des ressources limitées et des demandes variées.

L’IA dans la couche réseau (L3)

La couche réseau (L3) est responsable du routage des paquets à travers le réseau et de la gestion de la mobilité, faisant d’elle un élément essentiel pour maintenir une connectivité transparente lorsque les utilisateurs se déplacent entre différentes cellules du réseau.

Gestion intelligente de la mobilité

L’un des apports majeurs de l’IA à la couche L3 concerne la gestion de la mobilité:

Prédiction des modèles de mobilité

Les algorithmes d’IA peuvent analyser les historiques de déplacement des utilisateurs et prédire leurs mouvements futurs avec une précision remarquable:

  • Identification des trajets réguliers (domicile-travail, par exemple)
  • Reconnaissance des modèles de déplacement spécifiques à certaines heures ou jours
  • Prédiction des zones de congestion en fonction des événements programmés
  • Anticipation des changements de vitesse de déplacement basée sur les infrastructures de transport

Ces prédictions permettent au réseau d’anticiper les besoins de handover plutôt que d’y réagir.

Optimisation proactive des handovers

Sur la base des prédictions de mobilité, l’IA peut optimiser le processus de handover de plusieurs façons:

  • Préparation anticipée des ressources dans les cellules cibles probables
  • Détermination du moment optimal pour initier le handover, minimisant les risques de déconnexion
  • Sélection intelligente de la cellule cible optimale parmi plusieurs candidates
  • Adaptation des paramètres de handover en fonction du profil de mobilité spécifique de chaque utilisateur

Cette approche proactive réduit considérablement les risques de déconnexions, les handovers inutiles, et les effets « ping-pong » où un utilisateur est transféré de manière répétée entre deux cellules.

Réduction des interruptions de service

L’IA contribue significativement à réduire les interruptions de service lors des transitions entre cellules:

  • Coordination des handovers avec les moments de faible activité dans les sessions de l’utilisateur
  • Mise en place préemptive de tunnels de données entre cellules source et cible
  • Ajustement dynamique des priorités de trafic pendant les phases critiques du handover
  • Optimisation des paramètres de reconnexion en fonction du type de service utilisé

Ces optimisations garantissent une expérience plus fluide aux utilisateurs, particulièrement pour les applications sensibles à la latence comme les appels vidéo ou les jeux en ligne.

Équilibrage de charge entre cellules

Un autre domaine clé où l’IA transforme la couche L3 est l’équilibrage de charge entre cellules:

Analyse en temps réel de la charge réseau

L’IA permet une analyse sophistiquée et en temps réel de la charge sur différentes cellules:

  • Évaluation multidimensionnelle de la charge (nombre d’utilisateurs, demande de bande passante, profils de trafic)
  • Détection des déséquilibres émergents avant qu’ils n’affectent la performance
  • Identification des cellules sous-utilisées pouvant absorber du trafic supplémentaire
  • Prévision de l’évolution de la charge à court terme pour guider les décisions d’équilibrage

Cette analyse en temps réel fournit une base solide pour des décisions d’équilibrage de charge optimales.

Distribution intelligente du trafic

Sur la base de cette analyse, l’IA peut orchestrer une distribution plus intelligente du trafic:

  • Ajustement dynamique des paramètres de sélection de cellule pour influencer les décisions de connexion des nouveaux utilisateurs
  • Modification contrôlée des seuils de handover pour encourager la migration d’utilisateurs vers des cellules moins chargées
  • Adaptation des puissances d’émission pour modifier les zones de couverture effective des cellules
  • Priorisation stratégique de certains utilisateurs pour le transfert vers d’autres cellules

Cette distribution intelligente permet de maximiser l’utilisation des ressources disponibles tout en maintenant une bonne qualité de service pour tous les utilisateurs.

Prévention proactive des congestions

L’IA excelle également dans la prévention proactive des congestions au niveau cellulaire:

  • Identification précoce des tendances de trafic susceptibles de conduire à une congestion
  • Déclenchement préemptif de mécanismes d’équilibrage avant l’apparition de problèmes de performance
  • Coordination des équilibrages de charge avec d’autres optimisations réseau pour éviter les effets secondaires indésirables
  • Ajustement progressif des paramètres pour éviter les changements brusques qui pourraient perturber les utilisateurs

Cette approche proactive permet d’éviter les dégradations de service qui surviendraient avec des méthodes réactives traditionnelles.

Économie d’énergie réseau

L’IA contribue de manière significative à l’optimisation de la consommation énergétique au niveau de la couche réseau:

Prédiction des périodes de faible trafic

Les algorithmes d’IA peuvent analyser les modèles historiques de trafic pour prédire avec précision les périodes de faible utilisation:

  • Identification des cycles quotidiens, hebdomadaires et saisonniers dans l’utilisation du réseau
  • Reconnaissance des modèles spécifiques liés aux événements locaux, jours fériés, ou conditions exceptionnelles
  • Prévision des fluctuations à court terme dans la demande de trafic
  • Détection des zones géographiques connaissant des périodes d’inactivité prolongées

Ces prédictions permettent une planification optimale des économies d’énergie sans compromettre la qualité du service.

Désactivation dynamique des ressources sous-utilisées

Sur la base de ces prédictions, l’IA peut orchestrer la désactivation intelligente des ressources réseau:

  • Mise en veille sélective de certaines cellules pendant les heures creuses
  • Réduction contrôlée de la bande passante disponible lorsque la demande est faible
  • Désactivation temporaire de certaines bandes de fréquence ou composants RF
  • Coordination des cycles de veille entre cellules voisines pour maintenir une couverture minimale

Cette désactivation dynamique permet de réaliser des économies d’énergie substantielles tout en maintenant la disponibilité du réseau.

Réactivation préemptive basée sur les prévisions

L’aspect le plus innovant de cette approche est la capacité à réactiver les ressources de manière préemptive:

  • Anticipation des augmentations de trafic avant qu’elles ne se produisent
  • Réactivation progressive des ressources pour éviter les pics de consommation
  • Priorisation de la réactivation des cellules en fonction des prévisions de demande spécifiques à chaque zone
  • Coordination de la réactivation avec d’autres optimisations réseau pour une transition fluide

Cette réactivation préemptive garantit que les utilisateurs ne subissent aucune dégradation de service malgré les économies d’énergie réalisées.

Le rôle du 3GPP dans la standardisation de l’IA/ML pour L2 et L3

Développements des Releases 17 et 18

Les efforts initiaux d’intégration de l’IA/ML dans le 3GPP ont commencé avec la Release 17, qui s’est concentrée sur l’amélioration des fonctions SON (Self-Organizing Networks) telles que:

  • L’économie d’énergie du réseau, permettant une réduction significative de la consommation énergétique des stations de base sans compromettre l’expérience utilisateur
  • L’équilibrage de charge, visant à distribuer efficacement le trafic entre les cellules pour éviter la congestion et optimiser l’utilisation des ressources
  • L’optimisation de la mobilité, améliorant la gestion des handovers pour réduire les interruptions de service lors des déplacements des utilisateurs

Ces efforts se sont poursuivis et amplifiés dans la Release 18, avec un accent particulier sur:

  • L’affinement des méthodes d’entraînement des modèles d’IA
  • L’amélioration des techniques de déploiement dans le réseau
  • L’élaboration de standards pour assurer l’interopérabilité des solutions basées sur l’IA entre différents fournisseurs
  • La définition de métriques communes pour évaluer les performances des systèmes basés sur l’IA

Cas d’utilisation pratiques

Le 3GPP a identifié plusieurs cas d’utilisation pratiques pour l’IA/ML dans les couches L2 et L3, notamment:

  1. Économie d’énergie du réseau: L’IA/ML est utilisée pour prédire les périodes de faible trafic et optimiser l’activation/désactivation des composants du réseau, permettant des économies d’énergie substantielles tout en maintenant la qualité de service.
  2. Équilibrage de charge: Les algorithmes d’IA analysent les modèles de trafic, l’utilisation des ressources et les conditions du réseau pour répartir intelligemment les utilisateurs entre les cellules, évitant ainsi les congestions localisées.
  3. Optimisation de la mobilité: L’IA/ML améliore la gestion des handovers en prédisant les mouvements des utilisateurs et en adaptant dynamiquement les paramètres de handover en fonction des conditions spécifiques, réduisant ainsi les interruptions de service lors des déplacements.

Ces cas d’utilisation démontrent la valeur pratique de l’IA/ML dans les couches L2 et L3 et fournissent un cadre pour le développement de solutions standardisées.

Synergies entre l’IA dans les différentes couches du réseau

Coordination entre les couches physique et liaison de données

L’IA appliquée à la couche physique (L1) et à la couche de liaison de données (L2) peut fonctionner de manière coordonnée pour maximiser les performances du réseau:

  1. Adaptation conjointe: Les algorithmes d’IA à la couche L1 peuvent optimiser les paramètres de transmission (modulation, codage, formation de faisceaux) en fonction des décisions d’allocation de ressources prises au niveau L2, et vice versa.
  2. Partage d’informations contextuelles: Les insights générés par l’IA à une couche peuvent enrichir les modèles utilisés à l’autre couche, permettant des décisions plus informées et cohérentes.
  3. Optimisation multi-objectifs: Les objectifs d’optimisation peuvent être coordonnés entre les couches pour éviter les optimisations locales qui pourraient être globalement sous-optimales.
  4. Adaptation aux conditions dynamiques: L’IA peut faciliter l’adaptation rapide des deux couches aux conditions changeantes du réseau, maintenant des performances optimales dans des environnements complexes et dynamiques.

Intégration avec la gestion de réseau de bout en bout

L’IA dans les couches L2 et L3 s’intègre également avec les systèmes de gestion de réseau de bout en bout:

  1. Alignement avec les objectifs commerciaux: Les optimisations au niveau L2/L3 peuvent être guidées par des objectifs commerciaux et des KPIs définis au niveau de la gestion du réseau.
  2. Orchestration globale: Les capacités d’IA au niveau L2/L3 peuvent être orchestrées dans le cadre d’une stratégie d’optimisation plus large qui englobe tous les aspects du réseau.
  3. Feedback bidirectionnel: Les informations circulent dans les deux sens, avec les systèmes de gestion de réseau fournissant du contexte aux modèles d’IA L2/L3, et ces derniers remontant des insights détaillés pour informer les décisions stratégiques.
  4. Évolution coordonnée: Les capacités d’IA à tous les niveaux peuvent évoluer de manière coordonnée, assurant que les améliorations sont cohérentes et complémentaires.

Interaction avec les couches applicatives

L’IA dans les couches L2 et L3 interagit également avec les couches applicatives supérieures:

  1. Optimisations spécifiques aux applications: Les modèles d’IA peuvent adapter les paramètres L2/L3 en fonction des besoins spécifiques des applications en cours d’exécution.
  2. Feedback de qualité d’expérience: Les informations sur la qualité d’expérience perçue au niveau applicatif peuvent être utilisées pour guider les optimisations L2/L3.
  3. Prédiction des besoins applicatifs: L’IA peut anticiper les besoins des applications avant même qu’ils ne soient explicitement communiqués, permettant une allocation proactive des ressources.
  4. Adaptation conjointe: Dans certains cas, les applications et les couches réseau peuvent s’adapter mutuellement de manière coordonnée pour optimiser l’expérience utilisateur globale.

Impact sur les performances du réseau et l’expérience utilisateur

L’intégration de l’IA dans les couches L2 et L3 a un impact significatif sur les performances globales du réseau et l’expérience utilisateur.

Amélioration de l’efficacité des ressources

L’IA permet une utilisation nettement plus efficace des ressources réseau limitées:

  1. Allocation optimisée: Les ressources sont allouées avec une précision inégalée, en tenant compte de multiples facteurs contextuels pour maximiser l’utilité globale.
  2. Réduction du gaspillage: L’IA minimise le gaspillage de ressources en adaptant finement l’allocation aux besoins réels plutôt qu’à des estimations grossières.
  3. Anticipation des besoins: La capacité à prédire les besoins futurs permet une planification plus efficace de l’utilisation des ressources sur différentes échelles de temps.
  4. Équilibrage dynamique: Les ressources peuvent être réallouées dynamiquement en fonction de l’évolution des conditions du réseau et des priorités.

Ces améliorations d’efficacité se traduisent par une capacité accrue du réseau à servir plus d’utilisateurs avec une meilleure qualité de service, sans nécessiter d’investissements proportionnels dans l’infrastructure.

Réduction de la latence et des interruptions

L’IA dans les couches L2 et L3 contribue significativement à réduire la latence et les interruptions:

  1. Handovers optimisés: La prédiction des mouvements des utilisateurs permet des handovers plus fluides et moins susceptibles de causer des interruptions.
  2. Prévention des congestions: L’anticipation et la prévention proactive des congestions réseau réduisent les pics de latence qui affectent négativement l’expérience utilisateur.
  3. Routage intelligent: L’IA peut identifier les chemins optimaux à travers le réseau pour minimiser la latence pour les applications sensibles au temps.
  4. Allocation prioritaire: Les ressources peuvent être allouées prioritairement aux flux de données sensibles à la latence, garantissant une performance constante même en cas de charge réseau élevée.

Ces réductions de latence et d’interruptions sont particulièrement critiques pour les applications émergentes comme la réalité augmentée/virtuelle, les véhicules autonomes, et la télémédecine, qui dépendent d’une connectivité fiable et à faible latence.

Adaptation aux besoins diversifiés des utilisateurs

L’un des avantages majeurs de l’IA dans les couches L2 et L3 est sa capacité à adapter le comportement du réseau aux besoins diversifiés des utilisateurs:

  1. Personnalisation implicite: Le réseau peut s’adapter aux modèles d’utilisation spécifiques de chaque utilisateur sans configuration explicite.
  2. Différenciation contextuelle: Les ressources peuvent être allouées différemment en fonction du contexte d’utilisation (professionnel vs. loisir, critique vs. non-critique, etc.).
  3. Support des cas d’usage émergents: L’IA facilite l’adaptation du réseau à de nouveaux cas d’usage aux exigences inédites, sans nécessiter une refonte complète des systèmes.
  4. Équilibre entre équité et optimisation: L’IA peut trouver des équilibres sophistiqués entre l’équité dans l’allocation des ressources et l’optimisation des performances globales.

Cette adaptabilité accrue permet aux opérateurs de proposer une expérience plus personnalisée et satisfaisante à leurs utilisateurs, renforçant ainsi la valeur perçue de leurs services.

Amélioration de la fiabilité et de la résilience

L’IA dans les couches L2 et L3 contribue également à améliorer la fiabilité et la résilience du réseau:

  1. Détection précoce des anomalies: Les modèles d’IA peuvent identifier des schémas subtils indiquant des problèmes émergents avant qu’ils n’affectent visiblement les performances.
  2. Adaptation proactive: Le réseau peut s’adapter proactivement aux changements de conditions ou aux défaillances partielles, maintenant la continuité du service.
  3. Récupération intelligente: En cas de défaillance, l’IA peut orchestrer des processus de récupération optimisés qui minimisent l’impact sur les utilisateurs et restaurent rapidement les services normaux.
  4. Apprentissage continu: Les systèmes d’IA peuvent apprendre continuellement des incidents passés pour améliorer leur réponse aux événements futurs similaires.

Cette amélioration de la fiabilité et de la résilience est particulièrement importante à mesure que les réseaux cellulaires deviennent une infrastructure critique supportant des services essentiels dans de nombreux secteurs.

Défis et considérations pour l’implémentation

Malgré ses nombreux avantages, l’intégration de l’IA dans les couches L2 et L3 présente plusieurs défis et considérations importantes.

Complexité des modèles et exigences de calcul

L’implémentation de modèles d’IA sophistiqués dans les couches L2 et L3 soulève des préoccupations concernant la complexité et les ressources de calcul:

  1. Équilibre performance-complexité: Il est nécessaire de trouver un équilibre entre la sophistication des modèles d’IA et leur viabilité pratique dans des environnements aux ressources limitées.
  2. Exigences en temps réel: De nombreuses décisions au niveau L2/L3 doivent être prises en temps réel, imposant des contraintes strictes sur la latence d’inférence des modèles d’IA.
  3. Efficacité énergétique: L’exécution de modèles d’IA complexes consomme de l’énergie, ce qui peut contre