Comprendre le concept du modèle ML/IA – Le cycle de vie (TR28.908)

Le cycle de vie d’un modèle IA en 5G

À partir du document 3GPP TR 28.908 version 18.0.0 Release 18 « Study on Artificial Intelligence/Machine Learning (AI/ ML) management », cet article présente le cycle de vie d’un modèle IA.

Après avoir traduit le document TR 28.908, je propose une explication de quelques lignes.

Entraînement du modèle ML

Traduction : L’entraînement d’un modèle ML ou d’un groupe de modèles ML en phase de production a pour objectif d’évaluer ses performances lorsqu’il traite les données d’entraînement et les données de validation. Si le résultat de validation ne répond pas aux attentes (par exemple, si la variance n’est pas acceptable), le modèle ML doit être réentraîné.

C’est la première phase où l’on nourrit le modèle avec des données pour qu’il apprenne des motifs et des relations. La validation intervient pendant cette phase pour vérifier si le modèle apprend correctement, sans surapprentissage ni sous-apprentissage.

Test du modèle ML

Traduction : test d’un modèle ML validé pour évaluer les performances du modèle entraîné lorsqu’il traite des données de test. Si le résultat du test répond aux attentes, le modèle ML peut passer à l’étape suivante. Si le résultat du test ne répond pas aux attentes, le modèle ML doit être ré-entraîné.

Explication : après l’entraînement et la validation, on teste le modèle avec des données qu’il n’a jamais vues pour confirmer qu’il généralise bien ses apprentissages. Cette phase détermine si le modèle est prêt pour le déploiement réel.

Émulation d’inférence IA/ML

Traduction : Exécution d’un modèle ML pour l’inférence dans un environnement d’émulation. L’objectif est d’évaluer les performances d’inférence du modèle ML dans cet environnement avant de l’appliquer au réseau ou système cible. Si le résultat de l’émulation ne répond pas aux attentes (par exemple, si les performances d’inférence n’atteignent pas l’objectif, ou si le modèle ML impacte négativement les performances d’autres fonctionnalités existantes), le modèle ML doit être ré-entraîné.

NOTE : L’émulation d’inférence IA/ML est considérée comme optionnelle et peut être ignorée dans le cycle de vie du modèle ML.

Explication : cette étape simule l’utilisation du modèle dans des conditions réelles, mais dans un environnement contrôlé. On vérifie la vitesse, la fiabilité et l’impact du modèle sur les systèmes existants avant de risquer un déploiement en production.

Déploiement du modèle ML

Traduction : le déploiement du modèle ML comprend le processus de chargement du modèle ML (également appelé séquence d’actions atomiques) pour rendre un modèle ML entraîné disponible pour utilisation par la fonction d’inférence IA/ML cible.

Le déploiement du modèle ML peut ne pas être nécessaire dans certains cas, par exemple lorsque la fonction d’entraînement et la fonction d’inférence sont co-localisées.

Explication : C’est l’étape où le modèle est installé dans l’environnement de production. Cela peut impliquer des transformations du modèle, des optimisations ou des intégrations avec d’autres systèmes.

Inférence IA/ML

Traduction : Réalisation d’inférences en utilisant un modèle ML entraîné par la fonction d’inférence IA/ML. L’inférence IA/ML peut également déclencher un réentraînement ou une mise à jour du modèle basée, par exemple, sur la surveillance et l’évaluation des performances.

NOTE : Selon l’implémentation du système et les arrangements de fonctionnalités IA/ML, les étapes d’émulation d’inférence IA/ML et de déploiement ML peuvent être ignorées.

Explication : C’est l’utilisation proprement dite du modèle en production pour générer des prédictions ou des décisions sur de nouvelles données. À cette étape, le modèle peut être configuré pour signaler quand ses performances se dégradent, ce qui déclencherait un nouveau cycle d’entraînement.

En résumé, ces étapes décrivent le cycle de vie complet d’un modèle d’apprentissage automatique, de sa création à son déploiement en production, avec des points de contrôle et de validation à différentes étapes pour garantir sa qualité et son efficacité.

Figure 1 : extraite de Sharetechnote https://www.sharetechnote.com/html/5G/5G_AI_ML.html

 

 

 

 

 

 

 

Comprendre le concept du modèle ML/IA – Sur le CN

Cet article reprend une partie des fonctionnalités déjà détaillées pour le NWDAF

Intégration de l’IA/ML dans le cœur 5G

La nouveauté majeure introduite dans la Release 15 du 3GPP est le Network Data Analytics Function (NWDAF), qui fournit divers résultats d’analyse pour soutenir un ensemble de cas d’utilisation.

Le NWDAF héberge différents algorithmes d’IA/ML alimentés par des données provenant de diverses fonctions réseau NF (Network Function). Il produit des résultats d’analyse spécifiques qui peuvent être consommés (en référence à l’architecture SBA ou les fonctions sont productrives ou consommatrices) par différentes fonctions réseau. Les exemples d’applications incluent:

  • La prédiction des modèles de trafic pour optimiser le nombre d’instances UPF déployées
  • La prévision de la mobilité des utilisateurs
  • L’optimisation dynamique des ressources réseau

Les capacités IA/ML du NWDAF incluent des algorithmes de prédiction, des capacités d’IA générative, et des techniques de clustering.

Approches d’apprentissage pour les modèles IA/ML

Avec la disponibilité de volumes importants de données provenant de différentes sources à différents endroits, l’entraînement des modèles IA/ML peut adopter diverses approches:

  1. Apprentissage centralisé: Les modèles sont entraînés dans un emplacement centralisé avec des données agrégées.
  2. Apprentissage fédéré: L’entraînement se produit en continu dans différentes parties du réseau. Les modèles sont entraînés sur des nœuds locaux avec des sources de données locales et mis à jour par un modèle global entraîné dans un emplacement centralisé avec des sources de données agrégées. On distingue l’apprentissage fédéré horizontal et verticale (R.19)
  3. Approches alternatives: D’autres méthodes d’apprentissage distribuées peuvent être employées selon les cas d’utilisation spécifiques.

L’apprentissage fédéré améliore l’évolutivité, la sécurité et la précision en adaptant le modèle IA/ML aux données uniques spécifiques à chaque emplacement.

On distingue l’apprentissage fédéré horizontal (gauche Figure 1) et l’apprentissage fédérée verticale (droite Figure 1)

Figure 1 : Horizontal Federated Learning HFL (gauche) et Vertical Federated Learning  VFL (droite)

Dans le cas du HFL, on alimente deux ML qui ont les mêmes caractéristiques avec des données complémentaires. Par exemple, deux opérateurs peuvent apporter un profil de leurs clients pour augmenter les données;

Dans le cas du VFL, on alimente deux ML avec des données complémentaires. Par exemple, on peut s’intéresser pour un client donnée de ses états MM et on complète par les états CM

Gestion de réseau assistée par IA pour le cœur du réseau

Orchestration et provisionnement automatisés

  • Orchestration: L’IA/ML peut aider à automatiser les processus de provisionnement et à optimiser l’allocation des ressources pour diverses fonctions réseau.
  • Détection d’erreurs de provisionnement: Les algorithmes d’IA/ML peuvent détecter les erreurs de provisionnement de manière automatisée, permettant des corrections proactives.
  • Analyse des journaux de trafic: L’analyse GenAI des journaux de trafic, qui comprend un mélange de données non structurées et structurées, peut indiquer des défaillances potentielles, y compris la prédiction des défaillances et aider à identifier les causes profondes.
  • Détection des failles de sécurité: Les violations de sécurité potentielles peuvent être détectées via des algorithmes d’IA/ML, aidant à décider de manière proactive de l’atténuation appropriée.

Amélioration de l’efficacité opérationnelle

Dans l’OSS/BSS, l’IA/ML et l’IA générative peuvent améliorer considérablement l’efficacité opérationnelle et l’expérience client:

  • Gestion de l’expérience client: Les chatbots pilotés par l’IA peuvent gérer les requêtes courantes des clients.
  • Facturation et assurance des revenus: La prédiction du taux d’abandon (churn predicting) basée sur l’IA/ML peut grandement bénéficier à ces domaines pour estimer à quel moment un client arrête le service demandé..
  • Planification réseau: La planification réseau peut être soutenue par des techniques de prévision de trafic basées sur l’IA/ML.

En cas de défaillance, la gestion centralisée de plusieurs agents permet d’analyser différentes pistes afin de trouver la cause réelle de la panne. Par exemple, un appel VoNR qui s’arrête peut provenir de plusieurs causes : coupure radio, restauration du P-CSCF, TAS en erreur, routage erroné, … Les outils comme Agentic.ia va explorer les différents log et si un prestataire doit être contacté, l’outil peut générer le ticket client.

Network Data Analytics Function (NWDAF)

Introduction et évolution du NWDAF

Le NWDAF a été introduit à l’origine dans la Release 15 du 3GPP comme mécanisme pour rapporter des insights sur le fonctionnement du réseau. Ces insights peuvent ensuite être utilisés par d’autres fonctions pour réaliser une automatisation en boucle fermée afin d’améliorer le fonctionnement du réseau.

On appelle insight des connaissances exploitables ou des résultats d’analyse dérivés des données du réseau. Ces insights peuvent concerner par exemple les modèles de trafic, le comportement des utilisateurs, ou les performances du réseau, et sont utilisés par d’autres fonctions du réseau pour optimiser leur fonctionnement.

Le NWDAF réalise cela en:

  • Collectant et agrégeant des données de différentes parties du réseau cœur
  • Analysant ces données pour identifier des modèles et générer des prédictions via des algorithmes statistiques et basés sur le ML (y compris le DL)
  • Respectant la confidentialité lors de la collecte de données, permettant aux utilisateurs de choisir de participer ou non à la collecte de données

Intégration avec d’autres fonctions réseau

Le NWDAF s’intègre avec d’autres fonctions réseau via une interface basée sur les services (SBI). Cette intégration permet à d’autres fonctions réseau de devenir des abonnés aux événements générés par le NWDAF et d’influencer le fonctionnement du réseau cœur en consommant ces événements.

Toute fonction réseau conforme au 3GPP, fonction d’application (AF) ou opération, administration et maintenance (OAM) devrait pouvoir utiliser les services d’analyse activés par le NWDAF en tant que consommateur pour prendre des décisions basées sur l’analyse dans le cadre de leurs procédures réseau.

Cas d’utilisation et services d’analyse

Différents cas d’utilisation ont été implémentés et pris en charge dans le NWDAF dans un environnement multi-fournisseurs. Le NWDAF de la version 16 de la spécification technique 29.520 [2] du 3GPP prend en charge les services d’analyse définis dans la TS 23.288 [1]:

  1. Analytique de charge de tranche réseau
  2. Analytique d’expérience de service
  3. Analytique de charge de fonction réseau
  4. Analytique de performance réseau
  5. Analytique de comportement anormal/attendu de l’UE
  6. Analytique de mobilité de l’UE
  7. Analytique de communication de l’UE
  8. Analytique de congestion des données utilisateur
  9. Analytique de durabilité de la QoS

Apprentissage fédéré dans le NWDAF

Le document détaille comment le NWDAF a évolué pour inclure des capacités d’apprentissage fédéré:

  • Release 17: Le NWDAF a acquis la capacité d’effectuer un apprentissage fédéré horizontal (HFL), souvent simplement appelé apprentissage fédéré. Le HFL est une technique de ML préservant la confidentialité qui permet un entraînement de modèle collaboratif entre différentes zones d’intérêt.
  • Fonctionnement du HFL: Chaque zone d’intérêt entraîne son modèle localement en utilisant le NWDAF le plus proche, et l’apprentissage collectif de plusieurs zones est ensuite agrégé via une fonction centrale sur le serveur NWDAF. Le processus est qualifié d' »horizontal » car chaque participant a le même espace de caractéristiques mais des échantillons différents.
  • Avantages du HFL: Cette approche réduit le volume de données transférées sur le SBI, car seuls les paramètres neuronaux—améliorés par des protocoles préservant la confidentialité comme l’agrégation sécurisée—sont transmis, plutôt que les données brutes. La réduction du volume de données peut être encore améliorée via l’utilisation de techniques comme la distillation de connaissances, la quantification et l’élagage des paramètres neuronaux.
  • Release 18: La Release 18 a introduit l’apprentissage fédéré et le transfert de modèle de machine learning entre différents domaines administratifs, comme les réseaux mobiles connectés par des accords d’itinérance, étendant davantage le cycle de vie des modèles initialement déployés dans le NWDAF.
  • Release 19: La Release 19 introduit l’apprentissage fédéré vertical (VFL) dans le NWDAF entre les NWDAF et les fonctions d’application. Le VFL offre plusieurs améliorations par rapport au HFL:
    • Chaque participant peut avoir sa propre architecture de réseau neuronal
    • Chaque participant peut avoir son propre espace de caractéristiques
    • Les nouvelles données, comme celles collectées dans les fonctions d’application, peuvent être utilisées en combinaison avec le réseau cœur pour entraîner de meilleurs modèles ML
  • Applications du VFL: Des cas d’utilisation comme la prédiction de QoS utilisant l’entrée des fonctions d’application sont en cours de développement et bénéficient du VFL. Notamment, le VFL est introduit comme une extension de l’apprentissage fédéré, ce qui signifie que les cas d’utilisation existants peuvent également bénéficier de cette nouvelle fonctionnalité.

Fonctionnement du VFL vs HFL

Dans le VFL, le modèle ML est divisé en modèle de tête et modèle de queue. Le processus d’entraînement VFL implique:

  1. La propagation vers l’avant commence sur les modèles des Clients A et B
  2. Leurs activations sont communiquées au modèle de queue où elles sont concaténées
  3. Le modèle de queue effectue une propagation vers l’avant et calcule la perte en utilisant des étiquettes locales
  4. La rétropropagation commence et les dérivées partielles sont envoyées aux modèles de tête correspondants
  5. Chaque client effectue sa propre rétropropagation
  6. Le processus se poursuit avec plusieurs itérations jusqu’à ce que toutes les données aient été traitées

Du point de vue du 3GPP, HFL et VFL sont deux approches pour apprendre un modèle collaborativement sans partager de données. Ils sont spécifiés de manière agnostique au processus de HFL ou VFL, considérant plutôt une architecture client-serveur et la capacité de chaque nœud à prendre en charge HFL ou VFL et potentiellement d’autres techniques qui pourraient être introduites à l’avenir.

Gestion du cycle de vie et flux de travail dans le NWDAF

Les procédures introduites dans le NWDAF pour prendre en charge l’apprentissage automatique permettent la gestion du cycle de vie des modèles IA/ML dans le réseau cœur. La gestion du cycle de vie des modèles IA/ML est le processus ou l’ensemble de tâches nécessaires pour entraîner, mettre à jour et maintenir un modèle d’apprentissage automatique.

En raison de la nature basée sur les données des modèles d’apprentissage automatique, la gestion du cycle de vie des modèles IA/ML est essentielle car elle assure la reproductibilité de l’apprentissage automatique lorsqu’ils quittent l’environnement de science des données et passent en production.

La gestion du cycle de vie des modèles aborde des problèmes tels que:

  • Comment entraîner et déployer un modèle à grande échelle
  • La gouvernance, la qualité et la conformité des données
  • La supervision du processus d’entraînement via des pipelines de traitement de données
  • Les mécanismes pour se connecter aux sources de données et prétraiter les données

Le rôle de l’IA générative dans le cœur du paquet et les systèmes BSS/OSS

Amélioration du traitement des données

Le document explique que l’IA générative peut améliorer significativement le traitement et l’analyse des données dans les réseaux cœur et le NWDAF, ainsi que les systèmes OSS/BSS:

  • Génération de données synthétiques: L’IA générative peut générer des données synthétiques pour compenser les lacunes ou enrichir les ensembles de données avec des informations limitées. Cela réduit le besoin de collecte extensive de données, ce qui diminue les coûts de communication et améliore la confidentialité lors du traitement de données sensibles.
  • Jumeaux numériques: Dans le contexte du NWDAF, l’IA générative peut aider à créer des jumeaux numériques de fonctions réseau NF, permettant la simulation de divers scénarios. Par exemple, elle peut modéliser des conditions futures potentielles comme l’augmentation du trafic réseau et prédire leur impact sur des KPI comme la latence, le débit et la consommation d’énergie, tout en tenant compte de la durabilité.

Transformation des systèmes BSS/OSS

Les systèmes BSS/OSS, cruciaux pour soutenir les opérations et les fonctions commerciales d’un opérateur de télécommunications, peuvent grandement bénéficier de l’IA générative:

  • Évolution des systèmes: Traditionnellement, les systèmes BSS/OSS s’appuyaient sur des requêtes SQL pour récupérer des données des bases de données. Cependant, avec l’avènement du big data, ces systèmes ont évolué pour incorporer l’IA et l’analytique avancée pour des insights plus profonds dans les opérations réseau.
  • Capacités des LLM: L’IA générative, particulièrement les grands modèles de langage (LLM), offre de nouvelles capacités. Par exemple, les LLM peuvent traduire le langage naturel en requêtes SQL, rendant l’accès à l’information plus intuitif et éliminant le besoin d’une connaissance intriquée des schémas de base de données.
  • Analyse de données améliorée: Les LLM peuvent améliorer l’analyse de données au sein des systèmes BSS/OSS grâce à des techniques comme la génération augmentée par récupération ou le fine-tuning, leur permettant d’intégrer les résultats avec des connaissances supplémentaires et de fournir des insights plus complets.

Applications pratiques

L’intégration des LLM dans les systèmes BSS/OSS promet des avantages significatifs pour les réseaux mobiles:

  • Automatisation du dépannage: Les LLM peuvent être utilisés pour automatiser les processus de dépannage en exploitant les informations des tickets précédemment résolus pour la gestion du réseau.
  • Service client: Les LLM peuvent agir comme un assistant virtuel infatigable fournissant une aide directe aux abonnés, améliorant l’expérience utilisateur et réduisant la charge sur le support client humain.
  • Cybersécurité: Les LLM peuvent être utilisés pour générer de nouvelles attaques dans les réseaux mobiles, qui peuvent ensuite être utilisées pour développer des mécanismes de défense qui préviennent de telles attaques, renforçant la posture de sécurité globale.

Ces applications démontrent le potentiel transformateur de l’IA générative dans les opérations de réseau cœur et les systèmes BSS/OSS, conduisant à une efficacité opérationnelle accrue, une meilleure expérience client et une sécurité renforcée.

Processus de bout en bout pour le déploiement de l’IA dans les réseaux

Le document souligne que l’IA/ML peut être utilisée pour optimiser le fonctionnement de divers segments des réseaux cellulaires. Pour y parvenir, les processus d’entraînement de l’IA/ML et les moteurs d’inférence doivent être intégrés dans les différents segments des réseaux cellulaires et pris en charge pour la gestion de leur cycle de vie.

Réseaux pilotés par l’intention et IA

L’IA joue un rôle crucial dans les réseaux pilotés par l’intention, où elle et l’approche basée sur l’intention se renforcent mutuellement:

  • L’IA aide à éliminer les goulets d’étranglement dans l’implémentation des intentions, tandis que les réseaux basés sur l’intention simplifient l’exécution des politiques d’IA, réduisant le besoin d’API traditionnelles.
  • Les réseaux pilotés par l’intention représentent un changement de paradigme vers une approche de gestion de réseau plus dynamique et adaptative. Ils se concentrent sur la traduction d’objectifs commerciaux de haut niveau en politiques et configurations réseau exploitables.

L’IA améliore les réseaux pilotés par l’intention de plusieurs façons:

  1. Décisions contextuelles: L’IA améliore les réseaux pilotés par l’intention en permettant une prise de décision contextuelle. Elle aide à traduire les intentions commerciales en actions réseau en analysant les données en temps réel et en adaptant les politiques réseau pour s’aligner avec des objectifs spécifiques.
  2. Automatisation et optimisation: L’automatisation pilotée par l’IA facilite l’implémentation de politiques basées sur l’intention à travers le réseau. Elle optimise les ressources et la performance réseau basées sur des intentions commerciales prédéfinies, réduisant l’intervention manuelle et améliorant l’efficacité opérationnelle.
  3. Évolutivité et flexibilité: L’évolutivité de l’IA lui permet de s’adapter à divers environnements et intentions réseau. Que ce soit dans le Cloud RAN, l’Open RAN ou le RAN traditionnel, l’IA peut être exploitée pour interpréter et exécuter les intentions réseau, assurant que le réseau évolue en réponse aux besoins commerciaux et conditions opérationnelles changeants.

Gestion du cycle de vie (LCM) des modèles d’IA

Une gestion efficace du cycle de vie des modèles d’IA est cruciale pour assurer la performance optimale des modèles d’IA/ML afin d’apporter plus d’adaptabilité dans les architectures réseau modernes. Cela implique plusieurs processus et méthodologies clés.

Collecte et préparation des données

Les modèles d’IA sont fondamentalement pilotés par les données, faisant de la collecte de données une première étape critique dans leur développement:

  • Pour créer des modèles d’IA efficaces, il est essentiel de recueillir des données extensives de divers éléments réseau, y compris RAN, le coeur du réseaux et les applications.
  • Ces données englobent le comportement utilisateur, les modèles de trafic et les métriques de performance réseau.
  • La qualité et l’efficacité des résultats de l’IA dépendent de l’accès à des données amples, à jour et anonymisées pour l’entraînement.
  • Les données brutes contiennent souvent des erreurs ou des valeurs manquantes qui doivent être nettoyées et formatées pour permettre aux modèles d’IA d’apprendre avec précision et efficacité.

Sélection et entraînement des modèles

Après la phase de préparation des données, la sélection d’un modèle d’IA approprié est cruciale:

  • Le choix du modèle influence significativement la performance dans la reconnaissance de modèles et la précision de prédiction.
  • Le modèle doit s’aligner avec le problème spécifique à adresser.
  • Une fois le modèle et les données préparés, le processus d’entraînement peut commencer en utilisant les données traitées.
  • Les algorithmes d’IA/ML doivent être entraînés pour comprendre les comportements sous-jacents du réseau ou d’environnements similaires.
  • Des barrières de protection et des mécanismes de surveillance adéquats assurent que le réseau opère dans les paramètres attendus, maintenant la stabilité et la performance.

Évaluation, validation et déploiement

Après l’entraînement, le modèle subit une évaluation et une validation:

  • Cette étape détermine si un développement supplémentaire est nécessaire, pouvant impliquer l’ajustement fin du modèle, l’optimisation des paramètres et le réentraînement pour améliorer la précision.
  • Ce processus itératif est essentiel pour affiner le modèle et améliorer sa performance.
  • Les modèles d’IA sont développés en utilisant à la fois des données historiques et en temps réel pour aborder des tâches spécifiques comme la gestion du trafic, l’équilibrage de charge ou la maintenance prédictive.
  • Les ressources basées sur le cloud sont communément utilisées pour l’entraînement en raison de leur évolutivité et puissance de calcul, cruciales pour gérer de larges ensembles de données et des modèles complexes.
  • Une fois le développement du modèle terminé, il est déployé et utilisé pour l’inférence, où le modèle est appliqué aux données réseau actuelles pour effectuer des tâches comme la détection d’anomalies ou l’optimisation du trafic.
  • Une allocation efficace des ressources est vitale pour les tâches d’inférence, exploitant les ressources distribuées dans le Cloud RAN ou l’architecture modulaire de l’Open RAN pour assurer un traitement efficace des tâches d’inférence, réduisant la latence et améliorant la performance globale.

 

Conclusion et perspectives futures

La section 3 conclut en soulignant l’importance croissante de l’IA dans les réseaux cœur, OSS/BSS et la gestion réseau. Elle suggère que l’avenir verra une intégration encore plus profonde de l’IA, particulièrement de l’IA générative, dans ces systèmes.

Références

[1] TS 23.288 : Architecture enhancements for 5G System (5GS) to support network data analytics services : https://www.3gpp.org/ftp/Specs/archive/23_series/23.288/23288-j10.zip

[2] TS 29.520 : 5G System; Network Data Analytics Service, https://www.3gpp.org/ftp/Specs/archive/29_series/29.520/29520-j10.zips; Stage 3

Comprendre le concept du modèle ML/IA – Sur le RAN – Partie 2 —

AI appliquée à la couche liaison de données (Link Layer L2) et réseau (Network Layer L3): Une analyse approfondie

Introduction

Ces couches jouent un rôle crucial dans le fonctionnement des réseaux cellulaires modernes. La couche de liaison de données (L2) gère l’allocation des ressources, la fiabilité du transfert de données entre deux dispositifs sur un lien physique, comprenant des fonctions comme la détection d’erreurs, la correction d’erreurs et le contrôle du trafic. La couche réseau (L3) est responsable du routage des paquets à travers le réseau et de la gestion de la mobilité, faisant d’elle un élément essentiel pour maintenir une connectivité transparente lorsque les utilisateurs se déplacent.

Cette analyse approfondie explorera comment l’IA transforme ces couches, en examinant les défis existants, les solutions proposées, et l’impact potentiel sur les performances globales du réseau et l’expérience utilisateur.

Distinction entre l’IA à la couche physique et aux couches supérieures

Différence de portée

L’IA à la couche physique (L1) opère dans un cadre plus localisé, se concentrant sur l’amélioration de l’efficacité de la transmission et de la réception des signaux au niveau du dispositif et de la cellule. Son champ d’action est relativement restreint, bien que fondamental pour la performance du réseau.

En revanche, l’IA dans les couches L2 et L3 opère dans un cadre plus large, influençant les politiques et stratégies à l’échelle du réseau qui affectent de multiples dispositifs, cellules, et potentiellement l’ensemble du réseau. Cette différence de portée est essentielle pour comprendre l’impact potentiel de l’IA à ces niveaux.

Différence d’impact

L’impact de l’IA à la couche physique est souvent immédiat, améliorant en temps réel la qualité de la communication. Les algorithmes d’IA à ce niveau contribuent directement à optimiser des paramètres comme la modulation, le codage, ou la formation de faisceaux, avec des effets quasi instantanés sur la qualité du signal.

Par contre, l’IA dans les couches L2 et L3 a un impact plus stratégique et à plus long terme. Elle façonne la manière dont le réseau répond aux conditions changeantes, gère les ressources sur la durée, et assure la performance et la fiabilité du réseau à long terme. Ces décisions peuvent avoir des effets durables sur la santé du réseau et la qualité de service fournie aux utilisateurs.

L’IA dans la couche de liaison de données (L2)

La couche de liaison de données (L2) est responsable de la gestion des ressources, de la fiabilité du transfert de données entre deux dispositifs sur un lien physique, et englobe des fonctions comme la détection d’erreurs, la correction d’erreurs et le contrôle du trafic. L’intégration de l’IA à ce niveau transforme fondamentalement ces processus.

Allocation dynamique des ressources

L’un des apports majeurs de l’IA à la couche L2 concerne l’allocation dynamique des ressources:

Prédiction des modèles de trafic

Les algorithmes d’IA peuvent analyser les historiques de trafic et le comportement des utilisateurs pour prévoir les futures demandes en bande passante. Cette capacité prédictive permet au réseau d’anticiper les congestions potentielles et d’allouer proactivement les ressources nécessaires.

Par exemple, un modèle d’IA peut apprendre que certaines zones géographiques connaissent des pics de trafic à des moments spécifiques de la journée ou lors d’événements particuliers. En utilisant ces informations, le réseau peut réserver la bande passante appropriée et ajuster les paramètres d’ordonnancement avant même que la demande n’augmente.

Ordonnancement intelligent

L’IA permet un ordonnancement (scheduling) plus sophistiqué des ressources entre différents dispositifs en fonction de multiples facteurs contextuels:

  • Les conditions du canal pour chaque dispositif
  • La priorité et la sensibilité à la latence de chaque type de trafic
  • Les accords de niveau de service (SLA) pour différents clients
  • L’état de la batterie des dispositifs mobiles
  • Les modèles d’utilisation historiques

Cet ordonnancement intelligent garantit que les ressources limitées sont allouées de manière à optimiser l’expérience utilisateur globale tout en respectant diverses contraintes opérationnelles.

Gestion proactive de la congestion

Les techniques d’IA peuvent identifier les signes avant-coureurs de congestion réseau et prendre des mesures préventives pour l’éviter:

  • Redirection du trafic vers des chemins alternatifs
  • Modification temporaire des priorités de certains flux de données
  • Ajustement adaptatif des algorithmes de contrôle de flux
  • Allocation préemptive de ressources supplémentaires dans les zones à risque

Cette approche proactive de la gestion de la congestion permet d’éviter les dégradations de service qui surviendraient avec des méthodes réactives traditionnelles.

Prédiction et correction d’erreurs

Un autre domaine où l’IA apporte une valeur significative à la couche L2 est la prédiction et la correction d’erreurs:

Anticipation des erreurs de transmission

Les modèles d’IA peuvent anticiper les erreurs potentielles dans la transmission de données en analysant:

  • Les modèles de bruit et d’interférence dans différents environnements
  • Les caractéristiques de propagation du signal à différentes fréquences
  • L’historique des performances de transmission dans des conditions similaires
  • Les défaillances récurrentes ou systémiques dans certaines parties du réseau

Cette capacité d’anticipation permet au système de prendre des mesures préventives avant que les erreurs ne se produisent, réduisant ainsi le besoin de retransmissions.

Mécanismes de correction préemptifs

Au lieu de simplement réagir aux erreurs détectées, l’IA permet la mise en œuvre de mécanismes de correction préemptifs:

  • Ajustement dynamique des schémas de codage correcteurs d’erreurs
  • Adaptation du niveau de redondance en fonction des conditions prévues du canal
  • Mise en œuvre de techniques de diversité spécifiques au contexte
  • Priorisation stratégique des paquets ayant une plus forte probabilité de transmission réussie

Ces approches proactives réduisent considérablement le taux d’erreur global et améliorent l’efficacité des ressources réseau en minimisant les retransmissions.

Gestion adaptative de la qualité de service (QoS)

La gestion de la qualité de service à la couche L2 bénéficie considérablement de l’intégration de l’IA:

Prédiction des conditions réseau

L’IA permet de prévoir l’évolution des conditions du réseau à court et moyen terme, ce qui est crucial pour maintenir la QoS:

  • Prédiction des fluctuations de charge sur différentes cellules
  • Anticipation des interférences basée sur l’utilisation historique du spectre
  • Prévision des effets des conditions météorologiques sur les performances du réseau
  • Modélisation de l’impact des grands événements sur la demande de ressources

Ces prédictions permettent une gestion proactive des ressources pour maintenir la QoS même dans des conditions changeantes.

Priorisation contextuelle du trafic

L’IA permet une priorisation plus nuancée et contextuelle du trafic par rapport aux approches basées sur des règles statiques:

  • Les applications à faible latence (comme le gaming en ligne ou la réalité virtuelle) peuvent recevoir une priorité plus élevée lorsque les utilisateurs sont activement engagés.
  • Les applications critiques (comme la télémédecine ou les communications d’urgence) peuvent être identifiées et priorisées dynamiquement.
  • Les flux de données susceptibles de contribuer significativement à l’expérience utilisateur peuvent être favorisés en fonction du contexte d’utilisation.

Cette priorisation intelligente garantit que les ressources limitées sont allouées de manière à maximiser la valeur perçue par les utilisateurs.

Équilibrage dynamique des exigences contradictoires

L’IA excelle dans l’équilibrage de multiples objectifs contradictoires, ce qui est particulièrement utile pour la gestion de la QoS:

  • Équilibrer la latence et le débit pour différents types d’applications
  • Concilier l’équité entre les utilisateurs et l’optimisation des performances globales
  • Trouver le compromis optimal entre l’efficacité énergétique et la performance
  • Pondérer les besoins des applications en temps réel par rapport au trafic en arrière-plan

Cet équilibrage dynamique permet d’offrir la meilleure expérience possible à tous les utilisateurs malgré des ressources limitées et des demandes variées.

L’IA dans la couche réseau (L3)

La couche réseau (L3) est responsable du routage des paquets à travers le réseau et de la gestion de la mobilité, faisant d’elle un élément essentiel pour maintenir une connectivité transparente lorsque les utilisateurs se déplacent entre différentes cellules du réseau.

Gestion intelligente de la mobilité

L’un des apports majeurs de l’IA à la couche L3 concerne la gestion de la mobilité:

Prédiction des modèles de mobilité

Les algorithmes d’IA peuvent analyser les historiques de déplacement des utilisateurs et prédire leurs mouvements futurs avec une précision remarquable:

  • Identification des trajets réguliers (domicile-travail, par exemple)
  • Reconnaissance des modèles de déplacement spécifiques à certaines heures ou jours
  • Prédiction des zones de congestion en fonction des événements programmés
  • Anticipation des changements de vitesse de déplacement basée sur les infrastructures de transport

Ces prédictions permettent au réseau d’anticiper les besoins de handover plutôt que d’y réagir.

Optimisation proactive des handovers

Sur la base des prédictions de mobilité, l’IA peut optimiser le processus de handover de plusieurs façons:

  • Préparation anticipée des ressources dans les cellules cibles probables
  • Détermination du moment optimal pour initier le handover, minimisant les risques de déconnexion
  • Sélection intelligente de la cellule cible optimale parmi plusieurs candidates
  • Adaptation des paramètres de handover en fonction du profil de mobilité spécifique de chaque utilisateur

Cette approche proactive réduit considérablement les risques de déconnexions, les handovers inutiles, et les effets « ping-pong » où un utilisateur est transféré de manière répétée entre deux cellules.

Réduction des interruptions de service

L’IA contribue significativement à réduire les interruptions de service lors des transitions entre cellules:

  • Coordination des handovers avec les moments de faible activité dans les sessions de l’utilisateur
  • Mise en place préemptive de tunnels de données entre cellules source et cible
  • Ajustement dynamique des priorités de trafic pendant les phases critiques du handover
  • Optimisation des paramètres de reconnexion en fonction du type de service utilisé

Ces optimisations garantissent une expérience plus fluide aux utilisateurs, particulièrement pour les applications sensibles à la latence comme les appels vidéo ou les jeux en ligne.

Équilibrage de charge entre cellules

Un autre domaine clé où l’IA transforme la couche L3 est l’équilibrage de charge entre cellules:

Analyse en temps réel de la charge réseau

L’IA permet une analyse sophistiquée et en temps réel de la charge sur différentes cellules:

  • Évaluation multidimensionnelle de la charge (nombre d’utilisateurs, demande de bande passante, profils de trafic)
  • Détection des déséquilibres émergents avant qu’ils n’affectent la performance
  • Identification des cellules sous-utilisées pouvant absorber du trafic supplémentaire
  • Prévision de l’évolution de la charge à court terme pour guider les décisions d’équilibrage

Cette analyse en temps réel fournit une base solide pour des décisions d’équilibrage de charge optimales.

Distribution intelligente du trafic

Sur la base de cette analyse, l’IA peut orchestrer une distribution plus intelligente du trafic:

  • Ajustement dynamique des paramètres de sélection de cellule pour influencer les décisions de connexion des nouveaux utilisateurs
  • Modification contrôlée des seuils de handover pour encourager la migration d’utilisateurs vers des cellules moins chargées
  • Adaptation des puissances d’émission pour modifier les zones de couverture effective des cellules
  • Priorisation stratégique de certains utilisateurs pour le transfert vers d’autres cellules

Cette distribution intelligente permet de maximiser l’utilisation des ressources disponibles tout en maintenant une bonne qualité de service pour tous les utilisateurs.

Prévention proactive des congestions

L’IA excelle également dans la prévention proactive des congestions au niveau cellulaire:

  • Identification précoce des tendances de trafic susceptibles de conduire à une congestion
  • Déclenchement préemptif de mécanismes d’équilibrage avant l’apparition de problèmes de performance
  • Coordination des équilibrages de charge avec d’autres optimisations réseau pour éviter les effets secondaires indésirables
  • Ajustement progressif des paramètres pour éviter les changements brusques qui pourraient perturber les utilisateurs

Cette approche proactive permet d’éviter les dégradations de service qui surviendraient avec des méthodes réactives traditionnelles.

Économie d’énergie réseau

L’IA contribue de manière significative à l’optimisation de la consommation énergétique au niveau de la couche réseau:

Prédiction des périodes de faible trafic

Les algorithmes d’IA peuvent analyser les modèles historiques de trafic pour prédire avec précision les périodes de faible utilisation:

  • Identification des cycles quotidiens, hebdomadaires et saisonniers dans l’utilisation du réseau
  • Reconnaissance des modèles spécifiques liés aux événements locaux, jours fériés, ou conditions exceptionnelles
  • Prévision des fluctuations à court terme dans la demande de trafic
  • Détection des zones géographiques connaissant des périodes d’inactivité prolongées

Ces prédictions permettent une planification optimale des économies d’énergie sans compromettre la qualité du service.

Désactivation dynamique des ressources sous-utilisées

Sur la base de ces prédictions, l’IA peut orchestrer la désactivation intelligente des ressources réseau:

  • Mise en veille sélective de certaines cellules pendant les heures creuses
  • Réduction contrôlée de la bande passante disponible lorsque la demande est faible
  • Désactivation temporaire de certaines bandes de fréquence ou composants RF
  • Coordination des cycles de veille entre cellules voisines pour maintenir une couverture minimale

Cette désactivation dynamique permet de réaliser des économies d’énergie substantielles tout en maintenant la disponibilité du réseau.

Réactivation préemptive basée sur les prévisions

L’aspect le plus innovant de cette approche est la capacité à réactiver les ressources de manière préemptive:

  • Anticipation des augmentations de trafic avant qu’elles ne se produisent
  • Réactivation progressive des ressources pour éviter les pics de consommation
  • Priorisation de la réactivation des cellules en fonction des prévisions de demande spécifiques à chaque zone
  • Coordination de la réactivation avec d’autres optimisations réseau pour une transition fluide

Cette réactivation préemptive garantit que les utilisateurs ne subissent aucune dégradation de service malgré les économies d’énergie réalisées.

Le rôle du 3GPP dans la standardisation de l’IA/ML pour L2 et L3

Développements des Releases 17 et 18

Les efforts initiaux d’intégration de l’IA/ML dans le 3GPP ont commencé avec la Release 17, qui s’est concentrée sur l’amélioration des fonctions SON (Self-Organizing Networks) telles que:

  • L’économie d’énergie du réseau, permettant une réduction significative de la consommation énergétique des stations de base sans compromettre l’expérience utilisateur
  • L’équilibrage de charge, visant à distribuer efficacement le trafic entre les cellules pour éviter la congestion et optimiser l’utilisation des ressources
  • L’optimisation de la mobilité, améliorant la gestion des handovers pour réduire les interruptions de service lors des déplacements des utilisateurs

Ces efforts se sont poursuivis et amplifiés dans la Release 18, avec un accent particulier sur:

  • L’affinement des méthodes d’entraînement des modèles d’IA
  • L’amélioration des techniques de déploiement dans le réseau
  • L’élaboration de standards pour assurer l’interopérabilité des solutions basées sur l’IA entre différents fournisseurs
  • La définition de métriques communes pour évaluer les performances des systèmes basés sur l’IA

Cas d’utilisation pratiques

Le 3GPP a identifié plusieurs cas d’utilisation pratiques pour l’IA/ML dans les couches L2 et L3, notamment:

  1. Économie d’énergie du réseau: L’IA/ML est utilisée pour prédire les périodes de faible trafic et optimiser l’activation/désactivation des composants du réseau, permettant des économies d’énergie substantielles tout en maintenant la qualité de service.
  2. Équilibrage de charge: Les algorithmes d’IA analysent les modèles de trafic, l’utilisation des ressources et les conditions du réseau pour répartir intelligemment les utilisateurs entre les cellules, évitant ainsi les congestions localisées.
  3. Optimisation de la mobilité: L’IA/ML améliore la gestion des handovers en prédisant les mouvements des utilisateurs et en adaptant dynamiquement les paramètres de handover en fonction des conditions spécifiques, réduisant ainsi les interruptions de service lors des déplacements.

Ces cas d’utilisation démontrent la valeur pratique de l’IA/ML dans les couches L2 et L3 et fournissent un cadre pour le développement de solutions standardisées.

Synergies entre l’IA dans les différentes couches du réseau

Coordination entre les couches physique et liaison de données

L’IA appliquée à la couche physique (L1) et à la couche de liaison de données (L2) peut fonctionner de manière coordonnée pour maximiser les performances du réseau:

  1. Adaptation conjointe: Les algorithmes d’IA à la couche L1 peuvent optimiser les paramètres de transmission (modulation, codage, formation de faisceaux) en fonction des décisions d’allocation de ressources prises au niveau L2, et vice versa.
  2. Partage d’informations contextuelles: Les insights générés par l’IA à une couche peuvent enrichir les modèles utilisés à l’autre couche, permettant des décisions plus informées et cohérentes.
  3. Optimisation multi-objectifs: Les objectifs d’optimisation peuvent être coordonnés entre les couches pour éviter les optimisations locales qui pourraient être globalement sous-optimales.
  4. Adaptation aux conditions dynamiques: L’IA peut faciliter l’adaptation rapide des deux couches aux conditions changeantes du réseau, maintenant des performances optimales dans des environnements complexes et dynamiques.

Intégration avec la gestion de réseau de bout en bout

L’IA dans les couches L2 et L3 s’intègre également avec les systèmes de gestion de réseau de bout en bout:

  1. Alignement avec les objectifs commerciaux: Les optimisations au niveau L2/L3 peuvent être guidées par des objectifs commerciaux et des KPIs définis au niveau de la gestion du réseau.
  2. Orchestration globale: Les capacités d’IA au niveau L2/L3 peuvent être orchestrées dans le cadre d’une stratégie d’optimisation plus large qui englobe tous les aspects du réseau.
  3. Feedback bidirectionnel: Les informations circulent dans les deux sens, avec les systèmes de gestion de réseau fournissant du contexte aux modèles d’IA L2/L3, et ces derniers remontant des insights détaillés pour informer les décisions stratégiques.
  4. Évolution coordonnée: Les capacités d’IA à tous les niveaux peuvent évoluer de manière coordonnée, assurant que les améliorations sont cohérentes et complémentaires.

Interaction avec les couches applicatives

L’IA dans les couches L2 et L3 interagit également avec les couches applicatives supérieures:

  1. Optimisations spécifiques aux applications: Les modèles d’IA peuvent adapter les paramètres L2/L3 en fonction des besoins spécifiques des applications en cours d’exécution.
  2. Feedback de qualité d’expérience: Les informations sur la qualité d’expérience perçue au niveau applicatif peuvent être utilisées pour guider les optimisations L2/L3.
  3. Prédiction des besoins applicatifs: L’IA peut anticiper les besoins des applications avant même qu’ils ne soient explicitement communiqués, permettant une allocation proactive des ressources.
  4. Adaptation conjointe: Dans certains cas, les applications et les couches réseau peuvent s’adapter mutuellement de manière coordonnée pour optimiser l’expérience utilisateur globale.

Impact sur les performances du réseau et l’expérience utilisateur

L’intégration de l’IA dans les couches L2 et L3 a un impact significatif sur les performances globales du réseau et l’expérience utilisateur.

Amélioration de l’efficacité des ressources

L’IA permet une utilisation nettement plus efficace des ressources réseau limitées:

  1. Allocation optimisée: Les ressources sont allouées avec une précision inégalée, en tenant compte de multiples facteurs contextuels pour maximiser l’utilité globale.
  2. Réduction du gaspillage: L’IA minimise le gaspillage de ressources en adaptant finement l’allocation aux besoins réels plutôt qu’à des estimations grossières.
  3. Anticipation des besoins: La capacité à prédire les besoins futurs permet une planification plus efficace de l’utilisation des ressources sur différentes échelles de temps.
  4. Équilibrage dynamique: Les ressources peuvent être réallouées dynamiquement en fonction de l’évolution des conditions du réseau et des priorités.

Ces améliorations d’efficacité se traduisent par une capacité accrue du réseau à servir plus d’utilisateurs avec une meilleure qualité de service, sans nécessiter d’investissements proportionnels dans l’infrastructure.

Réduction de la latence et des interruptions

L’IA dans les couches L2 et L3 contribue significativement à réduire la latence et les interruptions:

  1. Handovers optimisés: La prédiction des mouvements des utilisateurs permet des handovers plus fluides et moins susceptibles de causer des interruptions.
  2. Prévention des congestions: L’anticipation et la prévention proactive des congestions réseau réduisent les pics de latence qui affectent négativement l’expérience utilisateur.
  3. Routage intelligent: L’IA peut identifier les chemins optimaux à travers le réseau pour minimiser la latence pour les applications sensibles au temps.
  4. Allocation prioritaire: Les ressources peuvent être allouées prioritairement aux flux de données sensibles à la latence, garantissant une performance constante même en cas de charge réseau élevée.

Ces réductions de latence et d’interruptions sont particulièrement critiques pour les applications émergentes comme la réalité augmentée/virtuelle, les véhicules autonomes, et la télémédecine, qui dépendent d’une connectivité fiable et à faible latence.

Adaptation aux besoins diversifiés des utilisateurs

L’un des avantages majeurs de l’IA dans les couches L2 et L3 est sa capacité à adapter le comportement du réseau aux besoins diversifiés des utilisateurs:

  1. Personnalisation implicite: Le réseau peut s’adapter aux modèles d’utilisation spécifiques de chaque utilisateur sans configuration explicite.
  2. Différenciation contextuelle: Les ressources peuvent être allouées différemment en fonction du contexte d’utilisation (professionnel vs. loisir, critique vs. non-critique, etc.).
  3. Support des cas d’usage émergents: L’IA facilite l’adaptation du réseau à de nouveaux cas d’usage aux exigences inédites, sans nécessiter une refonte complète des systèmes.
  4. Équilibre entre équité et optimisation: L’IA peut trouver des équilibres sophistiqués entre l’équité dans l’allocation des ressources et l’optimisation des performances globales.

Cette adaptabilité accrue permet aux opérateurs de proposer une expérience plus personnalisée et satisfaisante à leurs utilisateurs, renforçant ainsi la valeur perçue de leurs services.

Amélioration de la fiabilité et de la résilience

L’IA dans les couches L2 et L3 contribue également à améliorer la fiabilité et la résilience du réseau:

  1. Détection précoce des anomalies: Les modèles d’IA peuvent identifier des schémas subtils indiquant des problèmes émergents avant qu’ils n’affectent visiblement les performances.
  2. Adaptation proactive: Le réseau peut s’adapter proactivement aux changements de conditions ou aux défaillances partielles, maintenant la continuité du service.
  3. Récupération intelligente: En cas de défaillance, l’IA peut orchestrer des processus de récupération optimisés qui minimisent l’impact sur les utilisateurs et restaurent rapidement les services normaux.
  4. Apprentissage continu: Les systèmes d’IA peuvent apprendre continuellement des incidents passés pour améliorer leur réponse aux événements futurs similaires.

Cette amélioration de la fiabilité et de la résilience est particulièrement importante à mesure que les réseaux cellulaires deviennent une infrastructure critique supportant des services essentiels dans de nombreux secteurs.

Défis et considérations pour l’implémentation

Malgré ses nombreux avantages, l’intégration de l’IA dans les couches L2 et L3 présente plusieurs défis et considérations importantes.

Complexité des modèles et exigences de calcul

L’implémentation de modèles d’IA sophistiqués dans les couches L2 et L3 soulève des préoccupations concernant la complexité et les ressources de calcul:

  1. Équilibre performance-complexité: Il est nécessaire de trouver un équilibre entre la sophistication des modèles d’IA et leur viabilité pratique dans des environnements aux ressources limitées.
  2. Exigences en temps réel: De nombreuses décisions au niveau L2/L3 doivent être prises en temps réel, imposant des contraintes strictes sur la latence d’inférence des modèles d’IA.
  3. Efficacité énergétique: L’exécution de modèles d’IA complexes consomme de l’énergie, ce qui peut contre

Comprendre le concept du modèle ML/IA – Des cas d’usages TR 28.908

Les uses-case IA en 5G

A partir du document 3GPP TR 28.908 version 18.0.0 Release 18 « Study on Artificial Intelligence/Machine Learning (AI/ ML) management », cet article résume les cas d’usages.

Données d’événements pour l’entraînement ML (5.1.1)

Ce cas d’usage concerne la préparation de données prétraitées pour l’entraînement des modèles ML. Plutôt que d’utiliser toutes les données brutes (qui peuvent contenir des informations redondantes ou biaisées), le système identifie et stocke des événements réseau riches en information. Cela permet de réduire les coûts de stockage et de traitement tout en maintenant des données historiques pertinentes pour l’entraînement des modèles ML.

Validation de modèle ML (5.1.2)

Durant le processus d’entraînement ML, le modèle généré doit être validé. L’objectif est d’évaluer la performance du modèle sur des données de validation et d’identifier les écarts de performance entre les données d’entraînement et de validation. Si l’écart n’est pas acceptable, le modèle doit être réajusté avant d’être mis à disposition du consommateur pour l’inférence.

Test de modèle ML (5.1.3)

Après l’entraînement et la validation d’un modèle, il est nécessaire de le tester pour vérifier son fonctionnement correct dans certains contextes d’exécution ou avec des jeux de données spécifiques. Les tests peuvent impliquer des interactions avec des tiers. Le cas d’usage permet au consommateur d’évaluer la performance du modèle via un processus de test avec des données fournies par le consommateur avant de l’appliquer à la fonction d’inférence cible.

Ré-entraînement de modèle ML (5.1.4)

Un modèle ML entraîné peut nécessiter un ré-entraînement lorsque sa performance se dégrade ou lorsque le contexte d’exécution change. Ce cas d’usage décrit le processus de ré-entraînement du modèle avec de nouvelles données sans changer le type d’inférence (entrées/sorties). Le producteur peut initier le ré-entraînement basé sur des seuils de performance ou extraire les échantillons de données les plus pertinents pour optimiser le processus.

Entraînement conjoint de modèles ML (5.1.5)

Une fonction d’inférence AI/ML peut utiliser plusieurs entités ML pour effectuer des inférences. Ces entités peuvent opérer de manière coordonnée (en séquence ou structure plus complexe). Ce cas d’usage permet d’entraîner ou ré-entraîner conjointement ces entités ML coordonnées, afin que l’ensemble puisse accomplir une tâche plus complexe avec une meilleure performance.

Rapports et analyses sur l’efficacité des données d’entraînement (5.1.6)

Pour l’entraînement des modèles ML, une grande quantité de données n’ajoute pas nécessairement de valeur. Ce cas d’usage permet d’évaluer la contribution de chaque instance de données ou type de données d’entrée au processus d’entraînement, d’analyser les modèles de données les plus efficaces, et de corréler les données de mesure pour optimiser l’entraînement ML.

Contexte ML (5.1.7)

Le cas d’usage 5.1.7 traite du contexte ML (MLContext), qui représente l’ensemble des statuts et conditions liés à un modèle ML. Ce contexte peut inclure les caractéristiques du réseau telles que définies dans 3GPP TS 28.104, mais aussi d’autres conditions applicables au modèle ML qui ne font pas partie des caractéristiques réseau, comme l’heure de la journée ou la saison de l’année.

Les différences dans le contexte réseau, c’est-à-dire l’état du réseau sous lequel les données sont collectées pour produire des analyses, affectent significativement les analyses produites. De même, les changements dans le contexte ML, comme les caractéristiques des données liées à l’état du réseau et aux conditions utilisées pour l’entraînement, les tests et le déploiement du modèle ML, peuvent affecter les performances du modèle. Ces changements peuvent représenter un problème pour le modèle ML et nécessitent donc des capacités de gestion spécifiques.

Le cas d’usage comporte trois sous-cas principaux:

  1. Surveillance et signalement du contexte ML: Le contexte ML doit être identifié en caractérisant les données d’entrée pour lesquelles le modèle ML est conçu. La surveillance de ce contexte permet de détecter les changements et anomalies qui pourraient dégrader les performances du modèle. Le consommateur du service AI/ML doit être informé de ces changements de contexte observés.
  2. Mobilité du contexte ML: Dans de nombreux cas d’automatisation réseau, une fonction d’inférence AI/ML ne peut pas couvrir l’ensemble du réseau avec une seule instance de modèle ML. Un modèle ML peut être entraîné pour un contexte local spécifique, et de même, un contexte différent peut s’appliquer pour l’inférence. Le contexte des entités ML doit donc distinguer entre le contexte de génération de décisions, le contexte de collecte de mesures ou de données, et le contexte de préparation avant activation pour l’inférence.
  3. Mode veille pour le modèle ML: Lorsque plusieurs instances d’entités ML sont nécessaires pour couvrir différentes parties du réseau, des transferts de contexte d’apprentissage automatique, ou « transferts », entre les entités ML couvrant différentes zones de validité sont nécessaires. Un exemple concret est celui d’un modèle ML prédictif pour le transfert intercellulaire, où le modèle doit être déployé dans l’équipement utilisateur (UE) et mis à jour lorsque l’UE change de cellule. Pour minimiser les délais de déploiement et d’initialisation du nouveau modèle, un « champ de préparation » peut être défini pour chaque modèle ML, indiquant la zone dans laquelle le modèle est déployé et initialisé mais pas encore activé pour l’inférence.

Ce cas d’usage met en évidence l’importance de la gestion du contexte ML pour assurer des performances optimales des modèles ML dans des environnements réseau dynamiques et complexes. Il souligne également la nécessité de définir et gérer différents types de contextes (surveillance, validité, préparation) pour faciliter les transitions fluides entre modèles ML dans des scénarios de mobilité.

Découverte et cartographie des capacités du modèle ML (5.1.8)

Une fonction réseau ou de gestion qui applique l’IA/ML peut avoir une ou plusieurs entités ML, chacune avec des capacités spécifiques. Ce cas d’usage permet d’identifier les capacités des entités ML existantes (capacités de prise de décision ou d’analyse) et de les associer à des logiques d’exécution spécifiques, facilitant leur utilisation pour répondre aux besoins d’automatisation.

Gestion des mises à jour AI/ML (5.1.9)

En raison de la complexité et de la nature changeante du réseau, les entités ML déployées peuvent ne plus être applicables après une période de fonctionnement. Ce cas d’usage permet au producteur de mettre à jour les entités ML et d’informer le consommateur autorisé du statut de mise à jour, assurant ainsi une performance d’inférence optimale dans le réseau ou système.

Évaluation de performance pour l’entraînement ML (5.1.10)

Ce cas d’usage concerne l’évaluation de la performance durant l’entraînement ML, permettant au consommateur de sélectionner les indicateurs de performance appropriés, de comprendre et configurer le comportement du modèle ML, et d’appliquer des politiques basées sur la performance pour l’entraînement et les tests ML.

Gestion de configuration pour la phase d’entraînement ML (5.1.11)

L’entraînement ML peut être initié par le consommateur ou le producteur, et peut consommer des ressources significatives. Ce cas d’usage permet au consommateur de contrôler l’entraînement ML initié par le producteur via des configurations, notamment des politiques pour déclencher l’entraînement et des mécanismes d’activation/désactivation de la fonction d’entraînement ML.

Transfert de connaissances ML (5.1.12)

Ce cas d’usage permet d’utiliser les connaissances contenues dans un ou plusieurs modèles ML existants pour produire ou améliorer une nouvelle capacité ML. Il comprend la découverte des connaissances partageables et le partage de connaissances pour le transfert d’apprentissage, sans nécessairement transférer le modèle ML lui-même.

Historique d’inférence AI/ML (5.2.1)

Pour différents besoins d’automatisation, les fonctions réseau et de gestion peuvent appliquer des fonctionnalités ML pour faire des inférences dans différents contextes. Ce cas d’usage permet de suivre l’historique des décisions d’inférence et du contexte dans lequel elles sont prises, permettant d’évaluer la pertinence des décisions ou de détecter des dégradations dans la capacité de prise de décision du modèle.

Orchestration de l’inférence AI/ML (5.2.2)

Un système d’automatisation réseau peut impliquer plusieurs fonctions d’inférence AI/ML, chacune ayant une vue limitée du réseau. Ce cas d’usage facilite l’orchestration de leur fonctionnement et de l’exécution des actions recommandées, incluant le partage de connaissances sur les actions exécutées et leurs impacts, ainsi que le déclenchement et la coordination des fonctions d’inférence AI/ML.

Coordination entre les capacités ML (5.2.3)

Pour le ML dans le 5GC ou RAN, les capacités ML peuvent nécessiter une coordination avec les analyses de gestion 3GPP pour améliorer la performance globale. Ce cas d’usage permet l’alignement des capacités ML entre 5GC/RAN et le système de gestion 3GPP, combinant leurs résultats d’analyse pour améliorer la précision des prédictions globales.

Chargement de modèle ML (5.2.4)

Ce cas d’usage concerne le processus de mise à disposition d’un modèle ML dans les environnements opérationnels. Après qu’un modèle ML répond aux critères de performance, il peut être chargé dans une fonction d’inférence cible, que ce soit à la demande du consommateur ou sur initiative du producteur selon une politique de chargement prédéfinie.

Émulation d’inférence ML (5.2.5)

Après la validation d’un modèle ML durant son développement, l’émulation d’inférence est nécessaire pour vérifier son fonctionnement correct dans des contextes d’exécution spécifiques. Ce cas d’usage permet au consommateur de demander l’exécution d’une capacité AI/ML dans un environnement d’émulation et de gérer le processus d’émulation, y compris dans différents environnements selon le niveau de confiance.

Évaluation de performance pour l’inférence AI/ML (5.2.6)

En phase d’inférence, la performance de la fonction d’inférence et du modèle ML doit être évaluée par rapport aux attentes du consommateur. Ce cas d’usage permet la sélection et l’application d’indicateurs de performance basés sur les politiques du consommateur, ainsi que l’abstraction des métriques de performance pour faciliter leur interprétation.

Gestion de configuration pour la phase d’inférence AI/ML (5.2.7)

La fonction d’inférence AI/ML doit être configurée pour conduire l’inférence conformément aux attentes du consommateur. Ce cas d’usage permet la configuration de la fonction d’inférence et l’activation/désactivation des modèles ML, y compris l’activation partielle ou progressive des capacités d’inférence AI/ML selon des politiques prédéfinies.

Contrôle de mise à jour AI/ML (5.2.8)

Lorsque les capacités d’un modèle ML se dégradent, le consommateur doit pouvoir déclencher des mises à jour. Ce cas d’usage permet au producteur d’informer le consommateur de la disponibilité de nouvelles capacités et au consommateur de demander la mise à jour des modèles ML avec des exigences de performance spécifiques.

Apprentissage machine fiable (5.3.1)

Ce cas d’usage concerne la gestion de la fiabilité AI/ML pendant l’entraînement, les tests et l’inférence. Il vise à garantir que le modèle est explicable, équitable et robuste à travers la définition d’indicateurs de fiabilité, le prétraitement des données selon des mesures de fiabilité, et l’application de techniques de fiabilité pendant l’entraînement, l’inférence et l’évaluation.

5G-Advanced R.19 : AIoT – Partie 5

Tableau Comparatif des Caractéristiques Principales

Use Case Contexte d’application Latence maximale Disponibilité du service Taille du message Densité des dispositifs Portée de communication Vitesse des dispositifs Précision de positionnement
5.1 – Entreposage automatisé Logistique, gestion d’inventaire 1s 99% 96/128 bits 1-2/m² 30m (intérieur) 5-10 km/h 2-3m
5.2 – Instruments médicaux Santé, gestion d’inventaire Quelques secondes 99% 176 bits ≥1000/km² 50m (intérieur), 200m (extérieur) <6 km/h 3-5m (intérieur)
5.3 – Sous-stations électriques Énergie, réseaux intelligents 1s 99% <100 octets <10,000/km² 50-200m (extérieur) Stationnaire Dizaines de mètres
5.4 – Logistique en réseau non public Logistique, gestion d’inventaire
5.5 – Intralogistique automobile Fabrication, gestion de matériaux 10s 99% 96 bits <1,5 million/km² 30m (intérieur) 5 km/h 3m
5.6 – Maisons intelligentes Domotique, surveillance 20s 99,9% 8-96 bits <5 pour 100m² 10-30m (intérieur) Stationnaire
5.7 – Terminaux d’aéroport/port Gestion d’actifs, logistique 1-10s 99% 256 bits 100 dispositifs/km² 50m (intérieur) 3-10 km/h Niveau cellulaire
5.8 – Recherche d’objets perdus Localisation, suivi 5s 99% 256 bits 250/100m² (intérieur), 10/100m² (extérieur) 10m (intérieur), 100m (extérieur) ~3m (intérieur), ~10m (extérieur)
5.9 – Services de localisation Localisation, suivi 500m 10 km/h (extérieur) Niveau cellulaire (horizontal)
5.10 – Positionnement relatif Localisation, suivi 20/100m² 10m <1m/s 1-3m
5.11 – Modification d’instruments médicaux Santé, gestion d’inventaire Quelques secondes 99% 176 bits ≥1000/km² 50m (intérieur), 200m (extérieur) <6 km/h 3-5m (intérieur)
5.12 – Recherche d’objets personnels Localisation, suivi 1s 99,9% <1 kbits <5 pour 100m² (intérieur), <10 pour 100m² (extérieur) 10m (intérieur), 100m (extérieur) Statique 1-3m (intérieur), dizaines de mètres (extérieur)
5.13 – Supervision environnementale Télécommunications, surveillance 30s 99% 96 bits 1,5/m² 30m (intérieur) Stationnaire
5.14 – Positionnement intérieur Commerce, navigation 0,5s 99,9% 96 bits 2500/10000m² 10m 3m
5.15 – Lessive intelligente Domotique, électroménager >10s <100 bits 20/100m² 6 km/h (extérieur)
5.16 – Distribution automatisée Logistique, suivi >10s 99% <100 octets <1,5 million/km² 30m (intérieur), 400m (extérieur) 3m (intérieur), niveau cellulaire (extérieur)
5.17 – Activation/désactivation Gestion des dispositifs
5.18 – Aliments frais Logistique, surveillance >1 minute <100 bits 1,5 million/km² 1 m/s
5.19 – Incendies de forêt Surveillance environnementale >10s 99,9% 100 par km² 15-200m Stationnaire
5.20 – Agriculture intelligente Agriculture, contrôle >1s 99,9% <1000 bits 1 par m² 30-100m Stationnaire
5.21 – Guide de musée Culture, information 2s 99,9% 96 bits <10,000/km² 30m 3 km/h 3m
5.22 – Élevage laitier Agriculture, surveillance >1s 99% <100 octets <5200/km² 300-500m (extérieur) 3 km/h
5.23 – Élevage porcin Agriculture, surveillance >10s <100 octets 850 000/km² 250m (intérieur) Quasi-stationnaire
5.24 – Bouches d’égout Infrastructure urbaine 10-30s 99% <100 octets <1000/km² 300-500m (extérieur) Stationnaire
5.25 – Santé des ponts Infrastructure urbaine 10s 99% <100 octets <1000/km² 300-500m (extérieur) Stationnaire
5.26 – Soins aux personnes âgées Santé, assistance 1s <100 bits <20 pour 100m² 20m (intérieur), 200m (extérieur) Statique
5.27 – Logistique de bout en bout Logistique, suivi
5.28 – Interrupteur à pression Interface utilisateur
5.29 – Désactivation permanente Gestion des dispositifs
5.30 – Contrôleur agricole Agriculture, contrôle Plusieurs secondes 99% 128 bit (DL) 500m (extérieur) Statique

Intégration de la détection et de la communication : ISAC Cas d’usage 27 à 32

Ce document est issu de la TR 22.827 et à pour objectif de résumer les cas d’usages

Résumé du cas d’utilisation 5.27 « Public Safety Search and Rescue or Apprehend »

Description :
Ce cas d’utilisation met en évidence l’importance de localiser rapidement un individu porté disparu (opération de recherche et sauvetage) ou un suspect impliqué dans une activité illégale (opération d’appréhension).

Une localisation précise sur les trois axes (3D) est nécessaire pour optimiser la détection.

Exigences potentielles pour le soutien de ce cas d’utilisation :

Critère de performance Valeur requise
Niveau de confiance ≥ 99 %
Précision de l’estimation du positionnement horizontal ≤ 0,5 m
Précision de l’estimation du positionnement vertical ≤ 1 m
Précision de l’estimation de la vitesse horizontale ≤ 1,5 m/s
Précision de l’estimation de la vitesse verticale ≤ 1,5 m/s
Résolution de la détection ≤ 3 m
Latence maximale du service de détection ≤ 1000 ms
Taux de rafraîchissement ≤ 0,1 s
Taux de détection manquée ≤ 3 %
Taux de fausse alarme ≤ 3 %

 

Résumé du cas d’utilisation 5.28 : Détection pour les systèmes d’assistance avancée à la conduite (ADAS)

Description :
Le système d’assistance avancée à la conduite (ADAS) utilise divers capteurs (radar à ondes millimétriques, lidar, caméras monoculaires/binoculaires et navigation par satellite) installés sur le véhicule pour détecter l’environnement. Ces capteurs collectent des données, identifient, détectent et suivent des objets statiques et dynamiques. Le système analyse ensuite ces données pour alerter le conducteur des dangers potentiels, augmentant ainsi la sécurité et le confort de conduite.

Les technologies de détection basées sur la radio NR (New Radio) 3GPP peuvent être intégrées dans l’ADAS pour améliorer sa fiabilité et sa qualité. Les véhicules équipés de cette technologie peuvent, par exemple, détecter les collisions imminentes et arrêter la voiture pour les éviter.

Exigences potentielles pour le soutien de ce cas d’utilisation :

Critère de performance Valeur requise

Intérieure

Valeur requise

Extérieure

Niveau de confiance ≥ 95 % ≥ 95 %
Précision de l’estimation du positionnement horizontal ≤ 1,3 m ≤ 2,6 m
Précision de l’estimation de la vitesse horizontale ≤ 0,12 m/s ≤ 0,12 m/s
Résolution de la détection ≤ 0,4 m ≤ 0,4 m
Latence maximale du service de détection ≤ 50 ms ≤ 20 ms
Taux de rafraîchissement ≤ 0,2 s ≤ 0,05 s
Taux de détection manquée ≤ 10 % ≤ 10 %
Taux de fausse alarme ≤ 1 % ≤ 1 %

 

Résumé du cas d’utilisation 5.29 : Use case on Coarse Gesture Recognition for Application Navigation and Immersive Interaction »

Description : Cette section se concentre sur l’utilisation de la reconnaissance gestuelle sans contact, permettant aux utilisateurs de contrôler des applications et d’interagir avec des environnements immersifs via des gestes simples. Ce type d’interaction est particulièrement utile dans des environnements où le contrôle manuel est difficile ou impossible.

Exigences potentielles pour le soutien de ce cas d’utilisation :

Critère de performance Valeur requise
Niveau de confiance ≥ 95 %
Précision de l’estimation du positionnement horizontal ≤ 0,1 m
Précision de l’estimation de la vitesse horizontale ≤ 0,1 m
Latence maximale du service de détection ≤ 500 ms
Taux de rafraîchissement ≤ 1 s
Taux de détection manquée ≤ 5 %
Taux de fausse alarme ≤ 5 %

 

Résumé du cas d’utilisation 5.31 : détection des angles morts pour améliorer la sécurité des véhicules en mouvement.

L’objectif est d’améliorer la sécurité des manœuvres, notamment lors des changements de voie ou des virages.

Pré-conditions :

  • Le véhicule doit être équipé de capteurs ou de technologies de détection capables d’identifier les objets ou véhicules se trouvant dans les angles morts.
  • Les capteurs doivent être positionnés de manière à couvrir l’ensemble des zones critiques où des angles morts peuvent exister.
  1. Les capteurs embarqués collectent des données en temps réel sur les objets ou véhicules situés dans les angles morts.
  2. Le système analyse les données pour déterminer s’il y a un risque potentiel de collision.
  3. En cas de détection d’un obstacle dans l’angle mort, le conducteur est averti par un signal visuel ou sonore.
  4. Si le conducteur ignore l’alerte et continue sa manœuvre, le système peut proposer une assistance automatique (par exemple, correction de trajectoire).

 

Exigences potentielles pour le soutien de ce cas d’utilisation :

Critère de performance Valeur requise
Niveau de confiance ≥ 99 %
Précision de l’estimation du positionnement horizontal ≤ 0,5 m
Précision de l’estimation du positionnement vertical ≤ 0,5 m
Précision de l’estimation de la vitesse horizontale ≤ 0,1 m/s
Précision de l’estimation de la vitesse verticale ≤ 0,1 m/s
Résolution de la détection ≤ 0,5 m
Latence maximale du service de détection ≤ 200 ms
Taux de rafraîchissement ≤ 0,5 s
Taux de détection manquée ≤ 1 %
Taux de fausse alarme ≤ 1 %

Résumé du cas d’utilisation 5.32 : intégration des technologies de détection et de positionnement dans un hall d’usine pour améliorer la gestion des opérations et la sécurité.

Ce cas d’utilisation concerne l’intégration de la détection et du positionnement pour suivre et localiser des objets, des équipements ou des personnes à l’intérieur d’un hall d’usine. L’objectif est d’améliorer l’efficacité des opérations de production, d’assurer la sécurité et d’optimiser l’utilisation des ressources.

  1. Les capteurs collectent des données sur les objets et les personnes dans le hall d’usine.
  2. Les données sont analysées pour déterminer la position, la vitesse et d’autres caractéristiques des objets suivis.
  3. Les résultats de l’analyse sont utilisés pour optimiser les flux de production, éviter les collisions et assurer la sécurité du personnel.
  4. Les données de détection et de positionnement sont mises à jour en temps réel pour refléter tout changement dans l’environnement.
Critère de performance Valeur requise
Niveau de confiance ≥ 98 %
Précision de l’estimation du positionnement horizontal ≤ 0,2 m
Précision de l’estimation du positionnement vertical ≤ 0,2 m
Précision de l’estimation de la vitesse horizontale ≤ 0,05 m/s
Précision de l’estimation de la vitesse verticale ≤ 0,05 m/s
Résolution de la détection ≤ 0,2 m
Résolution de la détection en vitesse ≤ 0,05 m
Latence maximale du service de détection ≤ 100 ms
Taux de rafraîchissement ≤ 0,2 s
Taux de détection manquée ≤ 2 %
Taux de fausse alarme ≤ 1 %

 

Intégration de la détection et de la communication : ISAC Cas d’usage 21 à 26

Ce document est issu de la TR 22.827 et à pour objectif de résumer les cas d’usages

Résumé du cas d’utilisation 5.21 : Diffusion continue et transparente pour XR (Extended Reality)

Description :
La réalité étendue (XR) est un cas d’utilisation important pour la 5G Il est crucial de maintenir en permanence une connexion sans fil de haute qualité pour XR. Il est particulièrement important de prévoir et de s’adapter rapidement aux changements du canal sans fil, notamment dans les bandes millimétriques qui sont très sensibles aux changements d’environnement, tels que les blocages, les mouvements de l’utilisateur ou les rotations.

Pour s’adapter rapidement aux changements du canal sans fil, il est nécessaire de comprendre la dynamique du canal sans fil, qui dépend de la connaissance de l’environnement, y compris la localisation de l’émetteur et du récepteur, la géométrie des bâtiments, les objets en mouvement, la localisation et le matériau des obstacles, etc.

Fonctionnement :

  • Les dispositifs XR (par exemple, les téléphones 5G, les casques AR/VR) et les entités tierces qui prennent en charge la 5G utilisent également des capteurs non-3GPP, tels que les capteurs RF, les unités de mesure inertielle (IMU), les caméras RGB et les capteurs de position.
  • Un service de « Carte RF de détection » peut collecter des informations de détection provenant de capteurs 3GPP et non-3GPP, traiter ces données et fournir des résultats de détection pour mieux comprendre l’environnement et anticiper les impacts sur les performances de communication.

Performance requise pour le cas d’utilisation :

Critère de performance Valeur requise
Latence aller-retour maximale ≤ 10 ms
Taux de rafraîchissement ≤ 1 s
Niveau de confiance ≥ 95 %

 

Résumé du cas d’utilisation 5.22 : Détection des UAV, véhicules et piétons à proximité des équipements du réseau intelligent (Smart Grid)

Description :
Dans le cadre des opérations de transformation d’énergie, des risques de sécurité existent, comme la photographie non autorisée, les attaques par UAV ou les chocs électriques lorsqu’un intrus s’approche des équipements critiques.

Une fois qu’un intrus est détecté à une distance inférieure à la valeur de sécurité définie par l’opérateur du Smart Grid, le système 5G envoie une alerte pour déclencher une intervention.

Performance requise pour le cas d’utilisation :

Critère de performance Valeur requise
Niveau de confiance ≥ 95 %
Précision de l’estimation de positionnement horizontal ≤ 0.7 m
Précision de l’estimation de la vitesse horizontale UAV : ≤ 25 m/s / Piéton : ≤ 1.5 m/s / Véhicule : ≤ 15 m/s
Latence maximale du service de détection ≤ 5000 ms
Taux de rafraîchissement ≥ 10 Hz (toutes les 0.1 s)
Taux de détection manquée ≤ 5 %
Taux de fausse alarme ≤ 5 %

Ces performances garantissent une surveillance continue et précise des intrusions et des mouvements autour des équipements du réseau intelligent, renforçant la sécurité des infrastructures critiques.

 

Résumé du cas d’utilisation 5.23 : Évitement de collision des AMR dans les usines intelligentes

Description :
Les robots mobiles autonomes (AMR) sont de plus en plus utilisés dans de nombreuses opérations logistiques, notamment dans la fabrication, l’entreposage, les terminaux et les hôpitaux. Contrairement aux véhicules guidés automatisés (AGV) qui suivent des itinéraires prédéfinis, les AMR peuvent se déplacer de manière autonome et ajuster leur route en fonction des demandes des utilisateurs, offrant ainsi une plus grande flexibilité et une plus grande mobilité. Cependant, le champ de détection d’un AMR est limité et il peut ne pas détecter à temps l’apparition soudaine de personnes ou d’autres machines dans son environnement, ce qui pose des défis pour assurer la sécurité de sa conduite.

Les stations de base 5G peuvent être déployées dans une usine non seulement pour fournir des capacités de communication, mais aussi pour détecter l’environnement autour des AMR, comme la présence d’obstacles ou de personnes sur leur trajectoire. Les données de détection sont analysées par le réseau 5G pour fournir des informations en temps réel aux AMR afin d’améliorer leur efficacité et leur sécurité de conduite.

Performance requise pour le cas d’utilisation :

Critère de performance Valeur requise
Niveau de confiance ≥ 99 %
Précision de l’estimation du positionnement horizontal ≤ 1 m
Précision de l’estimation de la vitesse horizontale 1 m/s
Résolution de détection 1 m
Latence maximale du service de détection ≤ 500 ms
Taux de rafraîchissement 0,05 s
Taux de détection manquée ≤ 5 %

 

Résumé du cas d’utilisation 5.24 : Surveillance des activités sportives avec itinérance

Description :
L’application de surveillance des activités sportives utilise des signaux sans fil plutôt que des caméras ou des dispositifs portables pour surveiller les exercices physiques d’une personne tout en préservant la confidentialité.. Par exemple, pendant des exercices tels que des abdominaux ou des pompes, l’application de surveillance sportive détecte les gestes corporels et fournit des retours, tels que le comptage du nombre d’exercices effectués et le calcul des calories dépensées.

Performance requise pour le cas d’utilisation :

Critère de performance Valeur requise
Niveau de confiance ≥ 95 %
Précision du taux de mouvement humain 0.05 Hz (3 fois/minute pour les abdominaux)
Précision de l’estimation du positionnement 0.07 Hz (4 fois/minute pour les pompes)
Latence maximale du service de détection ≤ 60 s
Taux de rafraîchissement ≤ 60 s

 

Résumé du cas d’utilisation 5.25 : Expérience immersive basée sur la détection

Description :
Ce cas d’utilisation exploite la technologie de détection basée sur les signaux 5G pour créer une expérience audio et lumineuse immersive dans un environnement domestique. Les signaux sans fil 5G sont utilisés pour détecter la position d’un utilisateur, même lorsque celui-ci ne porte pas d’équipement utilisateur (UE). Grâce à cette détection, un système de home cinéma composé de haut-parleurs intelligents et de lumières intelligentes peut ajuster l’audio et l’éclairage en fonction de la position de l’utilisateur pour offrir une expérience personnalisée.

Fonctionnement :

  • Les haut-parleurs intelligents et les lumières sont distribués dans la pièce et sont capables de communiquer entre eux pour ajuster l’environnement audio et lumineux.
  • Un écran intelligent (utilisé comme nœud de détection) effectue une opération de détection pour suivre la position de l’utilisateur dans la pièce.
  • En utilisant les résultats de la détection, le système ajuste le champ audio et l’éclairage en fonction de la position et des mouvements de l’utilisateur.

Performance requise pour le cas d’utilisation :

Critère de performance Valeur requise
Niveau de confiance ≥ 95 %
Précision de l’estimation du positionnement horizontal ≤ 0.5 m
Précision de l’estimation du positionnement vertical ≤ 0.5 m
Précision de l’estimation de la vitesse horizontale ≤ 0.1 m/s
Résolution de la détection ≤ 0.5 m
Latence maximale du service de détection ≤ 250 ms
Taux de rafraîchissement ≤ 0.25 s
Taux de détection manquée ≤ 5 %
Taux de fausse alarme ≤ 5 %

Résumé du cas d’utilisation 5.26 : Détection précise pour la manœuvre et la navigation automobile

Description :
8 millions de véhicules autonomes ou semi-autonomes seront en circulation en 2025. La détection sans fil NR (New Radio) aidera à la manœuvre et à la navigation des véhicules, notamment dans des scénarios où les capteurs montés sur une seule voiture ne suffisent pas à prendre des décisions sûres et fiables (par exemple, éviter une collision ou détecter des piétons).

Dans ce cas d’utilisation, la détection NR est utilisée pour assister la prise de décision des véhicules autonomes.

Performance requise pour le cas d’utilisation :

Critère de performance Valeur requise
Niveau de confiance ≥ 99 %
Précision de l’estimation du positionnement horizontal ≤ 1 m
Précision de l’estimation de la vitesse horizontale ≤ 0.1 m/s
Résolution de la détection ≤ 1 m
Latence maximale du service de détection ≤ 100 ms
Taux de rafraîchissement ≤ 0.05 s
Taux de détection manquée ≤ 1 %
Taux de fausse alarme ≤ 1 %

 

Intégration de la détection et de la communication : ISAC Cas d’usage 16 à 20

Ce document est issu de la TR 22.827 et à pour objectif de résumer les cas d’usages

Résumé du cas d’utilisation 5.16 : Protection des informations de détection

Description :
Ce cas d’utilisation reprend le scénario de détection d’intrus dans une maison intelligente, comme décrit dans le cas d’utilisation 5.1. L’aspect supplémentaire introduit dans ce cas d’utilisation est qu’un utilisateur non autorisé tente de collecter des informations de détection provenant de la maison.

  • La confidentialité des informations de détection dans la maison est préservée.
  • L’utilisateur non autorisé ne peut pas utiliser les signaux 5G pour détecter que la famille est absente de la maison.

Performance requise pour le cas d’utilisation :

Critère de performance Valeur requise
Niveau de confiance ≥ 95 %
Latence maximale du service de détection ≤ 500 ms
Taux de rafraîchissement ≤ 1 s
Taux de détection manquée ≤ 5 %
Taux de fausse alarme ≤ 5 %

 Résumé du cas d’utilisation 5.17 : Surveillance de la santé à domicile

Description :

Cette technologie de détection sans fil pour la surveillance de la santé ne nécessite pas le port d’un dispositif de surveillance sur le corps, ce qui est souvent inconfortable et peut être oublié. Si un événement critique est détecté, comme une chute ou une absence de mouvement prolongée, les services d’urgence sont alertés.

Performance requise pour le cas d’utilisation :

Critère de performance Valeur requise
Niveau de confiance ≥ 95 %
Précision de l’estimation du rythme respiratoire ≤ 0,033 Hz
Latence maximale du service de détection ≤ 60 s
Taux de rafraîchissement ≤ 60 s
Taux de détection manquée ≤ 5 %
Taux de fausse alarme ≤ 5 %

 

Résumé du cas d’utilisation 5.18 : Continuité du service de surveillance de la santé

Description :
Dans une maison de retraite, un système 5G est installé pour fournir des capacités de communication et de détection dans tout l’établissement. Ce système comprend plusieurs dispositifs de détection, tels que des stations de base, qui assurent la surveillance de la santé des résidents (par exemple, détection de chute, détection d’activité ou surveillance des signes vitaux comme la fréquence cardiaque ou respiratoire).

Étant donné que les personnes âgées se déplacent dans l’établissement, il est important d’assurer une surveillance de la santé sans interruption, indépendamment de la station de base utilisée pour la détection. Ce système de détection sans fil 5G est préféré aux dispositifs portés sur le corps, car il ne nécessite pas de recharge ou de rappel pour être porté. De plus, il n’expose pas les résidents à des problèmes de confidentialité comme le ferait l’installation de caméras.

 

Performance requise pour le cas d’utilisation :

Critère de performance Valeur requise
Niveau de confiance ≥ 95 %
Précision de l’estimation du positionnement horizontal ≤ 1 m
Latence maximale du service de détection ≤ 1000 ms
Taux de rafraîchissement ≤ 1 s
Taux de détection manquée ≤ 5 %
Taux de fausse alarme ≤ 5 %

 

Résumé du cas d’utilisation 5.19 : Groupes de capteurs

Description :

Ce cas d’utilisation concerne la création de groupes de capteurs pour collecter des données de détection plus complètes et précises. Les capteurs peuvent inclure des vidéos, des dispositifs LiDAR, des sonars et d’autres technologies, et ils peuvent fonctionner ensemble pour fournir une vue d’ensemble d’une scène, par exemple, surveiller un chantier de construction où une grue soulève un objet près d’une tour. Au lieu de se fier uniquement à l’opérateur de la grue, le système 5G permet de modéliser et de suivre la tour, la grue et la charge en mouvement pour améliorer la sécurité et l’efficacité.

Fonctionnement :

  • Un équipement utilisateur (UE) identifie les capteurs disponibles à proximité sur un site de construction pour fournir des données de détection.
  • Les capteurs proches sont regroupés en un groupe de capteurs, permettant d’obtenir des mesures synchronisées et une vue 3D plus précise de l’objet d’intérêt.
  • Les données des capteurs sont combinées pour produire des résultats de détection complets, tels que la position et les mouvements d’un objet en 3D.

Performance requise pour le cas d’utilisation :

Critère de performance Valeur requise
Précision de la localisation ≤ 10 cm (en 3D)
Précision des mesures synchronisées ≤ 5 ms
Taille du groupe de capteurs ≥ 4 dispositifs
Portée maximale pour la découverte 100 m

 

Résumé du cas d’utilisation 5.20 : Détermination de la disponibilité des places de stationnement

Description :
La technologie de détection (sensing) permet d’améliorer l’expérience utilisateur en fournissant des informations sur la disponibilité des places de stationnement. Les garages souterrains ou intérieurs peuvent installer plusieurs récepteurs et émetteurs de détection tout au long de la structure en béton pour détecter la disponibilité des places de stationnement. Les garages extérieurs peuvent également exploiter cette technologie pour la détection des places.

Un autre cas d’utilisation lié est le stationnement automatisé, tel que l’AVP (Automated Valet Parking) et l’AFP (Automatic Factory Parking), où les véhicules reçoivent des informations sur le chemin à suivre pour se garer automatiquement dans une installation donnée. La connectivité est un composant important dans le stationnement automatique, et la technologie de détection 3GPP peut être utilisée pour déterminer les places disponibles et le meilleur itinéraire pour qu’un véhicule s’y rende.

Fonctionnement :

  • En mesurant la puissance du signal réfléchi par l’objet cible (véhicule ou espace vide), le récepteur de détection peut distinguer si une place est occupée ou libre.
  • D’autres méthodes incluent l’analyse de la distance, de l’angle et de la vitesse des objets pour déterminer la disponibilité des places de stationnement.
  • Une méthode avancée consiste à générer un nuage de points 3D pour détecter les objets statiques et en mouvement.

Performance requise pour le cas d’utilisation :

Critère de performance Valeur requise
Niveau de confiance ≥ 95 %
Précision de l’estimation du positionnement horizontal ≤ 0.5 m
Précision de l’estimation du positionnement vertical ≤ 0.5 m
Précision de l’estimation de la vitesse horizontale ≤ 0.1 m/s
Résolution de détection 2,5 m (perpendiculairement à la place) / 5 m (parallèle)
Latence maximale du service de détection ≤ 1000 ms
Taux de rafraîchissement ≤ 1 s
Taux de détection manquée ≤ 5 %
Taux de fausse alarme ≤ 5 %

 

Intégration de la détection et de la communication : ISAC Cas d’usage 11 à 15

Ce document est issu de la TR 22.827 et à pour objectif de résumer les cas d’usages

Résumé du cas d’utilisation 5.11 : Détection aux croisements routier avec/sans obstacle

Description :
Ce cas d’utilisation porte sur la surveillance des croisements routiers où diverses formes de transport (véhicules, piétons, véhicules motorisés et non motorisés) rendent la circulation complexe. Les accidents se produisent souvent aux croisements, notamment lorsque des piétons surgissent soudainement d’un endroit invisible, comme derrière des bâtiments ou des arbres hauts. Il est donc essentiel de surveiller en temps réel l’état de la route. En collaboration avec des tiers de confiance, comme des fournisseurs de services cartographiques ou des plateformes de gestion des systèmes de transport intelligents (ITS), des informations d’assistance à la conduite peuvent être fournies aux véhicules pour améliorer la sécurité routière.

Fonctionnement :
Les informations sur l’état de la route (par exemple, le mouvement des véhicules, la position et la vitesse des usagers vulnérables de la route, ainsi que la détection d’obstacles et de comportements anormaux) peuvent être capturées par des caméras et des radars installés sur des unités de bord de route (RSU). Cependant, il subsiste des angles morts que la technologie 5G permet de combler en fournissant des données de détection en temps réel au réseau central. Ce réseau peut ensuite analyser et combiner ces données avec des cartes de navigation pour informer les conducteurs des congestions et accidents potentiels, améliorant ainsi la sécurité et le confort de la conduite.

Performance requise pour le cas d’utilisation :

Critère de performance Valeur requise
Niveau de confiance ≥ 95 %
Précision de l’estimation de positionnement horizontal ≤ 1 m
Précision de l’estimation de vitesse horizontal ≤ 1 m/s
Latence maximale du service de détection ≤ 500 ms
Taux de rafraîchissement ≤ 0,1 s
Taux de détection manquée ≤ 5 %
Taux de fausse alarme ≤ 5 %

Résumé du cas d’utilisation 5.12 : Détection assistée par le réseau pour éviter les collisions de drones (UAV)

Description :
Avec l’aide des réseaux 5G actuels, la commercialisation des drones (UAV) à basse altitude a atteint un nouveau stade. Les UAV peuvent effectuer des missions de surveillance, d’alerte précoce et de livraison dans l’espace aérien à basse altitude. Le secteur de la livraison par drone se développe rapidement et pourrait devenir un marché de près de 10 milliards d’euros, avec des applications dans la distribution alimentaire, la livraison de biens de consommation, la fourniture d’aide médicale, l’agriculture de précision, la logistique industrielle, etc.

Cependant, éviter les collisions et gérer efficacement le trafic des UAV sont des défis clés. En général, un drone fournit des informations sur ses mouvements et son environnement détectées par ses propres capteurs au système de gestion du trafic des drones (UTM). Mais la portée de détection d’un drone unique est limitée, ce qui peut entraîner des écarts de trajectoire ou des collisions si l’environnement change brusquement.

Grâce à la couverture étendue du réseau 5G, un équipement utilisateur (UE) embarqué sur un drone peut être abonné au réseau 5G et se connecter à l’UTM (UAS Traffic Management) via le réseau.

Fonctionnement :

  • Les stations de base 5G envoient des signaux de détection dans une direction, un angle ou une zone spécifique pour suivre la trajectoire de vol du drone.
  • L’UE collecte les signaux réfléchis par l’environnement et transmet ces données au réseau 5G.
  • Le réseau analyse les informations recueillies, comme la présence de bâtiments élevés, d’obstacles et d’autres drones à proximité, et les transmet au système UTM.
  • Le service de détection est continu pendant le vol du drone, et le réseau peut suivre plusieurs drones en même temps dans une même zone.

Performance requise pour le cas d’utilisation :

Critère de performance Valeur requise
Niveau de confiance ≥ 95 %
Précision de l’estimation de positionnement horizontal ≤ 1 m
Précision de l’estimation de vitesse horizontal ≤ 1 m/s
Résolution de détection < 1 m
Latence maximale du service de détection ≤ 500 ms
Taux de rafraîchissement ≤ 0,5 s
Taux de détection manquée ≤ 5 %
Taux de fausse alarme ≤ 5 %

Résumé du cas d’utilisation 5.13 : Détection d’intrusion de drones (UAV)

Description :
L’industrie des UAV (drones) se développe avec une utilisation croissante dans des scénarios variés tels que la photographie aérienne, les forces de l’ordre, la gestion urbaine, l’agriculture, la météorologie, la fourniture d’électricité, le secours d’urgence, etc. Dans les villes intelligentes du futur, un grand nombre de drones seront utilisés pour améliorer la qualité de vie quotidienne, notamment pour l’inspection industrielle, les patrouilles de sécurité publique, le transport de marchandises et les diffusions en direct.

Cependant, cette prolifération pose des défis importants pour la supervision des UAV, notamment :

  1. Le grand nombre de drones de petite taille, leur vaste zone de vol et leurs missions diversifiées rendent la supervision difficile en utilisant uniquement des systèmes de radar traditionnels.
  2. Les drones non coopératifs peuvent pénétrer dans des zones d’interdiction de vol (par exemple, aéroports, bases militaires), ce qui peut entraîner de graves conséquences, telles que l’exposition d’informations privées ou la perturbation du trafic d’autres UAV sur les routes de vol.

Fonctionnement :
Les signaux radio 5G peuvent être utilisés pour détecter la présence ou la proximité de drones volant illégalement dans une zone spécifique. Ce service est particulièrement utile pour détecter les intrusions illégales dans des zones restreintes telles que les gares ferroviaires, les aéroports, les installations gouvernementales, les instituts de recherche, les sites de performance temporaires, etc.

Scénario de service :

  • Le système 5G détecte en continu les UAV volant dans ou à proximité d’une zone restreinte.
  • Lorsqu’un UAV est détecté à proximité d’une zone interdite, le système de gestion du trafic des drones (UTM) est informé en temps réel.
  • L’UTM peut prendre des mesures pour avertir le contrôleur de l’UAV ou activer des contre-mesures pour empêcher le drone de continuer à voler dans la zone interdite.

 

Performance requise pour le cas d’utilisation :

Critère de performance Valeur requise
Niveau de confiance ≥ 95 %
Précision de l’estimation de positionnement horizontal ≤ 10 m
Précision de l’estimation de positionnement vertical ≤ 10 m
Précision de l’estimation de vitesse horizontal ≤ 1 m/s
Résolution de détection < 10 m
Latence maximale du service de détection ≤ 1000 ms
Taux de rafraîchissement ≤ 1 s
Taux de détection manquée ≤ 5 %
Taux de fausse alarme ≤ 5 %

​Résumé du cas d’utilisation 5.14 : Gestion du trafic dans les sites touristiques

Description :
Ce cas d’utilisation concerne la gestion du trafic dans les sites touristiques afin d’assurer un développement durable de ces lieux. La gestion du flux de visiteurs prend en compte la capacité d’accueil, la capacité des installations, la capacité écologique et d’autres facteurs susceptibles d’engendrer des désastres dans la zone.

Les sites touristiques contrôlent le flux de visiteurs grâce à la surveillance en temps réel, à la gestion des flux et aux systèmes d’alerte et de rapport. La gestion du trafic se divise en deux volets : la gestion du flux de passagers et la gestion du flux de véhicules. La collecte de données sur le trafic est une partie importante de cette gestion. Les stations de base situées dans les zones touristiques peuvent fournir des services de communication 5G et collecter des données sur les passagers et les véhicules qui passent à travers les points d’accès ou par unité de surface.

Pour les sites touristiques de grande superficie, il est plus pratique d’utiliser les stations de base pour collecter des données sur le trafic lorsque le déploiement d’équipements comme des caméras et d’autres capteurs est difficile.

Performance requise pour le cas d’utilisation :

Critère de performance Valeur requise
Niveau de confiance ≥ 95 %
Précision de l’estimation de positionnement horizontal ≤ 2 m
Précision de l’estimation de vitesse horizontal ≤ 1 m/s
Résolution de détection < 1 m
Latence maximale du service de détection ≤ 5000 ms
Taux de rafraîchissement ≤ 0.2 s
Taux de détection manquée ≤ 5 %
Taux de fausse alarme ≤ 5 %

 

Résumé du cas d’utilisation 5.15 : Surveillance du sommeil sans contact

Description :
Ce cas d’utilisation consiste à surveiller la situation de sommeil d’une personne sans avoir recours à un dispositif portable. Les technologies de détection sans contact, utilisant les signaux sans fil 3GPP, offrent de nombreux avantages pour la détection de l’état de santé par rapport aux dispositifs portables traditionnels.

L’application de surveillance du sommeil réutilise les signaux sans fil omniprésents pour réaliser la détection. La présence, le mouvement et même la respiration d’une personne influencent la propagation du signal sans fil, ce qui se traduit par des fluctuations de l’intensité de la forme d’onde et du décalage de phase.

Performance requise pour le cas d’utilisation :

 

Critère de performance Valeur requise
Niveau de confiance ≥ 95 %
Précision du taux de mouvement humain (fréquence) ≤ 0,033Hz
Précision de l’estimation de vitesse horizontal ≤ 1 m/s
Résolution de détection < 1 m
Latence maximale du service de détection ≤ 60 s
Taux de rafraîchissement ≤ 60 s
Taux de détection manquée ≤ 5 %
Taux de fausse alarme ≤ 5 %

Ces performances garantissent que le système de surveillance du sommeil sans contact est capable de détecter et de signaler des événements respiratoires anormaux, tels que les arrêts respiratoires, afin d’aider les utilisateurs à surveiller leur santé et à identifier les problèmes potentiels liés au sommeil