Les uses-case IA en 5G
A partir du document 3GPP TR 28.908 version 18.0.0 Release 18 « Study on Artificial Intelligence/Machine Learning (AI/ ML) management », cet article résume les cas d’usages.
Données d’événements pour l’entraînement ML (5.1.1)
Ce cas d’usage concerne la préparation de données prétraitées pour l’entraînement des modèles ML. Plutôt que d’utiliser toutes les données brutes (qui peuvent contenir des informations redondantes ou biaisées), le système identifie et stocke des événements réseau riches en information. Cela permet de réduire les coûts de stockage et de traitement tout en maintenant des données historiques pertinentes pour l’entraînement des modèles ML.
Validation de modèle ML (5.1.2)
Durant le processus d’entraînement ML, le modèle généré doit être validé. L’objectif est d’évaluer la performance du modèle sur des données de validation et d’identifier les écarts de performance entre les données d’entraînement et de validation. Si l’écart n’est pas acceptable, le modèle doit être réajusté avant d’être mis à disposition du consommateur pour l’inférence.
Test de modèle ML (5.1.3)
Après l’entraînement et la validation d’un modèle, il est nécessaire de le tester pour vérifier son fonctionnement correct dans certains contextes d’exécution ou avec des jeux de données spécifiques. Les tests peuvent impliquer des interactions avec des tiers. Le cas d’usage permet au consommateur d’évaluer la performance du modèle via un processus de test avec des données fournies par le consommateur avant de l’appliquer à la fonction d’inférence cible.
Ré-entraînement de modèle ML (5.1.4)
Un modèle ML entraîné peut nécessiter un ré-entraînement lorsque sa performance se dégrade ou lorsque le contexte d’exécution change. Ce cas d’usage décrit le processus de ré-entraînement du modèle avec de nouvelles données sans changer le type d’inférence (entrées/sorties). Le producteur peut initier le ré-entraînement basé sur des seuils de performance ou extraire les échantillons de données les plus pertinents pour optimiser le processus.
Entraînement conjoint de modèles ML (5.1.5)
Une fonction d’inférence AI/ML peut utiliser plusieurs entités ML pour effectuer des inférences. Ces entités peuvent opérer de manière coordonnée (en séquence ou structure plus complexe). Ce cas d’usage permet d’entraîner ou ré-entraîner conjointement ces entités ML coordonnées, afin que l’ensemble puisse accomplir une tâche plus complexe avec une meilleure performance.
Rapports et analyses sur l’efficacité des données d’entraînement (5.1.6)
Pour l’entraînement des modèles ML, une grande quantité de données n’ajoute pas nécessairement de valeur. Ce cas d’usage permet d’évaluer la contribution de chaque instance de données ou type de données d’entrée au processus d’entraînement, d’analyser les modèles de données les plus efficaces, et de corréler les données de mesure pour optimiser l’entraînement ML.
Contexte ML (5.1.7)
Le cas d’usage 5.1.7 traite du contexte ML (MLContext), qui représente l’ensemble des statuts et conditions liés à un modèle ML. Ce contexte peut inclure les caractéristiques du réseau telles que définies dans 3GPP TS 28.104, mais aussi d’autres conditions applicables au modèle ML qui ne font pas partie des caractéristiques réseau, comme l’heure de la journée ou la saison de l’année.
Les différences dans le contexte réseau, c’est-à-dire l’état du réseau sous lequel les données sont collectées pour produire des analyses, affectent significativement les analyses produites. De même, les changements dans le contexte ML, comme les caractéristiques des données liées à l’état du réseau et aux conditions utilisées pour l’entraînement, les tests et le déploiement du modèle ML, peuvent affecter les performances du modèle. Ces changements peuvent représenter un problème pour le modèle ML et nécessitent donc des capacités de gestion spécifiques.
Le cas d’usage comporte trois sous-cas principaux:
- Surveillance et signalement du contexte ML: Le contexte ML doit être identifié en caractérisant les données d’entrée pour lesquelles le modèle ML est conçu. La surveillance de ce contexte permet de détecter les changements et anomalies qui pourraient dégrader les performances du modèle. Le consommateur du service AI/ML doit être informé de ces changements de contexte observés.
- Mobilité du contexte ML: Dans de nombreux cas d’automatisation réseau, une fonction d’inférence AI/ML ne peut pas couvrir l’ensemble du réseau avec une seule instance de modèle ML. Un modèle ML peut être entraîné pour un contexte local spécifique, et de même, un contexte différent peut s’appliquer pour l’inférence. Le contexte des entités ML doit donc distinguer entre le contexte de génération de décisions, le contexte de collecte de mesures ou de données, et le contexte de préparation avant activation pour l’inférence.
- Mode veille pour le modèle ML: Lorsque plusieurs instances d’entités ML sont nécessaires pour couvrir différentes parties du réseau, des transferts de contexte d’apprentissage automatique, ou « transferts », entre les entités ML couvrant différentes zones de validité sont nécessaires. Un exemple concret est celui d’un modèle ML prédictif pour le transfert intercellulaire, où le modèle doit être déployé dans l’équipement utilisateur (UE) et mis à jour lorsque l’UE change de cellule. Pour minimiser les délais de déploiement et d’initialisation du nouveau modèle, un « champ de préparation » peut être défini pour chaque modèle ML, indiquant la zone dans laquelle le modèle est déployé et initialisé mais pas encore activé pour l’inférence.
Ce cas d’usage met en évidence l’importance de la gestion du contexte ML pour assurer des performances optimales des modèles ML dans des environnements réseau dynamiques et complexes. Il souligne également la nécessité de définir et gérer différents types de contextes (surveillance, validité, préparation) pour faciliter les transitions fluides entre modèles ML dans des scénarios de mobilité.
Découverte et cartographie des capacités du modèle ML (5.1.8)
Une fonction réseau ou de gestion qui applique l’IA/ML peut avoir une ou plusieurs entités ML, chacune avec des capacités spécifiques. Ce cas d’usage permet d’identifier les capacités des entités ML existantes (capacités de prise de décision ou d’analyse) et de les associer à des logiques d’exécution spécifiques, facilitant leur utilisation pour répondre aux besoins d’automatisation.
Gestion des mises à jour AI/ML (5.1.9)
En raison de la complexité et de la nature changeante du réseau, les entités ML déployées peuvent ne plus être applicables après une période de fonctionnement. Ce cas d’usage permet au producteur de mettre à jour les entités ML et d’informer le consommateur autorisé du statut de mise à jour, assurant ainsi une performance d’inférence optimale dans le réseau ou système.
Évaluation de performance pour l’entraînement ML (5.1.10)
Ce cas d’usage concerne l’évaluation de la performance durant l’entraînement ML, permettant au consommateur de sélectionner les indicateurs de performance appropriés, de comprendre et configurer le comportement du modèle ML, et d’appliquer des politiques basées sur la performance pour l’entraînement et les tests ML.
Gestion de configuration pour la phase d’entraînement ML (5.1.11)
L’entraînement ML peut être initié par le consommateur ou le producteur, et peut consommer des ressources significatives. Ce cas d’usage permet au consommateur de contrôler l’entraînement ML initié par le producteur via des configurations, notamment des politiques pour déclencher l’entraînement et des mécanismes d’activation/désactivation de la fonction d’entraînement ML.
Transfert de connaissances ML (5.1.12)
Ce cas d’usage permet d’utiliser les connaissances contenues dans un ou plusieurs modèles ML existants pour produire ou améliorer une nouvelle capacité ML. Il comprend la découverte des connaissances partageables et le partage de connaissances pour le transfert d’apprentissage, sans nécessairement transférer le modèle ML lui-même.
Historique d’inférence AI/ML (5.2.1)
Pour différents besoins d’automatisation, les fonctions réseau et de gestion peuvent appliquer des fonctionnalités ML pour faire des inférences dans différents contextes. Ce cas d’usage permet de suivre l’historique des décisions d’inférence et du contexte dans lequel elles sont prises, permettant d’évaluer la pertinence des décisions ou de détecter des dégradations dans la capacité de prise de décision du modèle.
Orchestration de l’inférence AI/ML (5.2.2)
Un système d’automatisation réseau peut impliquer plusieurs fonctions d’inférence AI/ML, chacune ayant une vue limitée du réseau. Ce cas d’usage facilite l’orchestration de leur fonctionnement et de l’exécution des actions recommandées, incluant le partage de connaissances sur les actions exécutées et leurs impacts, ainsi que le déclenchement et la coordination des fonctions d’inférence AI/ML.
Coordination entre les capacités ML (5.2.3)
Pour le ML dans le 5GC ou RAN, les capacités ML peuvent nécessiter une coordination avec les analyses de gestion 3GPP pour améliorer la performance globale. Ce cas d’usage permet l’alignement des capacités ML entre 5GC/RAN et le système de gestion 3GPP, combinant leurs résultats d’analyse pour améliorer la précision des prédictions globales.
Chargement de modèle ML (5.2.4)
Ce cas d’usage concerne le processus de mise à disposition d’un modèle ML dans les environnements opérationnels. Après qu’un modèle ML répond aux critères de performance, il peut être chargé dans une fonction d’inférence cible, que ce soit à la demande du consommateur ou sur initiative du producteur selon une politique de chargement prédéfinie.
Émulation d’inférence ML (5.2.5)
Après la validation d’un modèle ML durant son développement, l’émulation d’inférence est nécessaire pour vérifier son fonctionnement correct dans des contextes d’exécution spécifiques. Ce cas d’usage permet au consommateur de demander l’exécution d’une capacité AI/ML dans un environnement d’émulation et de gérer le processus d’émulation, y compris dans différents environnements selon le niveau de confiance.
Évaluation de performance pour l’inférence AI/ML (5.2.6)
En phase d’inférence, la performance de la fonction d’inférence et du modèle ML doit être évaluée par rapport aux attentes du consommateur. Ce cas d’usage permet la sélection et l’application d’indicateurs de performance basés sur les politiques du consommateur, ainsi que l’abstraction des métriques de performance pour faciliter leur interprétation.
Gestion de configuration pour la phase d’inférence AI/ML (5.2.7)
La fonction d’inférence AI/ML doit être configurée pour conduire l’inférence conformément aux attentes du consommateur. Ce cas d’usage permet la configuration de la fonction d’inférence et l’activation/désactivation des modèles ML, y compris l’activation partielle ou progressive des capacités d’inférence AI/ML selon des politiques prédéfinies.
Contrôle de mise à jour AI/ML (5.2.8)
Lorsque les capacités d’un modèle ML se dégradent, le consommateur doit pouvoir déclencher des mises à jour. Ce cas d’usage permet au producteur d’informer le consommateur de la disponibilité de nouvelles capacités et au consommateur de demander la mise à jour des modèles ML avec des exigences de performance spécifiques.
Apprentissage machine fiable (5.3.1)
Ce cas d’usage concerne la gestion de la fiabilité AI/ML pendant l’entraînement, les tests et l’inférence. Il vise à garantir que le modèle est explicable, équitable et robuste à travers la définition d’indicateurs de fiabilité, le prétraitement des données selon des mesures de fiabilité, et l’application de techniques de fiabilité pendant l’entraînement, l’inférence et l’évaluation.