Les changements apportés par Internet (4). Le Web 2.0

 Web 2.0

 Ne soyez pas étonné de trouver dans un blog dédié à la téléphonie 4G, une part si importante consacrée aux conséquences d’Internet sur notre vie. Pourquoi un 4ème article? La 4G s’appuie sur le réseau IP de bout en bout, la 4G est un réseau de données.

Le terme 2.0 est régulièrement utilisé, on parle de web2.0, TELCO2.0 et entreprise 2.0.

Le 2.0, c’est  quoi?

Pour simplifier, le web 2.0 est le web collaboratif : Le web 2.0 s’appuie sur la participation de tous les internautes, participation active dans la création de contenu (Wiki,
blogs, image, vidéo sur youtube), et participation passive dans le sens ou l’avis de l’utilisateur est pris en compte et le partage d’un même contenu profite à la communauté. Par exemple, c’est le cas du partage de ressource par BitTorrent :  le service s’améliore automatiquement quand le nombre de ses utilisateurs croît

Avec le web 2.0, le web est collaboratif et interactif, le web est basé sur le contenu de
l’ensemble de la communauté (la longue traine). Mais un contenu est inutilisable sans un outil pour récupérer l’information. Wais, Yahoo, Voila et msn ont été les premiers moteurs de recherche.
Ceux-ci étaient basés sur le nombre de mots clés présent dans les pages d’un site. Si je crée un site marchand pour vendre des Smartphones, il fallait utiliser le plus de mots Smartphones et téléphones mobiles dans mon site pour être bien référencé. L’astuce consistait donc à ajouter du texte avec une police non visible pour augmenter ce nombre ou ajouter des balises html avec les mots clés. La recherche était donc basée sur la taxonomie, il suffisait de savoir via quels mots clés l’internaute allait effectuer sa recherche.

Google a commencé son activité par un moteur de recherche mais avec des critères supplémentaires, comme le PageRank, c’est à dire un classement de notoriété de son site. A cette époque, il fallait multiplier le nombre de liens vers son site. Pour être bien référencé, il fallait faire des liens dans les portails, et partager des bannières entre internautes : Je fais un lien vers ton site et toi vers le mien. Un lien d’un site bien référencé a plus de valeur qu’un lien d’un site peu référencé. A cette époque (début 2000) Yahoo et voila se sont spécialisés dans les portails, une sorte d’annuaire  et bien que cela semblait logique à l’époque, il s’agissait d’une erreur stratégique. Autre erreur stratégique, Yahoo a « ignoré » la longue traine, il triait les résultats en favorisant dans son classement . les sites importants mais n’indexait pas une myriade de sites mineurs qui fournissaient cependant des réponses à des questions plus précises.

Google n’a pas crée de contenu, mais un outil basé sur un moteur de recherche permettant de récupérer une information postée par un Internaute en optimisant le critère de recherche pour obtenir un résultat répondant plus précisément à la requête de l’utilisateur. C’est la rapidité et la pertinence des résultats du moteur de recherche Google qui a fait son succès. Google a ainsi été préféré aux autres moteurs de recherche et au méta-moteur comme Copernic. Pour éviter la multiplication des mots clés sur un site, Google a optimisé son robot pour détecter le spamindexing en sanctionnant les sites webs qui ne respectaient pas sa chartre de référencement.

Depuis 2009, Yahoo et Microsoft s’associe pour proposer un moteur de recherche appelé moteur de décision sous le nom de Bing. Personnellement, je n’ai pas noté de différence notable entre Bing et Google, en toute logique par rapport à la théorie de l’acception d’un modèle (Cf. Article précédent), je continue à utiliser Google.

Aujourd’hui, pour affiner la recherche des internautes, on référencie le contenu  (texte, image ou vidéo) par des étiquettes (appelés Tag). En parallèle le langage html évolue vers le html5 (html5 fera l’objet d’un autre article).

Revenons au Tags, les tags ont un rôle prépondérant : Ils permettent de sélectionner les contenus à partager dans une communauté d’Internautes qui définissent eux même leur centre d’intérêt. Delicious.com avait initialement pour objectif de partager ses Marques pages (social bookmarketing) en abandonnant l’idée d’un classement par catégorie pour faire un classement de ses boolmark par catégorie. Les exemples sont nombreux, par exemple la syndication (lien RSS) permet de suivre le contenu sur un thème précis,
Twitter est probablement l’exemple le plus parlant, mais Youtube et Dailymotion pour la vidéo, Flickr pour le partage d’images sont aussi connus. Les tags permettent aussi d’optimiser les publicités qui s’affichent à votre écran par rapport à vos centres d’intérêts : fini les sites web avec des publicités statiques, ces bannières impersonnelles. Les publicités sont définies par rapport à votre position géographique, selon vos proxy et centre d’intéret. Le web est collaboratif, interactif et personnalisé. Google a d’ailleurs mis en place GoogleAdd permettant d’ajouter des bannières publicitaires relatives à la requête que vous effectuez.

 pub google

 Les sites ne sont plus référencés par leur arborescence (Taxonomie) mais par une indexation personnelle (Folksonomie – Folk : peuple, taxonomie). Le métier de référencement a donc beaucoup évolué et est maintenant un métier à part entière (SEO, Community Manager).

 Le web 2.0 est  un web dit à intelligence collective c’est à dire qui s’appuie sur l’activité collective de l’ensemble de ses utilisateurs. Des exemples? Facebook, et je pense que j’ai tout dit… Pas tout à fait, on peut aussi citer comme exemple ebay, Amazon qui s’appuient sur la e-réputation, c’est à dire sur l’implication de l’utilisateur :

Les consommateurs sont appelés à ajouter des commentaires et comme ebay peuvent évaluer le vendeur. Plus important encore, la recherche d’un produit sur Amazon se base sur l’activité des utilisateurs : Alors que les recherches de Barnesandnoble.com poussent les utilisateurs vers ses propres produits ou vers des résultats sponsorisés, Amazon renvoie toujours vers « les plus populaires », une notion calculée en temps réel non pas à partir des ventes mais à partir de ce que les gens d’Amazon appellent le «
flow »  autour des produits. Il n’y a donc rien d’étonnant à voir la croissance des ventes d’Amazon dépasser celles de ses concurrents.

 Dans un prochain article, nous parlerons la réputation internet.

Le coût de la téléphonie mobile 4G (4ème génération)

Déploiement de la 4G

J’avais conclu l’article traitant de la 3G sur le coût de revient de déploiement de cette technologie. Vous vous doutez bien que fort de cette expérience, les opérateurs se préoccupent du coût d’installation (CAPEX) du LTE afin d’avoir un ROI (Retour sur Investissement) à court terme.

Dans divers communiqués de presse, les équipementiers ont tenté de rassurer les opérateurs en mettant en avant le prix d’installation de la 4G en France.

Ainsi, l’équipementier télécoms chinois ZTE a présenté (Juin 2010) une étude démontrant les coûts engendrés par l’implantation d’un réseau LTE sur un territoire fictif fortement inspiré d’un pays européen. Basée sur une moyenne de 5 pays européens, cette modélisation a pour but de rendre compte du prix que coûterait le LTE dans un grand pays de l’Europe. Ce pays imaginaire compterait 50 millions d’habitants, aurait une superficie de 400 000 kilomètres carrés. L’objectif de déploiement serait de 75% du territoire avec une réutilisation des sites 3G et GSM 900 avec en ajout la bande des 2.6 Ghz. Le coût d’implantation pour un opérateur est évalué par ZTE à 400 millions d’euros.

Alcatel-Lucent publiait des chiffres similaires, mais attention, n’oublions pas d’ajouter le coût des licences LTE (2,5 milliards d’euros entre les opérateurs).

Le CAPEX donne une indication, cependant il faut pousser l’étude un peu plus loin et s’intéresser aux frais de fonctionnement (IPEX). Les équipements sont plus petits, consomment moins, donc un gain notable sur l’immobilier (moins de place de stockage) et sur l’énergie (moins de consommation). De plus, grâce au SON (Self Optimization Network), les e-node B pourront se paramétrer tout seuls, ce qui limite le temps d’intervention des techniciens.

Au niveau financier, le cout d’installation des nouveaux équipements ne doit pas constituer en frein au déploiement du LTE.

Pourquoi passer à la 4G?

La question est de savoir qui,  entre le consommateur ou l’opérateur, a sollicité la 4G?

Le consommateur s’approprie actuellement la 3G, il profite d’un réseau de données pour accéder à Internet à haut débit en mobilité et du réseau 2G et 3G pour la voix. On est dans la phase d’apprentissage des applications associant plusieurs services (les milliers d’applications dans les M-stores). La 3G disponible depuis 2004 commence à trouver son public, les utilisateurs n’éprouvent pas le besoin de passer à la 4G.

Les opérateurs ont un réseau 2G et 3G à gérer. Un autre réseau 4G nécessite un nouvel investissement, mais à long terme le coût est amorti.Toutefois, les équipements 3G ont une durée de vie de 15 ans, pourquoi remplacer dès à présent les antennes relais?

La réponse se trouve dans le trafic de l’IP. Les opérateurs proposent l’Internet illimité. Le coût du forfait Internet pour un accès illimité est non rentable par rapport au coût des
communications téléphoniques et des SMS. Jusqu’à présent, c’est le forfait téléphonique qui permet de rentabiliser le réseau de voix et de data. Mais avec l’explosion du trafic, c’est l’infrastructure du réseau IP qui doit être étoffée.

Mais si dans le domaine du trafic IP « fixe », l’infrastructure va s’adapter à la croissance pour l’absorber, il en est tout autrement dans le domaine de la téléphonie.

Au niveau de la téléphonie mobile, la courbe suivante présente les estimations sur l’évolution du trafic de la data et le revenu attendu. En bleu l’évolution du trafic et en rouge les revenus pour l’opérateur. La différence entre les deux représente le gap qui s’accroit entre le revenu attendu et l’investissement pour supporter la demande du trafic

Data_voice.jpg

Au niveau de la téléphonie mobile, sur les 6 premiers mois de 2011 les opérateurs ont connu une augmentation de trafic IP de 77% (après une hausse de 73% durant la deuxième moitié 2010). La cause de cette croissance est le streaming vidéo qui représente à lui seul 39% du trafic IP mobile dans le monde. Le premier
fournisseur de contenu est Youtube avec une part à  52% du streaming vidéo tandis qu’il représente 22% du trafic IP global. Vient ensuite le partage de fichier avec 29% et
ensuite la navigation sur le web avec 25%.

Si la croissance de trafic IP est incontestable,la VoIP qui ne présente qu’une très faible part est le service qui progresse le plus avec 101% de croissance. Et Skype récemment acquis par Microsoft règne sans partage avec un impressionnant 82%.

Les réseaux sociaux sont également en forte augmentation lorsqu’il s’agit de trafic IP mobile. Twitter, qui permet de réaliser une sorte de journal électronique sur des sujets qui nous intéressent  a ainsi vu un trafic généré augmenter de 297% et FaceBook de 166%. Comme le streaming vidéo, ces applications sont facilement utilisables lors des attentes (transports en commun, pause, …)

En l’absence de 4G LTE, l’augmentation du trafic IP se transforme en congestion des réseaux 3G. Pour contrer cette congestion, on entend actuellement l’idée de proposer des forfaits data limités à quelques Go de transferts. Une autre alternative est la femtocell, SFR propose déjà ce service pour les TPE.

 

Dans cette publicité, le réseau 3G (voix et data) est assuré entre la SFR Box et le téléphone mobile ce qui permet de décharger le trafic IP mobile à un trafic à la maison.

Les changements apportés par Internet (3)

NTIC et acceptation de la technologie

 Les NTIC (ou TIC) sont présents au quotidien, mais comment ont-ils pu s’imposer de la sorte ?

 En 1993, Nielsen propose le schéma suivant, lequel s’appuie sur le modèle d’acceptation de la technologie (cf. article antérieur).

 modele-acceptation-technologie-nielsen1

 Le système d’acceptabilité dépend de deux impressions :

  • Acceptabilité pratique (utilité, cout, compatibilité, fiabilité)
  • Acceptabilité sociale à savoir les valeurs sociales que représentent ce système. Par exemple, on acceptera jamais un système de rencontre anonyme vers des enfants (regardons déjà la problématique de Facebook pour les enfants de 13 ans).

  L’acceptabilité pratique définir l’utilité et l’usabilité. Ces deux notions expriment l’idée suivante (enrichie par Davis) :

  • « L’utilité perçue (en anglais « perceived usefulness ») renvoie au degré selon lequel une personne croira que l’utilisation d’un système augmentera sa performance dans le travail.
  • L’utilisabilité perçue renvoie au degré selon lequel une personne croira que l’utilisation d’un système se fera sans effort. »

 En se basant sur les travaux de psychologie sociale, on estime qu’un système technique peut être accepté par un individu si ce modèle apporte des gains de performances sur son travail, même si celui-ci n’apprécie pas forcément cette solution. Il perçoit le système comme utile et utilisable, mais il ne développera pas d’attitude particulière pour mieux connaitre le système ou discuter via des forums des potentialités de ce système. A titre d’exemple, on peut utiliser une plateforme collaborative regroupant un ensemble de fonctions, comme le calendrier, le partage de document, un planning, une messagerie et n’utiliser en fait que la messagerie et le planning, sans se demander quel autre intérêt on pourrait avoir à utiliser les autres fonctionnalités.

 Concernant ce blog, pour que celui-ci soit accepté, je dois répondre à plusieurs critères : des informations utiles et exactes, et des informations renouvelées. Il me revient donc de satisfaire l’utilité perçue du lecteur et ensuite l’utilisabilité (question : seriez vous capable de me dire le nombre d’article qui vous intéressent, et ceux que vous avez lu mais sans savoir comment utiliser  l’information. La mise à jour permet de satisfaire une curiosité et si la cible est bien déterminée, vous savez que vous pouvez apprendre une information utile.). Par contre, si vous avez utilisé des informations décrites dans ce blog, vous aurez tendance à dire que ce site est utile, il y a donc une incidence sous-jacente entre utilisabilité et utilité.

La vulgarisation est aussi un point très important, le lecteur évaluera un article d’autant plus utile qu’il sera expliqué simplement. D’un autre coté, un système accepté par ma part sera d’autant mieux vulgarisé sur ce blog, il y a donc une notion sous-jacente entre l’acceptation d’une technologie de ma part et sa rédaction.

 Pour résumer, l’acceptation globale d’un système, d’un NTIC s’appuie donc sur les critères suivants :

  • Premier critère est la facilité d’utilisation. On définit ici la compréhension et la facilité d’accéder et de trouver l’information ;
  • L’utilité, qui relève principalement de la qualité de l’information
  • La satisfaction, qui relève de l’expérience utilisateur et en grande partie du design émotionnel (un bon design augmentera la satisfaction ressentie lors de l’utilisation d’une application)

 La satisfaction de l’utilisateur est obtenue lorsque l’utilisation effective rejoint l’objectif attendu et en bonus répond à des objectifs non imaginés au préalable. Plus le système sera simple, plus il sera facile à vérifier l’utilisation versus objectif et d’avoir une opinion positive. Au contraire si l’outil est déjà difficile à mettre en place, et que de surcroit celui-ci ne correspond pas au besoin de l’utilisateur (mauvaise information), ce dernier rejettera le système et le critiquera. Or, avec les systèmes de communications actuels, chacun est en mesure dorénavant d’apprécier un produit et de connaitre l’appréciation des autres utilisateurs. Dans le cas où rien n’est faussé (cf. rôle du Community manager), la e-réputation d’un produit peut vite basculer vers le rejet du produit.

Toutefois, au niveau des NTIC, il faut aussi prendre en compte l’interface graphique et bien penser à la cible. Une interface pour adolescent n’est pas comparable à l’interface pour un actif ou un sénior même si l’application est similaire. Le design et une nouvelle fois la facilité d’utilisation joue un rôle prépondérant,

 Pour cible des nouveaux utilisateurs, nommés comme des consommateurs non-habitués, il faut prendre en compte trois aspects. Les consommateurs non-habitués ont

  • peu de patience pour les choses que ne fonctionnent pas
  • ont une méthode d’apprentissage différente des internautes : peur de cliquer, mais ils n’aiment pas être passifs
  • des difficultés à saisir ce que la technologie peut leur apporter.

Pour les amener néanmoins à utiliser le système qu’on leur propose, il faut  :

  • Faire référence à des personnes « comme eux » sur la base de témoignages
  • Trouver la bonne combinaison entre « self service » et assistanat
  • Trouver le bon design

Par contre, ce public sera plus fidèle que les internautes habitués aux rapides changements.

Lancement du LTE en espagne

Le LTE en Espagne

Vodafone et Telefonica sont les deux opérateurs qui ont acheté les licences 4G en Espagne, licences vendues aux enchères en Juillet 2011. Telefonica a acquis 5 blocs de 14 MHz soit un total de 70 MHz et est prêt à démarrer les services LTE. On parle bien entendu du LTE et non du LTE-advanced, mais les équipements finaux seront compatibles avec cette norme.

 Ainsi, Telefonica/Movistar a annoncé officiellement le 5 septembre le lancement du LTE en espagne. L’équipementier Alcatel-lucent à la charge d’équiper Madrid et Barcelone.

Vodafone devrait suivre prochainement en proposant également des services mobiles LTE.

L’espagne est donc en avance par rapport aux autres pays européens? Au dire des internautes, la réponse est non. L’Espagne avait du retard sur la 3G (notamment le HSPA+ n’est arrivé qu’en fin 2010) et le LTE est perçu comme un moyen d’améliorer la couverture radio pour le haut débit, ce qui n’est pas assuré actuellement par la 3G.

 Ce qui n’empèche qu’on suivra de pres les offres commerciales proposées dans ces deux villes.

 Le 14 septembre 2011, on apprend que dans le cadre de ce projet, Alcatel-Lucent fournira à Telefónica une solution 4G LTE de bout en bout incluant les stations de base LTE (eNodeB), les systèmes EPC (Evolved Packet Core) mobiles tout-IP, ainsi que les systèmes de gestion des données d’abonnés basés sur le portefeuille IMS (IP Multimedia Subsystem). Alcatel-Lucent assura par ailleurs la construction, l’exploitation et la maintenance du réseau.

Présentation de la 4G par Gilbert Marciano (Alcatel-Lucent)

Après les Etats-Unis, le Japon, la Corée, la 4G arrive en Europe.

Le calendrier d’attributions des fréquences prévoit les dépôts de candidature des opérateurs dès le 15 septembre 2011. Dans ce contexte, il est important pour
tous les acteurs de l’industrie de comprendre les enjeux et les perspectives de cette nouvelle technologie afin de se positionner au mieux dans ce nouvel écosystème.

 Dans ce contexte, Alcatel-Lucent intervenait à la cantine numérique rennaise ce mardi 6 septembre 2011 de 18h30 à 20h, pour présenter un panorama 360° interactif sur ce vaste sujet avec une approche et une accroche connues :  «La  4G pour les nuls».

Une trentaine de participants, plutôt avertis,  étaient présents et venaient de différents horizons : secteurs de l’Electronique, de l’Informatique et des Télécommunications, du web2.0, du milieu académique, analystes…  (http://www.lacantine-rennes.net/prog/?event_id=130)

Bruno Westeel (responsable des solutions multimédia, vidéo et broadcast à Alcatel-Lucent Rennes) et Gilbert Marciano (directeur des solutions mobiles Alcatel-Lucent sur la région France, spécialiste des usages 4G/LTE) ont passé en revue les nouveautés qu’apporte la 4G par rapport à la 3G ainsi que les différents enjeux (stratégiques, financiers et techniques) de cette technologie.

Un état de l’art de la technologie et de ses déploiements mondiaux ainsi que le témoignage et le retour d’expérience d’Alcatel-Lucent sur ses clients majeurs ont
capturé l’attention d’un public curieux et très « interactif ».

 Cette session a été l’occasion de présenter des vidéos d’usage sur des réseaux commerciaux 4G déployés aux US. (http://network4g.verizonwireless.com/)

 Un brin d’humour a alimenté la session. En particulier avec la projection d’une vidéo de comparaison des performances  des réseaux américains LTE Verizon et
AT&T 3G/HSPA+ qui s’apparente plus au sketch de Coluche sur la lessive qui lave encore plus blanc que blanc : http://www.youtube.com/watch?v=7Qjew70e3gI

 Cette première session d’un programme annoncé s’inscrit dans un écosystème plus large car la région Bretagne se prépare activement à l’arrivée du 4G/LTE. Un réseau pilote LTE est en cours de déploiement à Brest. ( http://www.b-ware.fr/a-propos/la-4g-est-inauguree-a-brest-cest-a-dire )

 Orange et Alcatel-Lucent ont lancé un dispositif pour  permettre aux communautés de développeurs et aux PME de contribuer à l’écosystème 4G en fournissant des applications mobiles innovantes. Ce dispositif baptisé Open Innovation Center 4G (OIC-4G) a pour vocation d’accélérer le passage de l’idée à la mise sur le marché. Les PME porteuses de
projets de produits/services 4G pourront disposer d’un accompagnement technico économique adapté.  (http://www.arc-bretagne-atlantique.com/fr/application-4g/)

Les changements apportées par Internet (2)

Evolution rapide

 Dès son début, Internet a permis d’échanger des informations et à modifier notre façon de communiquer. Maintenant, via des espaces d’échanges collaboratifs, les gens peuvent se rencontrer (forum), se parler (chat) et travailler ensemble en dehors des traditionnels bureaux.

Internet a aussi modifié les façons d’apprendre et d’enseigner. L’information est accessible à tous, les wiki offrent de nombreuses définitions (attention de ne pas tout prendre au pied de la lettre), et des formations à distances sont proposées via des plates-formes de e-learning (à ce propos, je vous propose de vous inscrire au site ipad).

Les logiciels interagissent entre eux pour proposer des plates-formes complètes avec partage de fichiers, partage du calendrier, proposition de rendez-vous, … connu sous le nom d’espace numérique du travail. On trouve également des logiciels de projets collaboratifs (comme egroupware).

Mais attention, sommes-nous prêt au changement?

Acceptation de la technologie

 L’acceptation de la technologie est un modèle développé en 1986 par Davis (Technology Acceptance Model) et qui tend à prédire l’acceptabilité d’un système d’information et de proposer des outils pour façonner le système d’information afin que ce dernier soit acceptable par les utilisateurs, d’un point de vue utilitaire mais aussi sous l’angle de la facilité d’utilisation.

On retrouve ainsi l’idée de la théorie de la diffusion de l’innovation proposée par Everett Rogers en 1962 :

  • Avantage relatif est la perception que l’on a d’un outil comme meilleur par rapport à ce qui existe
  • Compatibilité avec le système de valeurs de l’utilisateur.
  • Simplicité afin de prendre en main l’outil sans se décourager
  • Testabilité consiste à permettre à l’utilisateur de revenir à une version précédente si le test s’avère négatif
  • Observabilité. Il s’agit de mesurer facilement les bénéfices du nouvel outil

 L’acceptation de la technologie est facilitée quand l’utilisateur perçoit un outil facile à utiliser et un outil qui lui apporte un confort dans son quotidien. Un autre modèle proposé par Salancik et Pfeffer en 1975, nommé Social Information processing model, affirme que l’acceptation de la technologie est influencée par l’opinion et le comportement des autres utilisateurs.

Les changements apportées par Internet (1)

Brève sur l’arrivée d’Internet

Internet est né aux Etats-Unis, et plus précisément du projet ARPANET lancé par le ministère de la défense (DoD) afin de contrer le succès spatiale de l’URSS : l’objectif était de raccorder les serveurs entre-eux pour échanger des données.

Cette vidéo rappeleront aux nostalgiques l’arrivé d’Internet dans nos universités et nos foyers. Pour ma part, je me souviens des premières applications de Windows Media Player sous Windows 3.1, les IRC dont les premiers échanges s’effectuaient en ligne de commande via Telnet à partir de l’adresse ip de son correspondant. A cette époque on commencait aussi les premiers site-web avec les balises html élémentaires (Tim Berners-Lee) pour présenter par exemple son équipe de foot. En terme d’outil, je me souviens de Frontpage et Dreamweaver, mais j’utilisais WebExpert (gratuit).
Pour le navigateur, on utilisait Mozaic (Marc Andreessen) puis Internet Explorer.

Je vous propose une autre vidéo pour bien comprendre l’évolution d’Internet sur la société.

Et la 3G?

De la 2G à la 3G

 La 3G a été définie dans la release R99 sous le nom UMTS : Universal Mobile Telecommunications System. Certains préfèrent encore l’appeler W-CDMA qui est la technologie d’accès radio permettant à plusieurs utilisateurs de communiquer en même temps.

L’objectif de la 3G était le haut débit, en théorie 2 Mbps (soit 6*384 kbps) avec une mobilité faible et proche de l’antenne, et un débit de 384 kbps en mouvement, ce qui est proche des offres ADSL de l’époque.

 La 3G est arrivée en France en 2004, et elle a nécessité la mise en place d’infrastructures radio en parallèle du réseau EDGE et du réseau GPRS dont le coût a été estimé à quelques milliards d’euros. Il s’agit du cout de la mise en place de nouvelles antennes, nommée Noeud B et d’un controlleur de noeud nommé RNC.  Le noeud B est donc l’équivalent de la BTS utilisée en GSM, mais avec sur une bande différente, et utilisant une technologie de modulation (HPSK) et une technologie d’accès (W-CDMA) différente.

Le noeud B et le RNC forment l’accès radio UMTS dénommé UTRAN (UMTS TERRESTRIAL Radio Acces Network). Ils se rajoutent donc au GERAN (GSM-EDGE RAN). L’UTRAN et le GERAN forment donc maintenant le BSS (cf. article évolution de la 1G vers la 2G).

Un schéma vaut mieux qu’un long discours :

 UTRAN.JPG

 Seule la partie radio a été modifiée, la partie réseau (NSS) reste identique, l’interface UTRAN s’appuie sur les éléments réseaux déjà existant. La cohabitation entre les deux réseaux est ainsi la suivante

UTRAN GERAN

 Conclusion :

 La mise en place de la 3G a coûté plusieurs milliards d’euros, il faut convaincre les opérateurs que la 4G qui nécessite une nouvelle interface radio coûtera moins cher.

L’UMTS, ou la 3G, a été définie en 1999 au cours de la release R’99. La 3G est arrivé en 2004 en France, retard dû en partie aux téléphones qui n’étaient pas fonctionnels avec le réseau.

Le LTE a été normalisé en 2008 dans la R8, l’arrivée est elle planifiée en 2012 ou en 2013 ?