Pourquoi la cinquième génération des réseaux cellulaires est une nécessité ?

Dossier : derrière une norme prétendue nouvelle et qui fait l’objet de nombreuses craintes, une évolution qui s’inscrit dans la continuité du déploiement des réseaux cellulaires plus que la création d’une énième version de celui-ci.

|Écrit de Louis Viratelle et Nicolas Buronfosse. 
Avec la participation de Bastien Gares et Noé Barrême
Publié le 28 décembre 2020. 
Édition Alexandre Pierrat

|Écrit de Louis Viratelle et Nicolas Buronfosse
Avec la participation de Bastien Gares et Noé Barrême
Publié le 28 décembre 2020. 
Édition Alexandre Pierrat

 


La cinquième génération des réseaux cellulaires signifie l’attribution stratégiques de certaines bandes fréquences à un réseau mobile, et un écosystème d’antennes possédant certaines caractéristiques. Les antennes 5G que possèdent nos opérateurs, sont dites « 5G » lorsqu’elles possèdent certaines technologies bien précises. La plus évidente d’entre elles concerne les émissions sur de nouvelles fréquences, mais à cela s’ajoute plusieurs technologies clés qui vont permettre de gagner largement en efficacité.


La 4G, un écosystème encore en phase de déploiement alors que les limites sont parfois très proches d’être atteintes

Le déploiement de la 4G se poursuit depuis presque une décennie. Dix ans, c’est d’ailleurs l’échelle d’évolution majeure des réseaux. La mise en place de nouvelles bandes fréquences et de nouvelles technologies réseaux se réalise environ toutes les 10 années. Il y a 20 ans la 3G se déployait, il y a 10 ans, la 4G était installée, et aujourd’hui, toutes les lumières sont tournées sur la 5G, alors même que la 6G fait déjà l’objet de recherches et de développements en laboratoire et de planification de stratégie, notamment en Europe où les principaux acteurs y voient un intérêt certain.

La 4G repose sur des dizaines de bandes fréquences en fonction des zones et des pays, comprises entre 450MHz et 3,8GHz. L’utilisation des fréquences fait l’objet d’une fine stratégie, c’est d’ailleurs le principal axe d’évolution chaque décennie ou moins.
Pour être concis, plus la fréquence est basse, plus la portée des ondes est haute. En contre partie et vu que l’oscillation est plus longue, les capacités de transmission des données sont moins importantes. 

A l’inverse, les fréquences hautes ont des capacités de transfert des données qui peuvent être très importantes, mais ce sont des bandes fréquences qui ont des portées beaucoup plus faibles, et une pénétration dans les matériaux souvent beaucoup moins bonne.
L’une des grandes expertises des opérateurs est donc de correctement exploiter les bandes fréquences en fonction du paysage urbain auquel ils ont à faire.

Ainsi, dans les zones à forte densité de population comme dans les grandes métropoles, les opérateurs vont souvent privilégier des fréquences assez hautes et démultiplier les antennes pour couvrir le mieux possible toutes les zones avec des débits conséquents.
Cette démultiplication des infrastructures est nécessaire pour éviter la saturation des antennes.
La saturation peut se traduire par un nombre d’appareil trop important connecté à une même antenne ce qui engendre une saturation des traitements des communications, ou encore par une demande de débit très importante par certains appareils, trop importante pour que les autres appareils puissent avoir une connexion correcte.

A contrario, dans les plus petites villes et à la campagne, des antennes plus longues portées pouvant aller jusqu’à plusieurs dizaines de kilomètres (les distances dépendant des interférences et de l’environnement de propagation des ondes) pour la 4G sont privilégiées, afin de couvrir sur de plus longues distances quitte à assurer des débits moins importants. Etant donné que la densité de population est moindre, le débit sera de toute manière moins départagé entre les utilisateurs. 

La prochaine fois que vous serez proche d’une antenne 4G en campagne, essayez de réaliser un test de débit. Il y a de fortes chances que vous ayez des puissances de transfert beaucoup plus importantes que dans les grandes villes. C’est l’illustration parfaite de l’influence du nombre d’appareils connectés sur les réseaux cellulaires outre les questions de fréquence.

Ces quelques exemples assez grossiers permettent d’illustrer l’importance des notions de fréquence, mais également du nombre d’usagers. D’autre facteurs plus subtils rentrent bien évidemment en jeu, tel que le coefficient de pénétration des ondes dans les habitations et bâtiments (la bande des 700 MHz détenue par l’opérateur Free est par exemple l’une des meilleures à ce niveau), ou encore le comportement de ces réseaux lorsque nous sommes en mouvement dans une voiture ou en train.

En l’état des choses, la 4G commence à marquer des faiblesses certaines dans les zones fortement peuplées. Les opérateurs optimisent toujours plus leurs réseaux, diversifient toujours plus les fréquences, mais font face à une réalité, celles des limites des bandes fréquences qui leur sont attribuées pour le réseau 4G. Les antennes pourront toujours être plus performantes, cela n’empêchera pas certaines bandes fréquences utilisées d’arriver à saturation dans quelques mois ou années. Cela signifie que le nombre d’appareils souhaitant utiliser la 4G sur une fréquence bien particulière sera supérieur aux capacités d’accueil des réseaux. 

Les débits seront alors très fortement en baisse, et franchiront la limite de l’utilisable. Cette démultiplication des appareils connectés ajoute une difficulté supplémentaire, celle des interférences. Plus les réseaux sont chargés, plus les chances que certaines données soient inexploitables sont grandes. Une problématique à laquelle doit faire face le wifi, obligeant ainsi les boxes et les appareils à utiliser la bande des 5GHz en plus de la 2,4GHz.

Outre cet aspect qui touche principalement les plus grandes villes du monde, l’Europe et la France tout particulièrement se préoccupe des zones blanches.
Aujourd’hui, les trois principaux opérateurs Orange, SFR et Bouygues revendiquent une couverture de la population en 4G à 99%.
Derrière ce chiffre, une nuance, celle de la couverture en population. Les opérateurs revendiquent que la 4G peut être captée (plus ou moins bien) depuis 99% des logements en France.
Cela ne veut en aucun cas dire que 99% du territoire est couvert. Or l’une des caractéristiques premières des réseaux cellulaires, c’est leur captation en mobilité, quelque soit notre localisation. 

Les zones blanches sont donc toujours existantes et posent de nombreuses problématiques.
La couverture de ces territoires est souvent la plus compliquée à atteindre. Ce sont des zones souvent reculées en nature, parfois avec de grands reliefs, où la mise en place d’une antenne nécessite des travaux d’installation de câbles (fibres très majoritairement) sur de longues distances.

Du point de vue des opérateurs, ce sont des infrastructures bien moins rentables (voir pas rentable dans certains cas) que celles déployées en ville et qui impactent des milliers d’utilisateurs simultanément.
Pour autant l’accessibilité du réseau est l’élément pilier de celui-ci, notamment en déplacement ou lorsque nous sommes en voyage en campagne tout particulièrement. Malgré toute la complexité que représente l’élimination des zones blanches restantes, il s’agit d’un sujet qui implique et qui est entre autres financé par l’Etat lui-même, notamment afin de veiller à l’égal accès au très haut débit par les citoyens. Le réseau Internet est aujourd’hui considéré comme aussi primaire que celui de l’électricité ou de l’eau courante.

Le développement précédent pourrait sembler contradictoire avec celui de la 5G. Alors que certaines zones ne possèdent pas encore la 4G, tous les projecteurs sont braqués sur le réseau qui le succède. L’Etat et les opérateurs bien conscients de cette situation, ont voulu profiter de l’évolution des technologies pour accroitre encore plus l’efficacité du déploiement des réseaux dans les zones blanches. Cela se concrétise par la mise en place d’antennes compatibles à la fois 4G et 5G, car comme nous allons le voir par la suite, la 5G apporte des bénéfices intéressants dans les zones faiblement peuplées. L’idée n’est donc pas de déployer deux réseaux simultanément, mais qu’il soit encore plus efficace et durable en le munissant des technologies les plus modernes qu’il existe. La France comme beaucoup de pays exigent un rythme de déploiement dans les campagnes aux opérateurs. Une portion importante du parc d’antennes 5G sera d’ailleurs déployé prioritairement dans les zones rurales.


La 5G, de nouvelles bandes fréquences pour désengorger un réseau de plus en plus sollicité

La cinquième génération des réseaux cellulaires peut être décomposée en deux grands groupes de fréquences. Ces deux grands groupes sont intégrés dans deux phases de déploiement de la 5G. La 5G “Non-Standalone” (NSA, qui signifie : non autonome) se caractérise par une 5G qui s’appuie largement sur la 4G, que ce soit sur les fréquences de la 4G ou sur les infrastructures de la 4G. Elle sera donc assez rapidement concrétisée. La 5G Standalone (SA) se démarque par des infrastructures entièrement dédiées au réseau, et des fréquences différentes et dédiées à la 5G. 

Le développement de la 4G NSA puis SA est dans son ensemble segmenté en deux groupes au niveau des plages fréquences utilisées. Le premier groupe s’appuie sur des fréquences similaires à celles que nous connaissons avec la 4G. La plus “haute” de ce groupe est la 3,5GHz, qui est entièrement dédiée à la 5G. Elle est relativement haute donc possède une portée assez modérée, c’est une fréquence qui semble assez intéressante pour son ratio portée des émetteurs radio et débits proposés, qui ont permis d’atteindre sur un smartphone des résultats pratiques proches des 1,3 Gb/s en France selon certains test réalisés par des médias spécialisés. Notons que les infrastructures actuelles sont particulièrement peu sollicitées étant donné le nombre restreint d’appareils compatibles. 

En l’état des choses, le réseau débute juste sa construction. Les réalités des débits et de la portée de la 5G sont donc des paramètres qui vont largement évoluer, une fois que le réseau sera plus grand et « robuste », particulièrement dans les grandes villes, mais également lorsqu’une partie conséquente de la population l’utilisera quotidiennement, ce qui n’est absolument pas le cas actuellement.
Outre la 3,5GHz, deux bandes ont prévu d’être progressivement basculé de la 4G vers la 5G. Il s’agit des bandes 700 MHz et 2,1 GHz. Concrètement, cela signifie que la 5G va émettre avec les mêmes fréquences que la 4G, tout en bénéficiant des technologies de la 5G et des possibilités que permettent les antennes 5G. 

C’est aussi un moyen de basculer plus rapidement le réseau en 5G avec les équipements récemment mis en place par les opérateurs, qui avaient les possibilités d’émettre en 5G, mais qui attendaient les autorisations légales pour le réaliser.
Bien entendu, c’est une 5G “particulière” (NSA, Non-Standalone Access) , qui possède des débits assez éloignés des capacités promises par la 5G (nous serons très, très loin des 20 Gb/s revendiqué dans certaines situations…), mais qui permet aux opérateurs de réaliser des économies liées aux infrastructures et de concrétiser plus rapidement le réseau 5G même s’il est très proche de la 4G dans un premier temps du moins.
L’opérateur Free a largement joué sur cette subtilité pour revendiquer une couverture de 40% de la population française, sans déployer une seule antenne dédiée à l’émission sur la bande 3,5Ghz de la 5G. 

Ainsi Free a annoncé que la 5G sera intégrée aux forfaits actuels sans surcoût. Une stratégie plus que discutable étant donné qu’en réalité, les débits et toutes les promesses de la 5G deviennent très peu vérifiables car elle est émise sur la bande des 700MHz. Les utilisateurs potentiellement alléchés par les propos de Free risquent d’être largement déçu par les performances en pratique.
Cette technique agressive sur le prix des forfaits peut paraitre très favorable pour le consommateur car les autres opérateurs se voient obligés de réduire leur marge et c’est d’ailleurs vérifiable car les prix des forfaits mobiles en France sont parmi les plus abordables d’Europe.

Mais pour autant, cela reste pénalisant pour la puissance financière des opérateurs français dans leur globalité.
Free essaye avec ses annonces « chocs » de rapatrier le plus de clients vers ses offres, ce qui représente des pertes financières sur le long terme pour ses concurrents, qui eux souhaitent développer et développe déjà la bande des 3,5 GHz qui apportera vraiment tous les bénéfices de la 5G. 

Derrière ces forfaits très peu chers pour une technologie nouvelle qui semblent une bonne chose pour le consommateur, c’est potentiellement le consommateur lui-même qui aura des débits moins importants, faute d’un opérateur hors norme peu impliqué dans le développement des infrastructures les plus onéreuses.

Pour le moment, les quatre opérateurs déploient à un rythme similaire leurs antennes 5G 3,5GHz, cependant une distinction particulière doit être réalisée entre les configurations d’émissions actuelles de ces opérateurs. Le réseau 4G de Free reposait grandement sur la 700MHz, maintenant convertit en 5G. Cela n’est pas le cas pour les trois autres opérateurs avec leurs bandes 2,1GHz 4G. Leur réseau 5G même après conversion de la bande 2,1GHz en 5G ne sera donc pas aussi grand que pour Free, dans un premier temps tout d’abord. Rappelons tout de même que la 5G 700MHz possèdera et possède déjà des débits pas très importants comparé à d’autres bandes fréquences.

Image artistique de la constellation du signe du Zodiaque, dont la structure naturelle peut être source d’inspiration pour le déploiement des réseaux cellulaires.

Le second groupe de fréquences en 5G est en France comme majoritairement en Europe assez loin d’être concrétisé. Les fréquences millimétriques sont la réelle innovation de la 5G, c’est ici qu’elle va montrer ses plus hautes capacités et permettre de nouveaux usages avec le numérique. Les bandes millimétriques de la 5G reposeront sur des fréquences avoisinant les 26GHz. Les longueurs d’ondes sont donc beaucoup moins grandes.

Concrètement, les capacités de transfert des données seront particulièrement hautes comparé à ce que nous connaissons aujourd’hui. Le gigabit par seconde sera la norme, nous serons proche voir supérieur à des débits de fibre optique. Bien entendu, les bandes millimétriques sont soumises aux mêmes lois de la physique que le reste des fréquences. Cela signifie que leur portée sera très largement réduite, ne dépassant pas la centaine de mètres, voire la dizaine, quand rappelons-le certaines fréquences 4G peuvent être captée sur un rayon de 30 km.

Ces fréquences millimétriques sont pour le moment au stade d’expérimentation en France et aucune bande n’est officiellement attribuée aux opérateurs, contrairement aux Etats-Unis ou à la Chine, où certaines villes ont déjà déployé ces réseaux.
Les quelques tests réels réalisés dans les rares villes où la 5G millimétrique est déjà accessible mettent particulièrement en valeur les caractéristiques de ces fréquences millimétriques : les débits sont très hauts, il est possible d’avoir en pratique 2Gb/s, mais il suffit de marcher quelques mètres pour perdre le réseau et retomber à des débits beaucoup plus « faibles ».

C’est donc une technologie très prometteuse, surement pas très utile aujourd’hui mais qui devrait d’ici quelques années prouver son potentiel pour désengorger drastiquement les réseaux des grandes villes et développer des usages qui pourraient ne pas spécialement impacter le smartphone que nous avons tous dans nos poches, du moins dans un premier temps.
Ce sont des réseaux qui ont un ratio débit / performance énergétique intéressant, avec des rendements assez hauts, et qui permettront à terme d’estimer qu’une antenne 5G prise dans le réseau dans sa globalité permet de faire le travail de quatre antennes 4G.

Pour autant les bandes millimétriques comme la 5G dans son ensemble font l’objet de nombreuses controverses. 
Les ondes millimétriques sont peu utilisées de nos jours. Elles ont été utilisées dans les années 70 dans le milieu médical, mais globalement, leur utilisation n’est pas très répandue. Pour autant, les partisans des thèses concernant leurs effets comparables à ceux des micro-ondes, ou encore de l’augmentation des cancers liée à ces ondes ne sont absolument pas prouvés. 

Le principe du four à micro-ondes repose sur l’agitation moléculaire. La propagation d’une onde avec une fréquence d’approximativement 2,45GHz permet d’influer de la manière la plus efficace sur l’agitation moléculaire. Or l’agitation moléculaire est la notion qui se cache derrière celle de la température. Les fréquences plus basses que 2,45GHz traverseraient librement les aliments mais n’influeraient pas sur leur agitation moléculaire, et les fréquences plus hautes produiraient théoriquement plus de chaleur, mais elles sont en pratique trop hautes pour correctement pénétrer dans le milieu et le chauffer uniformément. 
Pour nous protéger des effets du micro-ondes, sa structure respecte le principe de cage de Faraday, qui isole absolument tous les corps qui se trouvent à proximité des ondes émises.

La fréquence 2,45GHz est donc la plus efficace pour chauffer quand elle est concentrée sur une surface réduite et dans un milieu “hermétique” aux fuites des ondes. Or cette fréquence est proche de celles largement employées par la 4G. Difficile d’admettre que la 5G aurait une conséquence plus importante, au contraire les ondes utilisées sont plus hautes donc pénètrent moins dans les corps. Le seul paramètre qui pourrait avoir des conséquences sanitaires potentiellement plus importantes concerne le nombre d’antenne de plus en plus grand, et de plus en plus à proximité des utilisateurs. Ce facteur pourrait engendrer des conséquences sur l’agitation moléculaire en surface des corps. Pour autant ces effets sont parfaitement incomparables avec ceux d’un micro-ondes, seule leur présence sur le long terme pourrait faire l’objet d’incertitudes concernant leurs conséquences (ou bien leur absence de conséquence). 

Cependant, certains aspects démontrés sur les ondes peuvent nous aider à se forger ses propres pensées. Une corrélation intéressante relevée par notre partenaire ShadowTech concerne l’atténuation très importante de l’exposition aux ondes en fonction de la distance : à 1 mètre d’une antenne 2,4GHz, le signal est déjà 10 000 fois plus faible. Ce phénomène est d’autant décuplé sur les hautes fréquences millimétriques et est la cause de leur portée réduite et de leur mauvaise propagation au travers des matériaux.

En France, plusieurs mesures sont alors déployées pour répondre au contexte délicat de ces fréquences. La première d’entre elles est de limiter la puissance des antennes 5G et tout particulièrement celles millimétriques, afin de réduire grandement les risques en lien avec l’échauffement des tissus qui s’il devait avoir lieu, aurait des conséquences cette fois-ci prouvé comme faible étant donné qu’elles seraient en mesure de traverser un tissu vivant de l’ordre du dixième de centimètre. Chaque déploiement d’antenne doit être fait en respectant des normes concernant leur proximité avec les bâtiments aux alentours.

A Paris par exemple, des capteurs sont installés dans la ville pour mesurer régulièrement l’exposition aux ondes dans des secteurs stratégiques. Régulièrement des mesures sont prises et sont répertoriées sur un site internet dédié afin de pouvoir informer la population de l’évolution des expositions.
Certaines personnes sont spécialisées dans la mesure de l’intensité des ondes. Il est possible de faire appel à ces spécialistes lorsque par exemple un logement est très proche d’une antenne, afin de vérifier que l’opérateur de l’infrastructure respecte les taux d’émission maximum légaux.

Dans le cas contraire il est obligé d’abaisser la puissance de son installation et bien entendu, un comportement frauduleux récurrent peut lui porter préjudice.
Enfin, les normes et les émissions maximales sont décidées selon des études scientifiques indépendantes des opérateurs eux même.
En France par exemple, l’Agence Nationale des Fréquences (ANFR) gère les bandes fréquences, régule et encadre l’installation des antennes des opérateurs mais aussi celles qui sont dans nos appareils et notamment celles de nos smartphones. Enfin, l’agence veille à l’application des mesures légales en réalisant des mesures d’exposition.

Notons que ces derniers mois, les contrôles des pratiques des opérateurs s’intensifie, et que les différentes normes sont sujettes à des évolutions constantes en fonction des nouvelles fréquences et antennes et de l’évolution de leurs effets potentiels sur la santé que la science relève. 

La France est l’un des pays développés qui encadre le plus sévèrement l’exposition aux ondes et qui régule avec le plus de prudence en imposant des émissions maximums moins importantes qu’en Chine ou aux Etats-Unis par exemple. Cela est valable pour les opérateurs, mais également pour les appareils tels que les smartphones, qui peuvent avoir un DAS (Débit d’Absorption Spécifique) maximum de 2 W/kg par gramme de tissu au niveau de la tête des utilisateurs en France. L’ANFR a par exemple déjà obligé certains constructeurs d’abaisser les émissions de leurs smartphones via une mise à jour logiciel suite à des tests qui révélaient un non respect de cette norme. 


De nouvelles techniques de communication plus efficaces et moins énergivores

Depuis le début de ce dossier, la rédaction est entièrement dédiée aux fréquences. Pour autant, la 5G marque de réelles nouveautés dans le fonctionnement même des antennes pour optimiser leur efficacité, que ce soit pour avoir de meilleurs débits, pour correctement gérer beaucoup d’appareils, ou encore pour réduire les dépenses énergétiques inutiles.
L’un des grands enjeux de la 5G est d’arriver à communiquer avec un nombre d’appareils connectés exponentiel. Cependant, tous les objets connectés ne sont pas aussi gourmands en bande passante qu’un smartphone. 

Une station météo autonome ou encore un feu tricolore pilotable à distance ne vont pas transmettre un flux vidéo 8K HDR10, loin de là ! Ce type d’objet sera beaucoup mieux pris en charge par la 5G, qui sera répondre avec plus de précision aux nécessités de chaque appareil connecté, comme par exemple une faible latence pour un feu tricolore intelligent afin de recevoir des instructions rapidement.
Cela est permis entre autres grâce à la technologie « massive MIMO », qui pour résumer, repose sur des antennes de différents types qui sont plus ou moins longues, larges en fonction de leur utilité.

A cette technologie s’ajoute « OFDMA scalable », qui permet de faire une distinction entre les capacités que nécessitent chaque appareil connecté. Globalement, cela signifie que le signal sans fil est « plus ou moins fort » en fonction des besoins de l’appareil. Cela permet de répartir la puissance plus intelligemment et là où elles véritablement nécessaire, plutôt que d’allouer plusieurs gigabits par seconde à un capteur de température ! 

Le système pourrait se comparer à une grille Tetris. Avec les autres réseaux cellulaires, chaque utilisateur rentrait dans une case, et chaque case avait la même surface. La surface correspond aux ressources déployées par l’antenne pour chaque utilisateur.
Donc chaque utilisateur était traité de la même manière par les antennes. Avec la 5G, la surface de chaque case est adaptée aux besoins de chaque utilisateur. Dans une même grille, il est possible de mettre plus de case, donc plus d’utilisateur. Au final, les latences sont réduites et les antennes gaspillent moins de ressources inutilement.

Également, les constellations d’antennes sont utilisées beaucoup plus intelligemment : la captation du réseau 5G peut faire appel à plusieurs antennes simultanément (qui ont des compétences et des localisations différentes), pour permettre un réseau toujours plus optimisé, avec moins d’interférences (car vous ne capterez pas un signal qui doit être reçu par un terminal à l’opposé de là où vous êtes situé).

Lorsqu’elle est utilisée, l’antenne n’émet pas des ondes à 360 degrés. Elle émet uniquement dans la zone où se trouve l’utilisateur, afin de lui permettre de plus hauts débits et de ne pas gaspiller inutilement de l’énergie pour propager des ondes là où personne les utilise. Il s’agit du principe du « beamforming ».

Les équipements 5G permettront d’accueillir un nombre d’appareils connectés simultanément beaucoup plus grand, avec des latences plus faibles et des débits plus hauts si le terminal en question en tire bénéfice. Pour se faire, la 5G repose sur des macrocellules indépendantes les unes des autres et qui émettent chacune sur des portées réduites. L’idée est de cibler des points stratégiques pour émettre plus intelligemment. 

Les antennes elles même possèdent plusieurs éléments de connexion. Elles sont en fait constituées de petits composants émetteurs par dizaine, afin de communiquer avec plus d’appareil sans pour autant que les débits et les latences deviennent mauvais.
Les antennes 5G sont aussi plus intelligentes dans leur gestion des ressources énergétiques.
Une antenne pourra passer en mode veille lorsque aucun terminal ne la sollicite et n’émettra plus d’ondes afin d’économiser de l’énergie. Un atout intéressant, notamment en campagne.


Un réseau nécessaire mais une norme anecdotique pour l’utilisateur lambda

De nombreux smartphones utilisent la 5G comme argument de vente. L’exemple le plus parlant est probablement celui d’Apple avec sa lignée d’iPhone 12, où la 5G a était le cœur de la conférence les présentant. Malgré tous les efforts que se donnent les constructeurs pour venter les mérites de la 5G, la réalité est autre. En l’état actuel des choses, la 5G est insignifiante pour un appareil ultra portable qui bénéficie d’un réseau 4G déjà bien implémenté et solide dans beaucoup de cas. La 5G va lui apporter pour l’instant aucun usage différent et ne va absolument pas impacter l’expérience au travers de l’appareil.

Même si les opérateurs et les marques communiquent particulièrement sur cette norme, elle n’apporte rien de très concret en l’état des choses au grand public, et n’est absolument pas un argument d’achat, et certainement pas un argument pour changer de smartphone.
Pour autant, devons-nous critiquer les appareils qui possèdent cette norme ? Absolument pas. Ces appareils seront d’une grande longévité, ils auront dans cinq ans des antennes toujours d’actualité, permettant de très bons débits et surtout de désengorger les réseaux dans les grandes villes en utilisant des fréquences un peu moins sollicitées.

L’axe le plus important des émissions de CO2 lié à la 5G n’est autre que celui du renouvellement des équipements (équipements d’exploitation de la 5G, il ne s’agit pas des équipements permettant le réseau 5G comme les antennes opérateurs) selon le rapport publié par le Haut conseil pour le climat suite aux questionnements sur l’impact carbone de ce réseau évoqué durant une séance au Sénat.
L’argument assez bancal du renouvellement précipité des terminaux afin de pouvoir utiliser cette norme peut être remis en question étant donné que les usages concrets de la 5G qui impactent directement les appareils que possède le grand public sont minimes pour l’instant. En l’état des choses, la 5G permet de télécharger plus rapidement de gros fichiers (cas d’usage finalement pas si répandu ni très fréquent sur ce genre d’appareils).

Le plus gros chantier que devrait permettre la 5G pour le grand public est de déporter les puissances de traitement. Les jeux et peut être un jour certaines applications et certains logiciels très gourmands pourront faire appel à la puissance du cloud avant d’afficher des données sur l’écran de l’utilisateur, une thématique abordée dans ce PhiloTech. Il s’agit d’un axe de développement en plein essor avec les cloud gaming tel que Shadow, Stadia et GeForce Now ou encore avec des solutions professionnelles comme Microsoft Azure. Tous ces services en sont pour le moment qu’aux débuts de leur développement et ne représentent pas encore un argument important pour se procurer du matériel 5G.

Globalement, nous pouvons en conclure que la 5G ne représentera pas un argument si important qui justifie de changer de smartphone. Difficile d’admettre qu’un iPhone 12 se serait mal vendu s’il n’était que compatible 4G, bien qu’il se serait fait épinglé par la presse pour son manque de longévité. Ainsi le plus gros facteur d’émission carbone lié à la 5G n’est pas vraiment lié au réseau lui-même, mais aux appareils qui vont l’exploiter. Cependant ces appareils se seraient tout de même vendus sans que ce réseau n’existe. Rappelons tout de même qu’un français change en moyenne de smartphone tous les 24 mois, et que cette valeur est plutôt stable. Cette fréquence de renouvellement lui fera acquérir un smartphone 5G bien avant que le réseau et de nouveaux usages soit entièrement développés.

Selon ce même rapport, le matériel qui concrétise le réseau qui permet d’émettre de la 5G représente dans sa globalité que 19% des émissions en CO2 en lien avec la 5G. Les émissions provoquées par les opérateurs pour mettre en place leurs antennes sont donc conséquentes, mais loin d’être l’axe le plus important, d’autant plus devant les rendements accrus et les gains de performance permis par la 5G qui ont été traités précédemment.
Il est difficile du fait de ces différents paramètres de véritablement penser que la 5G va causer des émissions supplémentaires du fait de son existence et que si la norme n’existait pas et que nous continuons à utiliser du matériel 4G moins efficace pour gérer la forte croissance des objets connectés, les émissions CO2 seraient moins importantes.

Pour autant, la 5G va permettre des usages beaucoup plus grands dans les domaines professionnels. La norme est grandement profitable pour ce secteur d’activité. Elle accentuera le développement de l’industrie connectée et automatisée pour par exemple piloter à distance des lignes de production et les rendre plus mobiles et flexibles grâce aux communications sans fil. Le réseau permettra également de mieux gérer les consommations énergétiques des bâtiments à distance. La 5G permettra de faciliter l’installation de divers capteurs de mesure de l’environnement dans les villes : la pollution sonore, de l’air, ou bien électromagnétique. Elle aura des usages dans l’agriculture, et dans la santé pour par exemple guider à distance une opération chirurgicale réalisée par un bras robotisé ou encore pour les transports en rendant les véhicules communiquant afin d’anticiper par exemple les embouteillages et fluidifier le déplacement des voitures.

En guise de conclusion, il est intéressant de se rendre compte que beaucoup des usages que permettront la 5G vont engendrer des optimisations dans divers domaines qui amèneront à des économies des énergies et des ressources. Le réseau en lui-même va devenir beaucoup plus intelligent pour concentrer les flux sans fil là où ils sont utilisés. Il s’appuiera sur la 4G et sur bon nombre d’infrastructures déjà en place pour se déployer et éviter de renouveler prématurément les équipements déjà en place. Il permet également de répondre à la problématique de la saturation des réseaux cellulaires dans les grandes villes, et d’amener le très haut débit dans certaines zones. Globalement et du fait des bénéfices que vont tirer les entreprises de la 5G, le réseau est important pour la compétitivité des pays. C’est un réseau qui peut impliquer l’utilisation d’appareils conçus et fabriqués par des équipementiers étrangers. Ce facteur engendre des problématiques liées à de potentielles pratiques d’espionnage par les équipementiers et obligent les Etats à limiter l’usage de certaines antennes. Les bandes fréquences toujours plus diverses permettront d’être plus adaptées aux différents environnements bien que l’accroissement des antennes posent des questions légitimes sur les enjeux sanitaires sur le long terme. C’est ainsi que le développement des antennes et des réseaux est largement contrôlé et encadré par des protocoles de test scientifique, même s’ils n’établissent aucune conclusion prouvant leurs conséquences (sûrement réduites si elles avaient lieu d’être comme vu précédemment), ou l’absence de conséquences.

Partager l'ArTech

Partager l'ArTech