|Écrit de Louis Viratelle. Édition Alexandre Pierrat.
Publié le 20 janvier 2021.
|Écrit de Louis Viratelle. Édition Alexandre Pierrat.
Publié le 20 janvier 2021.
La configuration virtuelle de la version 2021 du Consumer Electronic Show est peut-être le témoignage le plus profond des enjeux qui se cachent derrière les annonces en haute technologie. Qui aurait imaginé 40 ans plus tôt que nous serions en mesure de réunir un jour des acteurs du monde entier autour d’un support immatériel et visuel afin de simuler un salon au travers d’écrans ?
Cette année encore, le CES a révélé les dernières prouesses des entreprises qui permettent de concrétiser ce monde virtuel (bien que de plus en plus intimement lié avec l’univers réel).
Dans cet article que j’ai voulu différent de ce que vous trouverez ailleurs, j’ai sélectionné les technologies les plus intéressantes à présenter. L’idée ici n’est pas de les classer en fonction des marques, mais bien de mettre en valeurs les annonces les plus marquantes de cette édition 2021 du salon.
Tradition du rendez-vous l’oblige, les téléviseurs ont été à l’honneur. Fort est de constater que les nouveautés présentées cette année sont nombreuses et particulièrement intéressantes.
LG ouvre le bal avec des téléviseurs OLED apportant un gain sur la luminosité maximale qui peut être atteinte, l’un des grands défauts de cette technologie organique face au LCD. Outre cela, pas de grand changement sur cette technologie qui a muri et a amorti très rapidement les défauts que l’on pouvait lui attribuer lors de ses premières itérations. Notons que les nouveaux modèles que les plus grands constructeurs tels que LG ou Sony ont dévoilés montrent une volonté de rendre la technologie plus abordable, même si le défi est grand tant les coûts de production sont compliqués à réduire.
C’est au niveau des gammes LCD que les choses évoluent grandement. LG, Samsung ou encore TCL ont largement communiqué sur un système de rétroéclairage sur leurs téléviseurs très novateurs, le mini-led. Comme son nom l’indique, les LEDs blanches qui constituent le rétroéclairage de la dalle sont au format « mini ». La réduction de leur taille permet d’en ajouter davantage et donc d’obtenir un contrôle indépendant toujours plus poussé. On parle de zone de rétroéclairage. Plus cette zone est petite, plus le contraste de la dalle est amélioré et plus les images sont précises. Le pari du mini-led est en fin de compte de concurrencer ce qui a fait la réputation de l’OLED, ses noirs extrêmement profonds et son image très précise et pure visuellement.
Les enjeux de cette technologie sont particulièrement grands pour Samsung, qui ne propose et ne proposera surement jamais de téléviseurs OLED. Bien que Samsung Display soit précurseur dans les dalles organiques, les choix de l’entreprise sont extrémistes vis-à-vis de cette technologie vu qu’elle refuse catégoriquement d’intégrer de l’OLED à ses TV.
Le mini-led a plus d’un tour dans son sac, ou plutôt plus d’un argument pour se frayer une place : les risques de marquage de la dalle sont beaucoup moins grands qu’avec l’OLED, les luminosités maximales seront plus hautes que pour l’OLED, cela reste une technologie onéreuse aujourd’hui mais qui risque de devenir plus abordable que l’OLED rapidement car le principe de production du LCD est utilisé depuis des décennies.
L’autre grand axe d’évolution majeur qui a montré des signes encourageants est le micro-led. Si le mini-led repose sur la technologie LCD et consiste « seulement » à réaliser un rétroéclairage plus précis que le « local dimming » (on accroit significativement le nombre de zones rétroéclairées pour éviter les bavures et les fuites de lumière), le micro-led est plus proche du principe de l’OLED, à une condition : le micro-led repose bien sur des LEDs non-organiques.
Il s’agit de LEDs beaucoup plus petites que celles qui sont aujourd’hui utilisées pour le rétroéclairage, et qui émettent grâce à des sous pixels tout le spectre colorimétrique. Il n’y a donc plus de rétroéclairage, les contrastes sont infinis, les marquages sont pratiquement absents, la luminosité peut monter beaucoup plus haut que ce que nous connaissons aujourd’hui, et la technologie permettrait même de redéfinir la notion de téléviseur.
En effet, il n’est plus question de dalle, mais de blocs de petite taille que l’on assemble pour créer sa propre surface d’affichage. Ainsi, il est possible de diversifier les formats et les tailles comme bon nous semble, et d’imaginer par exemple recouvrir une grande partie d’un mur et de le métamorphoser en une fenêtre qui ouvre vers de nouveaux horizons…
Pour autant le voyage au cœur des pixels n’a encore rien de très rentable sur le plan économique ! Il faut compter 1000 dollars le pouce de bloc micro-led…
Sa commercialisation par des acteurs comme Samsung ou LG est bien réelle, mais s’adresse à des marchés de niche extrême. Nous pouvons alors penser qu’elle sera surtout adressée au segment du B to B dans un premier temps, comme pour le secteur du commerce en guise de grands panneaux publicitaires très qualitatifs, ou encore comme alternative aux fonds verts au cinéma.
Les CES 2021 aura inauguré les premières palpitations du Wifi 6E. Derrière cette norme qui semble être la continuité du Wifi 6 qui lui, commence tout juste à être embarqué sur les appareils assez haut de gamme, les avancés sont significatives et vont largement impacter le grand public dans les années qui arrivent. Tout comme les réseaux cellulaires et la 5G, les réseaux wifi doivent évoluer rapidement pour faire face à leur sollicitation de plus en plus grande. Les appareils et les services que nous utilisons nécessitent des capacités de connexion à Internet de plus en plus fortes. Les services reposent toujours plus sur l’image et la vidéo et demandent des ressources pour être affichées toujours plus grandes, et de nouveaux usages encore plus gourmands en bande passante tels que le « cloud gaming » ou le « cloud computing » rendent nos appareils toujours plus dépendants de serveurs parfois situés à des milliers de kilomètres.
S’ajoute à cela un nombre recrudescent de nouveaux objets connectés. Le wifi par exemple assure la plupart des liaisons sans fil de nos appareils domotiques : nos assistants connectés, imprimantes, lampes et prises connectées ou encore nos appareils électroménagers connectés ne sont que quelques exemples de ces objets qui bénéficient (et parfois subissent) la numérisation. Pour répondre à ces multiples défis, le wifi 6 et le wifi 6E vont être largement employés dans la prochaine décennie.
Le wifi 6E inaugure de nouvelles bandes fréquence, comme pour le wifi 802.11a, n et ac en son temps.
En 2021, le wifi s’attaque aux bandes de 6GHz. Vous retrouverez une analyse précise des enjeux des fréquences pour les réseaux sans fil dans notre développement sur la 5G. La bande des 6GHz permettra de posséder des débits beaucoup plus importants que ceux que nous connaissons aujourd’hui : le débit théorique sera de 9,6Gbit/s. Autant dire que le wifi pourra assurer la transmission de la puissance de la plupart des fibres optique installées. C’est l’une des avancées les plus importantes depuis des années (pour ne pas dire depuis plus d’une décennie), le Wifi 6E concurrence les câbles Ethernet, bien que les plus exigeants continueront d’utiliser des réseaux entièrement filaires beaucoup moins sujets aux interférences donc aux chutes de débits.
Pour arriver à augmenter ces débits et outre avoir recours au 6GHz, le wifi possède une largeur de spectre de plus en plus grande. La largeur de fréquence du Wifi 6E est de 1200 MHz ! Autrement dit, le nombre de fréquences utilisé par le Wifi est très large. Cette largeur est d’ailleurs problématique dans certaines régions du monde où certaines fréquences du wifi rentrent en conflit avec les fréquences utilisées par d’autre type d’antenne, comme celles que possèdent certains satellites. La répartition des fréquences en fonction des appareils et des antennes est relativement complexe et problématique : il faut répartir un spectre sans fil inextensible à toujours plus de technologies, et qui pour les cas du Wifi et de la 5G demandent de plus en plus de bande pour répondre à leur utilisation exponentielle, parfois proche de la saturation.
Plus la largeur du spectre est grande, plus les appareils ont de fréquences pour communiquer. Elles peuvent ainsi éviter les fréquences qui produisent beaucoup d’interférences pour avoir toujours le meilleur rapport entre débit (« puissance du signal ») et qualité de connexion (« fiabilité, linéarité de la connexion »). C’est ainsi que le Wifi 6E est beaucoup plus puissant, et même s’il ne fait pas le pari d’améliorer sa portée, il permettra des connexions toujours plus stables, même sur des distances assez longues.
Pour illustrer ces propos avec un test grandeur réel, j’ai délaissé mon CPL depuis que je possède un ordinateur avec Wifi 6 (une Surface Laptop 3, pour l’énumérer). Malgré l’éloignement entre ma box Internet Wifi 5 et ma Surface Wifi 6, ma connexion est relativement stable, chose qui était impossible avec les normes précédentes. Le wifi 6 est même devenu pour ma part un critère d’achat important tant ses bienfaits sont mesurables en conditions réelles.
Pour l’instant, le wifi 6 n’est embarquée que sur une box parmi toutes celles des opérateurs français, la Box 8 de SFR, donc l’usage de la norme est largement réduit. Elle est embarquée sur la plupart des smartphones haut de gamme (iPhone 11 et plus, Galaxy S10 et plus, etc…), et commence juste à être adoptée chez les constructeurs d’ordinateurs comme Microsoft, Apple, ou encore Razer pour ne citer qu’eux. Autant dire que le Wifi 6E ne risque pas de se retrouver sur un de vos appareils avant quelques années. Seuls les Galaxy S21 de Samsung fraichement annoncés sont aujourd’hui compatibles, accompagnés de certains routeurs comme ceux de Netgear.
Le wifi 6E montre également que les réseaux maillés vont se démocratiser de plus en plus : les dernières normes se concentrent sur l’augmentation des débits plutôt que la portée de chaque antenne, qui aurait plutôt nécessité des fréquences plus basses. Cela peut s’expliquer de deux manières : la première est la volonté de désengorger le réseau avec des fréquences assez lointaines de celles qui sont utilisées aujourd’hui pour éviter les interférences qui sont de plus en plus courantes. La seconde consiste également à éviter les interférences, cette fois-ci en limitant consciemment la portée de chaque antenne et en privilégiant plutôt les Wifi maillés (avec plusieurs antennes réparties dans chaque domicile), au plus grand bonheur des constructeurs de routeurs…
Samsung et ses processeurs Exynos est surement la preuve vivante que la guerre du silicium fait très mal, mais que pour autant, une position de faiblesse dans ce combat sans fin n’est justement pas une finalité. En effet, les Exynos ont (sur)vécu difficilement ces dernières années : Samsung souhaite à tout prix conserver son indépendance vis-à-vis de sa capacité à concevoir et produire des SoC sous l’architecture ARM, mais n’arrive plus à suivre Qualcomm, Apple et Huwei qui proposent des processeurs haut de gamme bien plus performants et efficients sur le plan énergétique. A cela s’ajoute une difficile gestion des capacités de production et des coûts face aux concurrents.
Les conséquences de ce statut s’est concrétisé pendant des années, certains smartphones Samsung haut de gamme avaient plus de puissance et une meilleure autonomie aux Etats-Unis qu’en France car les modèles possédaient les Snapdragon de Qualcomm et non les Exynos de Samsung.
En 2021, tout semble se tempérer grâce à l’Exynos 2100 : Samsung renonce enfin à concevoir ses propres cœurs de CPU et utilise ceux directement pensés par l’entreprise ARM (à ne pas confondre avec l’architecture ARM), les Cortex-X1 qui fonctionneront avec une fréquence légèrement plus haute que sur les autres SoC équipés de ces cœurs, quitte à avoir une autonomie surement légèrement moins bonne.
Pour la partie GPU, Samsung a concrétisé ses cœurs ARM grâce à un partenariat avec AMD, et exploitera la base des cœurs GPU la plus puissante d’ARM.
Samsung continue pour autant d’être très impliqué dans les processeurs ISP (les unités dédiées au traitement photographique) eux aussi attachés au SoC : l’entreprise est arrivée à combiner quatre ISP dans l’Exynos 2100 pour piloter quatre flux de caméra simultanément ! Une prouesse de puissance quand on sait l’énorme traitement numérique auquel sont soumis les signaux des photosites ! C’est entre autres à ce niveau que Samsung garde un avantage immense en concevant ses ISP : cela lui permet de ne dépendre de personne pour optimiser les appareils photo de ses smartphones et de mieux appréhender les innovations de la concurrence.
Cette stratégie très importante est un pilier pour la marque, tant la qualité photographique est devenue aujourd’hui un axe majeur pour la vente d’un smartphone. Samsung a d’ailleurs déjà fait ses preuves à cet égard en étant très régulièrement parmi les leaders en termes de qualité d’image que peuvent produire ses smartphones haut de gamme.
Outre l’ISP, Samsung intègre par ses propres moyens un modem 5G sur son SoC, là aussi la marque a sa propre expertise dans les réseaux et la porte à contribution dans ses smartphones.
Enfin, l’une des parties la plus innovantes avec l’Exynos 2100 concerne sa capacité d’exécution d’algorithmes d’intelligence artificielle. Pour se faire une unité dédiée appelée NPU est conçue pour cette tâche, mais elle est également aidée par le GPU, le CPU et même le DSP, l’unité de traitement des signaux numériques.
L’ensemble permet de dégager une puissance de 26 TOPS et d’être très crédible face aux Snapdragon 888 et A14, même si d’autres facteurs que la puissance brute sont à mettre en parallèle pour juger sa réelle efficacité en IA.
L’ensemble est possible grâce à une gravure en 5nm Low Power Early que l’entreprise arrive à concrétiser en masse grâce à ses propres fonderies.
L’autre grand « blessé de guerre » n’est rien d’autre qu’Intel. Le grand groupe à la renommée mondiale s’est vu déplumé en quelques années. 2021 marque le début d’une transition très délicate pour Intel. Tout d’abord, l’entreprise bascule enfin ses processeurs de bureau et ceux portable haute performance sur des procédés plus d’actualité face à la concurrence. Les processeurs de bureau de cette année sous la nomenclature Rocket « Lake-S » utilisent une architecture plus récente bien que toujours en 14nm. Ceux pour les PC portables (« Tiger Lake-H ») passent quant à eux en 10nm et ne sont plus réservés qu’aux pc avec une enveloppe thermique de 15 watt.
Mais le gros œuvre pour Intel est maintenant d’essayer de répliquer à certaines technologies d’ARM tel que les cœurs haute performance / basse consommation. Pour se faire, elle a évoqué l’avenue de la génération « Alder Lake » cette année, qui devrait changer beaucoup de chose pour l’entreprise. Il s’agit toujours d’une architecture X86 en 10nm mais qui se rapproche de ce que fait AMD. Son concurrent le plus proche a en effet un avantage certain ces derniers temps : les processeurs de l’entreprise utilisent un procédé de gravure en 7nm qui combinent une meilleure efficacité énergétique et une puissance de calcul accrue.
Les plateformes AMD reposent sur la technologie BIG.little qui consiste à utiliser dans les processeurs des cœurs haute performance avec des cœurs basse consommation (l’une des structures pilier de l’architecture ARM).
« Alder Lake » utilisera un principe similaire mais avec toujours une gravure en 10 nm, bien que l’architecture encore loin d’être finalisé, devrait être grandement optimisé pour espérer rivaliser avec des gravures plus fines.
L’idéal d’Intel est dans un premier temps de moderniser sa gamme avec des architectures plus récentes, mais de passer très rapidement aux processeurs « Alder Lake » avant que les constructeurs d’ordinateur ne bascule tous chez AMD.
Mais dans un second temps, l’entreprise doit également anticiper l’arrivée en force d’ARM sur les ordinateurs. Bien que l’univers de Windows soit encore loin d’être majoritairement propulsée par les cœurs ARM, Apple Silicon est les Mac M1 sont une réalité qui bouscule l’industrie à coup de performances des fois plus que doublées, d’autonomie monstrueuse grâce à des processeurs qui ne nécessite parfois même plus de ventilateur !
Face à ces avancées plus que violentes, à l’indépendance radicale que prend Apple pour concurrencer l’industrie des fonderies et à la place inquiétante que se fraie AMD sur les architectures X86, les enjeux sont énormes pour l’entreprise qui doit arriver à prouver que l’architecture X86 en possède encore sous le pied face à ARM malgré sa vieillesse et la gravure en 10 nm qu’elle ne fait que commencer à utiliser quand un Mac M1 est gravé deux fois plus petit, en 5nm…
Notons également que Qualcomm s’intéresse de près aux PC sous ARM (et a dans le viseur Apple), comme Microsoft qui envisagerait de proposer également ses propres processeurs ARM, du moins pour ses Surface. Samsung pourrait suivre la cadence et s’inviter à la danse avec sa nouvelle stratégie Exynos, pour s’affirmer de nouveau sur le secteur des ordinateurs. Autant dire qu’il est difficilement imaginable qu’Intel retrouve la part du gâteau qu’elle possédait durant des décennies entières dans les prochaines années. Reste le secteur des serveurs, bien moins connu mais qui pour autant représente une très grande cible qui pour le moment est impacté plus faiblement et moins rapidement par la révolution ARM.
La Lettre Contemporaine utilise des cookies pour stocker et/ou accéder à certaines informations des appareils. Accepter l'utilisation des cookies nous permet de traiter des données telle que l'audience du site. Refuser l'utilisation des cookies non essentiels ou les sélectionner individuellement n'influence pas l'expérience de navigation.