Le 10 novembre 2019, produit et rédigé par Louis Viratelle.

La photographie, ou l’art d’immortaliser l’instant présent dans un cadrage, repose sur trois éléments fondamentaux. La vitesse d’obturation, qu’elle soit mécanique ou numérique, l’ouverture du diaphragme, qu’elle soit fixe ou variable, et la sensibilité isométrique. Réaliser une photographie, c’est agencer ces trois éléments qui agissent dans le cadrage (réalisé grâce à la focal, à la composition, à la balance des blancs, à la retouche). 

Il existe plusieurs manières de gérer ces trois paramètres. Mais trois d’entre elles sont particulièrement populaires et vont retenir notre attention. 

Le premier est le mode automatique. Il se base sur un algorithme définit en fonction des caractéristiques du capteur. Son but est simple. Il doit retranscrire quelque soit les circonstances de la prise une immortalisation la plus fidèle qu’elle soit à la vision humaine. La photographie doit ressembler à l’interprétation faite par notre cerveau du signal des cônes et des bâtonnets de notre rétine. Le principe de ce mode automatique existe depuis des dizaines d’année et s’avère un standard de la prise photo. Il est proposé par la plupart des fabricants de caméras, certains en font même un argument de vente fort en montrant la capacité de ce dernier à remplacer les réglages manuels dans beaucoup de situation. C’est la démonstration de Leica, réputé pour ses appareils de petite taille aptes à immortaliser avec une qualité d’image remarquable. Les boîtiers reposent sur un design simpliste, dénué de multiples boutons physiques aux usages secondaires. 

 

 

 

Leica Q2

 

 

 

Des variantes de ce mode existent et sont intégrés chez de nombreuses marques comme Panasonic, Nikon, Canon, Fujifilm… Il s’agit de la priorité ouverture et vitesse. Ces modes, que je qualifierais à bon escient de semi automatique, laissent le contrôle à l’utilisateur de respectivement l’ouverture et la vitesse d’obturation. Cela donne au photographe un champ des possibilités de prise de vue plus large bien que l’optique première reste la restitution de l’interprétation de l’œil humain, l’appareil photo essayant de compenser les réglages du photographe. La dernière technique pour gérer ces paramètres est moins intuitive bien que primée par de nombreux photographes. Il s’agit du mode manuel. L’utilisateur a la maîtrise de toutes les caractéristiques de sa photographie. Il gère l’ensemble des réglages qui permettent de prendre la photographie.

Mais ces derniers mois, ce monde bien poussiéreux de la prise numérique s’est vu bousculé par l’arrivée de nouvelles techniques de prise sur smartphone.

L’une d’entre elles est le mode nuit. Ce dernier permet une captation lumineuse à laquelle notre rétine s’avère insensible. Des images débouchant des ombres en surgissent, avec à la clef, plus de détails, plus de nuances colorimétriques et une capacité à exposer les très basses lumières sans saturer les plus hautes. 

En effet, le mode nuit repose sur l’absence de réglages réalisés par l’utilisateur. La prise est déclenchée et les algorithmes décident des réglages. Les techniques diffèrent selon les constructeurs et restent particulièrement secrètes même si celles décrites par la suite font très probablement partie d’une base commune à la plupart des constructeurs. 

Le mode nuit ne repose pas sur le concept original d’immortalisation de la réalité que proposait le mode automatique. Au lieu de cela, il est question de proposer une photographie détaillée qui remonte bien plus d’informations que ce que nous voyons. Pour se faire, des pauses longues sont effectuées. Mais ce sont des pauses particulières. Vu qu’elles sont réalisées à main levée, le résultat devrait être flou. Or ce n’est pas le cas. Des algorithmes sont en mesure de détecter les caractéristiques du cadrage et d’adapter en conséquence la prise. Si le cadrage comporte un élément en mouvement, les prises seront plus courtes mais se succèderont très rapidement. Inversement, les pauses sont plus longues si le sujet est fixe. 

Suite à ces pauses qui peuvent varier de quelques millisecondes jusqu’à plus d’une seconde, un traitement logiciel lourd s’applique. Dans une durée relativement faible, la puissance logicielle du smartphone traite chacune des prises et les empilent entre elles pour produire une seule photographie. Le logiciel détecte les éventuels prises inexploitables (trop floues, incohérentes avec la majorité…) et les retirent du traitement dans le but de garder le plus possible l’aspect naturel de la photographie finale. 

La taille des photosites des capteurs de nos smartphones a beaucoup grossi ces dernières années, idem pour la qualité optique, qui laisse passer beaucoup plus de lumière. Cependant, dans des conditions de basse lumière, il reste compliqué d’obtenir des résultats résultant d’une prise quelconque exploitable. C’est là que l’empilement d’images prend du sens. Cette technique permet de réduire significativement le bruit tout en multipliant la captation des photosites pour remonter de la lumière.

À cela s’ajoute des algorithmes de traitement de l’image finale qui sont parfaitement optimisés aux caractéristiques physiques de l’optique et du capteur du smartphone. Cela permet de contourner les potentiels défauts de l’image produit par le matériel à l’aide d’un « remplacement » logiciel de ces derniers. Une déformation de l’image peut être contournée, un vignettage prononcée peut être supprimé, etc… Ce principe équivaut aux techniques utilisées en astrophotographie (pour rappel, il s’agit de la pratique la plus complexe en photo, tant avec des sollicitations extrêmes des composants qu’avec un traitement complexe).

Le traitement photos du mode nuit est capable de réduire le bruit produit par le smartphone de manière très intense. En effet, le résultat sans traitement final resterait peu convainquant. Les photosites et l’optique étant peu sensibles à la lumière, ils font des « faux positifs » en réagissant à des photons qui n’existent pas réellement. Cela se traduit par des points à l’image, points que les algorithmes connaissent et remplacent par des aplats de couleurs simulant l’image réelle. Le bruit numérique n’est pas identique sur chaque photos. Ce dernier évolue à chaque prise et s’agence différemment à chaque fois. Ainsi, il est possible à l’aide de plusieurs captations de diminuer ce bruit.

Ces différents traitements aboutissent à une image capable de restituer une bonne précision de la scène malgré un matériel de prise contraignant et rempli de défauts. Le logiciel soustrait les défauts du matériel aux prises subjectives afin d’aboutir à un résultat optimal. Il reste également d’autres difficultés à s’affranchir, comme la mise au point complexe en basse lumière, d’autant plus quand elle se base sur une mesure du contraste, ou encore la balance des blancs difficilement mesurable par le smartphone. L’ensemble de ces contraintes est traité dans cet excellent article produit par des ingénieurs de Google spécialisés en traitement logiciel des photographies.

A tout cela peut s’ajouter de l’intelligence artificielle capable d’optimiser une prise à l’aide de la reconnaissance d’objets. Après avoir analysé des millions d’images, le logiciel s’inspire de ses analyses pour optimiser le sujet à traiter en décident d’améliorer les couleurs et certains traits. L’intelligence artificielle optimise particulièrement les contours des éléments en enrichissant les détails et l’aspect du relief de la photographie. Le paramètre de clarté se rapproche de ce traitement, or, au lieu de s’appuyer uniquement sur le signal des photosites, on exploite le signal de millions d’images déjà connues par le smartphone pour “deviner” les manques et les combler.

Il est donc difficile d’affirmer qu’un tel traitement restitue une photographie fidèle à la réalité des photons, comme cela l’était précédemment. 

L’assistance logicielle simule ce que l’utilisateur souhaite obtenir plus qu’il ne traite « noir sur blanc » ce que le capteur convertit. Malgré l’usage de principe aussi vieux que la photographie comme bracketing et l’empilement d’expositions, le traitement antérieur s’avère nouveau et révolutionnaire dans le concept premier de la photo. Nous sommes passés en quelques mois d’une photographie qui retranscrit une réalité captée physiquement par le capteur à une photographie qui simule ce que le capteur aurait dû capter et ce qu’il capte mal. Et cette différence est d’autant plus marquée avec le mode nuit, qui altère totalement la notion de transcription de ce que voit l’humain. 

Mais cette modification du terme photographie peut être contrebalancer par une interface logicielle capable de guider l’utilisateur afin qu’il comprenne ce que son smartphone retranscrit. 

Google en premier lieu, mais aussi Huawei, Samsung, Honor, OnePlus pour ne citer qu’eux, ne proposent comme interface qui assiste le mode nuit qu’un unique bouton qui permet d’activer et désactiver ce dernier. 

Apple, marque souvent différenciée de la masse sous Android, propose un mode nuit depuis peu sur ses derniers smartphones. En plus de promettre une différence minime entre la réalité et la photographie, la marque adopte une interface qui laisse place à plus de maîtrise par l’utilisateur. Les algorithmes proposent automatiquement un temps de pause ou du moins ce à quoi correspond le traitement des différentes prises en langage photographique mais en plus, il est possible de régler plus ou moins ce temps de prise. 

La volonté d’Apple n’est pas tellement de faire évoluer la photographie en laissant des algorithmes surpuissants contrôler les réglages des prises comme le font indirectement les autres smartphones. Apple veut que ses algorithmes assistent le matériel pour mieux simuler le rendu que pourrait produire un capteur et une optique plus qualitative. Dans un souci de cohérence et de maîtrise de ses prises, l’interface traduit le résultant du traitement sous la forme d’un temps de pause, notion que beaucoup connaissent. Il est ainsi possible de contrôler partiellement le rendu, à l’image d’une priorité vitesse. Nous retombons donc sur un terme principal de la photographie mais qui demande derrière une complexité logicielle extrême pour le simuler. L’utilisateur a donc l’illusion que son smartphone suit des principes simples même s’il n’en est rien.

 

 

 

Crédit photo : Steven – YouTube.

 

 

 

Il est fondamental de savoir distinguer une photographie assistée et simulée par des algorithmes d’une photographie qui correspond à la transcription du capteur. Cela ne veut pas dire qu’une technique est meilleure que l’autre, seulement que l’une est l’évolution de l’autre pour mieux optimiser les capacités des composants restreints par leur taille physique. 

Nous dérivons de plus en plus vers un monde assisté par l’algorithmique, la programmation et l’intelligence artificielle dans un ensemble de domaines immenses. L’aptitude purement humaine à produire une photographie va se raréfier, le traitement natif ou postérieur des prises s’appuiera de plus en plus sur l’expression de l’IA. C’est la démonstration du mode nuit, mais également des logiciels de retouche photo comme Adobe Photoshop.

Mais il est naturel de faire une distinction entre le travail d’un humain et celui d’un algorithme. Certains utiliseront l’algorithmique et les avancées logicielles pour modifier totalement la conception de la photographie quand d’autres repousseront les limites physiques de la photographie pour simuler le mieux possible la réalité. La première est l’entreprise de Huawei, amplifiée par celle de Google quand la seconde est celle d’Apple, que ce soit à l’aide de son mode nuit ou grâce à deep fusion, sa nouvelle technologie logicielle et matérielle qui simule et amplifie les détails photographiques.

Telle est une prise de conscience sur l’histoire et le devenir d’une pratique révolutionnaire qui fige contours et nuances du temps mais qui fait face à une dépendance crescendo d’une science qui s’apparente contradictoire à l’art, les mathématiques.

 

Partage

Nous retrouver.

© 2019 Briska Digital — TechMilisme.
Tous droits réservés.

Nous contacter | Mentions légales