Proposé par Louis, mis à jour le 19 avril 2019.

Procédé technique qui consiste à l’aide d’un dispositif optique à immortaliser -pour une certaine durée de lumière exposée sur une surface photosensible- une image permanente.Nous allons nous intéresser aux différents éléments primaires de la photographie indispensable pour la réalisation de ce procédé.

La photographie est fondée sur trois éléments :

– l’ouverture :

cela correspond au diaphragme de l’objectif. Il s’agit en fait d’une pièce circulaire capable de se rétrécir ou de s’élargir (ce qui influx sur son diamètre) pour réguler le flux de lumière qui rentre dans l’objectif.  Son unité de mesure est  ” f / nombre “. Plus le nombre est grand, plus l’ouverture du diaphragme est faible. Inversement, plus le nombre est petit, plus l’ouverture est grande.

Cette notion n’est pas très courante sur les smartphones car l’ouverture est fixe, à l’exception de certains modèles comme les Galaxy S9, Note 9, Galaxy S10 qui peut varier entre deux valeurs. Le diaphragme est une pièce mécanique volumineuse qui demande de la place, c’est pour cela que miniaturiser cet élément est un défi que les fabricants ne sont pas en mesure de réaliser aujourd’hui.

Faire varier la valeur de l’ouverture influx sur l’exposition de la photo. Plus vous cherchez à augmenter sa valeur, moins la photo sera exposé car la lumière qui atteint le capteur est moins importante. Tout de même, si vous travaillez en mode automatique, l’appareil photo essayera de suite de compenser ce manque de lumière à l’aide des deux paramètres que je vais décrire par la suite.

Les valeurs standard d’ouverture varient de f/1 à f/32. Elles varient en fonction de l’objectif utilisé.

L’utilisation des valeurs extrêmes accentue les défauts de l’optique : vignetage, mauvaise homogénéité de l’image, mauvais piquet, couleurs moins précises, déformation de l’image et des perspectives… 

Photo

 

Illustration des différences physiques de la variation de l’ouverture. Image Wikipedia.

– la vitesse d’obturation (temps de pose) :

La vitesse d’obturation agit sur… l’obturateur ! Et l’obturateur est le système de rideaux qui coupe le capteur de toute lumière. L’obturateur est positionné juste avant le capteur (nous parlerons de cet élément juste près), il agit sur la lumière une fois que cette dernière à traversée l’objectif (donc diaphragme).

Cet élément est généralement fermé sur les reflex quand ce dernier n’est pas utilisé contrairement aux hybrides où il est ouvert. 

Sur les reflex, l’obturateur est composé de deux rideaux. Lors de la prise d’une photo, un premier rideaux s’ouvre, et comme un seul rideau permet de mettre le capteur dans l’obscurité, le capteur reçoit la lumière. Quelques instants plus tard, le second rideau se ferme, le capteur est dans l’obscurité. Lors d’une prise rapide avec l’obturateur mécanique, les déplacements des deux rideaux se suivent, les deux déplacements se font en même temps. Seulement une petite partie du capteur est alors exposé à la lumière.

Le système de miroir sur reflex permet de dévier la trajectoire de la lumière vers le viseur. En mode live view, où l’écran affiche l’image comme sur les hybrides, pour prendre une photo, le système de réflexion doit pivoter, ce qui demande une opération mécanique de plus pour la prise de photo. 

C’est à ce moment qu’intervient les hybrides. Comme ils ont un viseur numérique, le capteur reste tout le temps exposée à la lumière pour alimenter le viseur en image.

Lors d’une prise, pas besoin de relever un système optique pour dévier la lumière, c’est tout simplement un rideau qui empêche la lumière de passer dans un premier temps, pendant ce temps, le capteur s’active, puis ce rideau se relève, le capteur réagit à la lumière puis enfin l’autre rideau se referme pour marquer la fin de la pause. 

La vitesse d’obturation se mesure en fraction de seconde

Les valeurs standards de mesure de cette vitesse sont :

1/8000 s – 1/4000 s – 1/2000 s – 1/1000 s – 1/500 s – 1/250 s – 1/125 s – 1/60 s – 1/30 s – 1/15 s – 1/8 s – 1/4 s – 1/2 s – 1 s – 2 s – 4 s – 8 s – 15 s – 30 s

Plus la valeur est grande, plus la quantité de lumière qui va atteindre le capteur est élevée. Plus la photo sera exposée.

Il existe un autre type de système d’obturateur. L’obturateur électronique. Il équipe les smartphones et les appareils photos bridge. Les hybride et reflex peuvent aussi détenir (en plus de l’obturateur mécanique) ce système. 

Comme son nom l’indique cet obturateur n’a pas de pièce mécanique. C’est simplement le capteur qui active ses rangés de photosites (voir plus bas), une après l’autre pour s’imprégner pour un temps donné de la lumière. L’intérêt principal de ce système est sa miniaturisation (pour les petits système type smartphone/bridge), sa discrétion de fonctionnement, et sa robustesse comparé au système mécanique.

Tout de même, ce système accuse des limites. Les valeurs extrêmes sont compliquées à atteindre et l’obturateur mécanique sera bien plus adapté pour ce genre de condition. En cas de prise en mouvement, la présence de rolling shutter peut-être constaté. Comme le capteur active chaque ligne de photosites par succession, il y a un décalage de temps de prise entre le début de l’image et la fin.

Par exemple, une palme d’hélice d’avion apparaîtra des dizaine de fois alors qu’un système mécanique n’accuse pas ce défaut. Ce problème se retrouve également en situation de lumière artificiel créé par des néons. La fréquence de la lumière interagit avec la fréquence du système d’obturation numérique.

L’échantillonnage de l’image maximal sera plus faible et enfin, les photos au flash résulteront à des résultats médiocres.

Photo

 

Exemple d’obturateur mécanique. Image à titre commerciale.

– la sensibilité isométrique :

La sensibilité isométrique correspond à la mesure de sensibilité à la lumière des capteurs numériques ou pellicule.

En fait, un capteur photo est composé de photosites. Il s’agit d’éléments qui ont pour but de réagir à la lumière (aux photons) et de transformer l’intensité de la lumière qui a réagit en signaux électrique. Ces signaux électrique diffère en fonction de l’intensité lumineuse. 

Les photosites sont réglés pour être plus ou moins sensible à la lumière. La valeur de ce réglage est en ISO. C’est cette valeur qu’il est possible d’ajuster lors d’une prise d’une photo.

Les standards sont : 100 ISO, 200 ISO, 400 ISO, 800 ISO. Bien sur, des valeurs plus hautes voir plus basses peuvent être atteinte en fonction des capacités du capteur.

Plus la valeur ISO est haute, plus le capteur est sensible à la lumière. La photo sera de plus en plus exposé à mesure que cette valeur augmente.

La taille des photosites est variable en fonction des capteurs. Plus le photosite est gros (de l’ordre du micromètre), plus il sera capable d’être sensible et de réagir correctement à une lumière assez faible. Autrement dit, plus les photosites sont gros, plus l’appareil photo est adapté pour les situations de basse lumière. C’est à cause de ce constat que l’on dit que le nombre de pixels de l’appareil photo ou d’un smartphone ne veut pas dire que ce dernier fait de belles photos.

En effet, plus il y a de pixels, plus la taille de ces pixels (donc des photosites) est faible. Et donc, moins l’appareil photo sera capable de faire des photos viables en basse lumière, ce dernier fera apparaître très facilement du bruit. Un grand nombre de pixels est intéressant pour recadrer numériquement une prise tout en conservant une densité de pixels décente.

Tous les photosites forment le capteur photo. Il existe plusieurs tailles de capteurs photo mais nous allons y revenir plus tard.

Photo

 

Exemple de capteur photographique.

 

La surface rectangulaire noir au centre comporte tous les photosites. Image d’illustration.Nous avons parlé déjà plusieurs fois de photosites. J’ai même dit qu’il s’agit d’un élément qui a pour but de convertir la lumière (les photons) en signal analogique. Nous allons entrer plus en détail sur le fonctionnement de ce composant. Déjà, il est plus question de photodiode. Il s’agit en fait du même élément que le photosite.

Ce dernier reçoit des photons (de la lumière). Les photons ont une charge neutre. Pour convertir le nombre de particules photon en signal analogique, il faut logiquement que la charge ne soit pas neutre. Sinon compliqué de mesurer quelque-chose… Le but des photodiodes est donc de transformer les photons en électrons. Un électron a une charge négative. Le signal analogique a donc lieu d’être. 

Dans un capteur CCD, ce signal est transmis à une ou plusieurs broches de sortie, puis le signal est amplifié pour gagner en “lisibilité” (plus de détails) avant d’être converti par un convertisseur analogique/numérique (ADC) intégré au capteur en lui-même.

Vingt et un an après l’invention du capteur CCD (en 1969 par George Elwood Smith et Willard Sterling Boyle), les capteurs CMOS sont apparus. Ils font fondamentalement le même travail mais leur fonctionnement permet de miniaturiser les capteurs. L’industrie mettra plus de dix ans pour s’intéresser vraiment à ces nouveaux capteurs qui sont très majoritairement privilégiés aujourd’hui sur beaucoup d’équipements.

Un capteur CCD fournira des informations analogiques qui sont converties en numérique par un ADC situé à proximité. Cette information analogique n’a subi aucun traitement, elle fournit simplement l’information du capteur, avec tous ses défauts. Un capteur CMOS fournit à sa sortie une information numérique. Le système de conversion ADC est intégré au capteur, très proche des photodiodes. C’est d’ailleurs un problème car certains photons percutent ces ADC au lieu de toucher une photodiode. La captation de la lumière est donc légèrement moins bonne.

Pour arriver à cette prouesse de compacité, les capteurs CMOS sont gravés comme un processeur. L’information qui sort des capteurs photos CMOS est donc numérique. Ce n’est pas tout. Pendant la conversion des donnés analogiques en données numériques, des traitements sont appliqués pour corriger les défauts de capteurs, limiter le bruit etc…

D’ailleurs, un capteur génère du bruit quand la réaction des photodiodes aux photons est trop faible pour être correctement interprété lors de la conversion en numérique. Au lieu de restituer fidèlement en numérique le signal analogique, une forme de donnés qui ne provient pas réellement des photons est généré pour combler ce manque d’information.

Les capteurs CCD ont la capacité de capter et de convertir plus d’informations lors de situations de basse lumière comparées au CMOS qui sont plus limitées.

Autre information importante, les capteurs photos dans leur globalité sont capables de convertir un spectre lumineux plus grand que celui de la vision humaine. Ils convertissent globalement les rayons électromagnétiques, que ce soit du l’ultraviolet, du visible ou du rayonnement infrarouge. Un filtre est mis d’office devant la plupart des capteurs  pour empêcher le passage de la lumière infrarouge au-delà de 720 ou 750nm. Les photos prises à la lumière du soleil auraient un rendu poussé vers les tons violets car le soleil émet de la lumière en partie infrarouge.

Tout de même ceux qui font de astrophotographie réalisent un dé-filtrage du capteur de leur appareil photo pour laisser ce dernier retranscrire cette lumière. Leur appareil devient utilisable (sans filtre ajouté sur l’objectif) que la nuit. Mais des objets de l’univers émettent cette lumière infrarouge. Le fait de dé-filtrer un capteur permet donc de révéler toute la splendeur des couleurs d’un objet dans le ciel sans déformer ses couleurs réelles. 

Photo

 

Exemple d’une image prise avec la lumière du soleil avec un capteur dé-filtré. Image d’illustration.

 

Un capteur photographique est composé d’un autre élément très important en dehors du photosite. La grille de Bayer.

La grille de bayer est comme son nom l’indique une grille positionnée juste devant les photosites.

Comme vous le savez surement, la lumière est composée de trois couleurs primaires : le rouge, le vert et le bleu. C’est l’intensité de ces trois couleurs réunies qui donne les autres couleurs et l’ensemble des nuances de couleurs. Il faut donc récupérer l’intensité colorimétrique de chacune de ces trois couleurs pour pouvoir restituer fidèlement la colorimétrie d’une photo. Or les photosites ne font aucune différence entre le rouge, le vert ou le bleu. C’est donc le rôle de ce filtre.

On pourrait assimiler sa multitude de petit “trous” à des trappes. Chaque trappe laisse passer soit la couleur verte, soit la rouge soit la bleue. Et chaque photosite qui se trouve dessous chaque trappe mesure l’intensité lumineuse des photons qui font partie uniquement d’une de ces trois couleurs primaires. Le modèle de cette grille est connu par l’isp, il sait donc à quelle couleur primaire appartient chaque valeur de chaque photosite. C’est ainsi qu’il est capable de former des pixels, puis d’assembler ces pixels pour former l’image dans sa globalité.

Photo

 

Illustration d’un filtre de Bayer et de son positionnement en fonction du capteur photo. Image en provenance du site Pascal Henry.

 

Photo

 

Illustration du fonctionnement du filtre de Bayer. Image libre de droit.

La matrice de Bayer RGB, qui est utilisée depuis plusieurs dizaines d’années, a vu il y a peu un nouveau-né débarquer.

Huawei n’est rien d’autre que la marque qui la mise au point, et il s’agit des capteurs RYYB, appelés SuperSpectrum Sensor.

Pour correspondre à la vision humaine, les capteurs détiennent deux fois plus de filtre qui laissent passer le vert, que le rouge et le bleu. En effet, l’oeil humain est deux fois plus sensible à la lumière verte, qu’à la bleue ou la rouge. Naturellement, la conception des capteurs est adaptée pour être compatible avec la vision humaine.

Via ce nouveau capteur, les filtres verts sont remplacés par des filtres jaunes. L’intérêt est de faire réagir les photosites à un spectre colorimétrique plus large, pour enrichir la captation à la lumière. En pratique, le filtre jaune laisse passer la lumière verte, et un peu plus de lumière rouge. Cela apporte jusqu’à 40% de lumière supplémentaire sur l’image globale.

En soi, le rendu colorimétrique est dans la lignée des capteurs RGB, bien que j’ai constaté une amélioration du respect de la colorimétrie avec ce capteur RYYB.

Huawei a développé ce capteur pour sa série Huawei P30, introduit sur le marché en mars 2019. Ils sont partis d’un constat simple : la miniaturisation des capteur RGB induit une perte de sensibilité à la lumière assez importante et cela nuit aux résultats, en particulier aux photos de nuit (sans mauvais jeu de mots). Leur solution fut de créer un nouveau filtre, sensible à un spectre de lumière plus large. C’est ainsi que la montée isométrique des P30 est très impressionnante pour un si petit capteur.

Pour aboutir à ce nouveau type de capteur, il ne suffisait pas de modifier l’aspect matériel. Une bonne partie du code informatique mis au point depuis des années pour les capteurs RGB a été modifié pour ces nouveaux capteurs. Le programme de dématriçage doit faire la distinction entre les différentes teintes auxquels réagit la partie jaune du capteur pour restituer une image viable. Cela requiert une puissance de traitement assez importante que seul le matériel assez récent est en mesure de fournir.

Huawei obtient ce résultat à l’aide du module ISP de son SOC Kirin 980 optimisé pour ce nouveau traitement logiciel. Pour analyser le spectre lumineux et assurer une restitution la plus fidèle possible, Huawei (comme d’autre) utilise les informations des autres capteurs, le capteur IR RGB qui est capable d’analyser le spectre colorimétrique environnent etc…

Huawei a travaillé avec Leica, marque reconnu en photo pour élaborer son nouveau capteur, son traitement et ses optiques. La luxueuse marque de matériel photo va réutiliser ce travail collaboratif pour son propre matériel réservé au très haut de gamme, voir au professionnel. C’est une preuve des perspectives d’évolution que permet ce nouveau type de capteur.

Il ne serait pas étonnant de voir ce genre de capteur se démocratiser, en particulier sur les smartphones et les caméras d’action. Je pense même voir ce genre de technologie sur des boitiers micro 4/3 et aps-c pour améliorer leur sensibilité à la lumière.

Photo

 

Illustration de la différence entre les capteurs RGB et les capteurs RYYB. Image à but d’illustration.

 

Photo

 

Illustration de la différence physique entre un capteur RGB et un capteur RYYB. Image à but d’illustration.

 

Abordons un autre point qui une fois de plus est essentiel en photographie.

La focale. La focale correspond à la largeur de l’angle de prise de vue. Cela correspond au “zoom”. Plus la focale est grande, plus la largeur de l’angle de prise de vue est faible, plus la photo parait “zoomé”. 
Il existe deux types de focale : 

    • La focale fixe, qui ne propose qu’un angle de prise, son gros avantage est de permettre une stabilité de la qualité d’image, et cette dernière est bien souvent largement meilleur que sur les focales variable, que ce soit sur le piqué, le vignetage, la distorsion ou autre.
    • La focale variable, qui permet de varier la largeur de l’angle de prise de vue entre deux valeurs : la focale la plus grande, et la plus petite. L’intérêt de ces objectifs est tout simplement d’accroître considérablement ses possibilités de cadrage sans recadrer numériquement sur l’image, ou encore sans se déplacer physiquement. 

Comme vous le voyez, ces deux types d’optique ont chacun leurs avantages et leurs inconvénients. C’est pour cela que les deux types d’optiques continuent à se vendre. Tout de même, les focale fixes s’adressent à un public plus guérit vu qu’il faut consacre un budget conséquent à la photographie, tout en prévoyant les contraintes de leur encombrement.

Il est beaucoup plus judicieux de commencer la photographie avec une unique focale variable qui peut à la fois faire du grand angle et des cadrages très resserrés. C’est un moyen de tester plein de cadrage, de limiter les contraintes et d’évaluer le type de focale qui vous correspond le plus pour par la suite, pourquoi pas, acheter du matériel plus spécifique et qualitatif.

L’optique à un grand défaut qui est pourtant un des grands concepts de l’électronique. La miniaturisation ! L’optique à des contraintes physique qui rend (à ce jour) impossible de miniaturiser tous les types d’objectif pour par exemple, les intégrer sur un smartphone. 

La plus grosse contrainte se situe surement sur les focales variables. Il est à -l’heure actuelle- impossible de miniaturiser une focale variable et de produire massivement ce genre d’optique. C’est pour cela que nous voyons le nombre de capteur photo se multiplier sur les smartphones.

Prenons le Galaxy S10 : Il détient une optique (très) grand angle, d’une équivalence focale de 13mm pour un capteur 24*36, une optique dite “normal”, c’est en fait du grand angle comme sur tous les smartphones, d’une équivalence focale de 26mm pour un capteur 24*36 et une optique dite “zoom”, d’une équivalence focale 52mm pour un capteur 24*36.

Samsung dit dans son marketing qu’il s’agit d’un zoom 2x. Ce terme est à bannir en photographie ! En fait, cela veut dire que le “zoom” à une longueur focale deux fois plus grande que le grand angle : 26*2 = 52mm. Mais en photographie, il faut des valeurs qui parlent. Quand on parle d’un “zoom” x2 on ne connait pas la focale minimal, ni la focale maximal. Ce que ne dis pas le marketing, c’est que entre ces deux focale, la qualité d’image se dégrade car il s’agit d’un “zoom” numérique. 

Le zoom numérique n’a pas bonne réputation dans la mesure où il grossi les pixels. Pour zoomer dans une photo, il suffit en fait de grossir les pixels et comme par magie, la largeur de l’angle de prise de vue parait resserrée. Mais grossir les pixels à un effet secondaire qui n’est pas des moindres ! Les pixels sont plus visibles, ont perd en détails, en densité de pixels.
Toutefois, je vais nuancer mes propos. Certaines marques de smartphone, dont Huawei qui œuvre beaucoup pour la photo sur smartphone avec leur partenaire Leica, ont mis au point un système de “zoom hybride”. Il s’agit en fait d’un zoom numérique mais qui exploite les caractéristiques des multiples capteurs photos de l’appareil. Par exemple, sur le P20 Pro, le capteur principal détient beaucoup de pixels.

Celui avec une grande focale a moins de pixel mais permet d’aller logiquement plus “loin” dans l’image. Le logiciel va exploiter la grande densité de pixels du capteur principal et va associer ces donnés aux autres donnés du capteur à la grande focale, comme par exemple la colorimétrie. L’ensemble des donnés assemblés et traités communément donne un résultat global bien amélioré comparé à un “zoom” dit entièrement numérique.

Google utilise quand à lui une association de plusieurs images prises à intervalle rapide. Comme l’utilisateur fait des micro-vibrations sur son téléphone, les photos sont légèrement différentes. Quand on assemble tous les pixels de toutes les photos, le résultat final du zoom est amélioré. Toutefois, il serait compliqué de parler de zoom hybride comme chez Huawei car le traitement s’appuie uniquement sur la capacité d’un seul capteur. Le traitement ne s’appuie pas grâce à une différence matériel (les différentes focales et nombre de pixels) comme chez Huawei.

Pour avoir observé des clichés qui résultent de ce traitement spécifique, j’ai trouvé le résultat assez impressionnant par homogénéité global de l’image. C’est une solution que je trouve totalement viable pour le grand public voir mêmes pour certains passionnés de photo pour des situations qui ne laissent d’autre solution.

L’unité de mesure de la focale est le mm. 
Exemple : 140mm

Photo

 

Illustration de la correspondance de la distance focale.

 

Nous voyons qu’il s’agit de la distance entre le foyer (partie de l’objectif) et du premier verre que la lumière pénètre. Plus cette distance est grande, plus l’angle formé par les deux droites sécantes est faible. Et cet angle correspond à l’angle de prise de vue 😉 Image d’illustration de phototrend.Passons maintenant à la taille des capteurs photos. En effet, les capteurs photos ne sont pas tous de la même taille pour s’adapter à la compacité de l’appareil qui comporte le module photo. En plus de cela, plus un capteur est gros, plus les optiques qui seront devant le capteur sont imposantes, leur diamètre sera plus important.

Photo

 

Voici les tailles les plus traditionnels des capteurs photos. image Photographix.

 

Plus un capteur est gros, plus le nombre de photodiodes qu’il peut contenir est important, plus la grandeur de ces photodiodes peut-être importante. Logiquement, plus le capteur est gros, plus il est sensible à la lumière car une des priorités des constructeurs est d’utiliser les photosites les plus gros possible. Et plus un capteur est sensible à la lumière, plus la profondeur de champ est faible, donc plus le bokeh (l’effet de flou) est prononcé.

La profondeur de champ dépend de l’intensité de la lumière et de la distance à un objet. On le néglige souvent, mais avec une optique à grande focale, il suffit de s’éloigner de son sujet et de resserrer son cadre dessus pour faire apparaître un bokeh sans avoir une très grande ouverture ou un capteur plein format.

Enfin, plus un capteur est grand, plus les photodiodes sont gros, et qui dit photodiodes plus gros, dis surface de réception des photons plus grande. Ainsi, on peut monter plus haut dans la sensibilité isométrique sans craindre trop de fausses réactions qui engendreraient du bruit (trop) visible.

Aujourd’hui, les hybrides haut de gamme ont enfin tous adopté le plein format. C’est sony qui est resté longtemps seul dans ce segment, et c’est seulement en 2018 que les autres ont montré leurs modèles. Les plus connus sont : L’A7III chez Sony, le S1 chez Panasonic, l’EOS R chez Canon, le Z7 chez Nikon.

Panasonic a développé pendant très longtemps les hybrides avec des capteurs micro 4/3 et 4/3 (et ils n’ont pas terminé de miser dessus d’ailleurs), ce sont même eux les créateurs de ce format d’appareil photo qui risque de dépasser très vite les reflex. Nikon et Canon ont toujours été les maîtres inconditionnels du reflex même si ce segment commence à s’essouffler.

Quand aux autres prénommés Pentax, Fujifilm, Olympus, Leica ou encore sigma (et j’en oublie), ils développent du compact comme de l’hybride ou du reflex même si ils suivent le courant du marché et se dirigent aussi vers des boîtiers plus compacts avec de gros capteurs et une optique interchangeable. 

Partage

Nous retrouver.

© 2019 Briska Digital — TechMilisme.
Tous droits réservés.

Nous contacter | Mentions légales