Site A.T.L.A.N.T.I.C-83
COURS = Prise de vue numerique (Chapitre_2) - VERSION: 1.0 (M.A.J: 28/11/09)
- AUTEUR(s): Bernard GIACOMONI
Ecran large mobile
Retour
sommaire cours

II.PROBLEMATIQUE TECHNIQUE DE LA PRISE DE VUE.

II.1.INTRODUCTION:


Ce chapitre a pour but de passer en revue les différents composants d'un appareil photographique, de définir leur rôle dans le processus de la prise de vue et d'exposer la problématique liée à leur emploi. Les chapitres suivants permettront de préciser les modalités de leur utilisation.


II.2.SCHEMA GENERAL D'UN APPAREIL DE PRISE DE VUE:


Le schéma ci-dessous représente une vue en coupe longitudinale d'un appareil photographique. Il permet d'illustrer graphiquement la problématique générale de la prise de vue.


Schéma d'un appareil photographique

II.2.1.COMMENTAIRES SUR LE SCHEMA:

Ce schéma met en évidence deux sous ensembles: le BOITIER (en bleu sombre) et l'OBJECTIF (en magenta).

Le BOITIER renferme les CAPTEURS OPTIQUES, l'OBTURATEUR qui contrôle le temps d'exposition des capteurs à la lumière et les composants informatiques chargés de gérer l'acquisition des images, leur enregistrement sous forme de fichiers et la communication de l'appareil avec d'autres systèmes de traitement (ordinateur, imprimante, etc...). Sur les appareils compacts, l'obturateur est quelquefois placé dans l'objectif.


L'OBJECTIF renferme tous les composants qui contribuent à former l'image du sujet à photographier. Il comprend essentiellement un jeu de lentilles (au moins 4, mais parfois beaucoup plus) et le DIAPHRAGME, dont le but est de contrôler la quantité de lumière pénétrant dans l'objectif. Le schéma représente un sujet (grande flêche verte double marquée P) et son image par l'objectif (petite flêche double marquée P').


Le schéma représente un objectif dit "à focale variable" (encore appelé ZOOM). En effet, il a été dessiné sous la forme de deux cylindres pouvant coulisser l'un sur l'autre, chacun de ces cylindres supportant des lentilles. Ceci permettrait de faire varier les positions relatives des lentilles, donc de modifier les caractéristiques optiques de l'objectif (Le mécanisme réel est, en général, plus compliqué). Il existe également des objectifs dans lesquels les positions des lentilles sont fixes (objectifs dits "à focale fixe").


D'autre part (sauf dans le cas de certains appareils "jetables"), l'objectif peut se déplacer par rapport au boitier, parallèlement à l'axe optique. Nous verrons que cette faculté est utilisée pour effectuer la MISE AU POINT, c'est à dire pour amener l'image (double flêche P' sur le schéma) à se former à la surface de la plaque photosensible.

II.2.2.REMARQUE: APPAREILS COMPACTS ET APPAREILS A OBJECTIFS INTERCHANGEABLES:

Certains boîtiers autorisent le changement de l'objectif, d'autres ne le permettent pas. Lorsque l'objectif ne peut être désolidarisé du boîtier, l'appareil est qualifié de COMPACT. Dans le cas contraire, les appareils sont appelés: REFLEX. Or, le terme REFLEX fait référence uniquement au mode de visée de l'appareil (visée REFLEX). Le fait de pouvoir adapter plusieurs sortes d'objectifs au boîtier étant indépendant du mode de visée de l'appareil, cette appellation semble abusive, mais tellement courante qu'il est difficile de ne pas l'utiliser.


II.3.DESCRIPTION DES PRINCIPAUX COMPOSANTS:


II.3.1.L'OBJECTIF:


schéma d'un objectif photographique

FONCTIONS:

La fonction principale de l'objectif est de former une image du sujet à la surface de la plaque photosensible. Cette image doit correspondre aux exigences du photographe en ce qui concerne l'angle de champ, la netteté, la profondeur de champ, le contraste et la luminosité. L'objectif intègre donc des mécanismes permettant de traiter ces différents critères.


DEFINITIONS:

  • L'ANGLE DE CHAMP d'un objectif est l'angle maximal sous lequel un objet peut être vu à travers l'objectif. Par raison de symétrie, il est donc égal au double de l'angle spatial maximal (par rapport à l'axe optique) sous lequel un rayon lumineux arrive à traverser l'objectif.
  • Nous appellerons ESPACE OBJET la région de l'espace située en avant de l'objectif.
  • Nous appellerons ESPACE IMAGE la région de l'espace, située en arrière de l'objectif.
  • Nous appellerons POINT NODAL IMAGE le centre optique d'un objectif (c'est le point N du schéma). Cette appellation vient du fait que tout rayon lumineux passant par lui traverse l'objectif sans déviation.


FORMATION DES IMAGES:

Un objectif est, au minimum, composé d'un jeu de lentilles minces centrées sur l'axe optique et disposées de manière à fournir, pour chaque détail ponctuel d'un sujet situé dans l'angle de champ de l'objectif, un point image de cet objet dans l'espace image de l'objectif.
Ceci revient à dire que tous les rayon lumineux issus d'un tel point et entrant dans l'objectif CONVERGENT vers un même point de l'espace image. Ce point est le POINT IMAGE du détail ponctuel en question. L'ensemble des images des différents points d'un sujet constitue l'image de ce sujet.


image d'un sujet par un objectif
Le schéma ci-dessus illustre ces notions: les rayons lumineux R1, R2 et R3, émis par un même point particulier A du sujet avec des directions telles qu'elles leur permettent d'atteindre l'objectif, convergent dans l'espace image vers un même point A', qui est l'image de A. Seuls les points de l'espace objet situés dans le cône délimité par l'angle de champ (zone grise en avant de l'objectif) pourront donner une image dans l'espace image de l'objectif.


POSITION DE L'IMAGE D'UN POINT-DISTANCE FOCALE:


La position de l'image d'un point dans un plan perpendiculaire à l'axe optique est sensiblement homothétique de celle du point origine (du moins si on ne s'éloigne pas trop d'un tel axe). C'est ce qui explique que les images des objets contenus dans un tel plan ne sont pas déformées: ces images sont en général inversées (la gauche devient la droite, le haut devient le bas, et vice-versat).
En revanche, la distance de l'image d'un point par rapport au point nodal image (distance ND' sur le schéma) est loin d'être homothétique à la distance du point par rapport à N (distance DN sur le schéma). En fait, elle suit une loi plus complexe dans laquelle intervient la DISTANCE FOCALE de l'objectif. Ceux qui souhaîtent approfondir cette question peuvent se référer à l'ouvrage "Initiation à l'imagerie numérique, disponible en ligne sur ce site (doc. en ligne, rubrique multiméria). Dans le cadre de cet ouvrage, nous nous bornerons à énoncer les rêgles suivantes:
  • Les images de points situés dans un même plan perpendiculaire à l'axe optique se forment également dans un même plan de l'espace image perpendiculaire à l'axe optique
  • L'image d'un point situé à une distance infinie du Point Nodal Image se forme dans un plan perpendiculaire à l'axe optique appelé PLAN FOCAL. La distance FN de ce plan au point N est appelée DISTANCE FOCALE de l'objectif. Certains objectifs ont la possibilité de faire varier leur distance focale: On les appelle des "Zooms".
  • L'image d'un point proche du Point Nodal Image se forme en arrière du plan focal.
  • Au plus un point est éloigné du point N, au plus son image se rapproche du plan focal: de ce fait, la distance de l'image d'un point à N (A'N sur le schéma) est d'autant plus faible que la distance de ce point à N (AN sur le schéma) est grande.
  • Taille de l'image: pour un sujet donné, situé à une distance donnée, l'image est d'autant plus grande que la distance focale est grande.


REMARQUE N°1:
A partir d'un certain éloignement, la distance de l'objet influe très peu sur celle de son image:
- Avec une distance focale de 50 mm, et pour un sujet situé à une distance d'une dizaines de mètres, l'image se forme à environ 50,25 mm de N, soit à 250 microns du plan focal.
- Pour un sujet situé à 50 mètres, l'image ne se forme plus qu'à environ 50 microns du plan focal.
- Enfin, pour un sujet situé à 100 m, l'image n'est plus qu'à 25 microns du plan focal.

De ce fait, à partir de quelques dizaines de mètres, la distance de l'objet n'a presque plus d'influence sur la position de l'image, qui se trouve pratiquement dans le plan focal. On peut considérer que l'objet se trouve "à l'infini".


REMARQUE N°2:
La surface photosensible des appareils numériques est en général beaucoup plus petite que la pellicule d'un appareil argentique. De plus, elle peut différer suivant les fabricants et suivant les modèles d'appareils (elle est plus petite sur un compact que sur un reflex). De ce fait, les dimensions des images formés par les objectifs d'un appareil numérique diffèrent de celles d'un appareil argentique et même entre deux appareils numériques équipés de capteurs différents.
La dimension de l'image dépendant en partie de la focale, il serait très difficile pour les utilisateurs de passer d'un appareil à un autre. De ce fait, les constructeurs ont pris l'habitude d'indiquer sur les matériels numériques non la focale réelle mais la focale équivalente, c'est à dire celle qu'il faudrait utiliser pour avoir le même résultat avec un argentique au format 35 mm ou 24x36.
Ainsi, lorsqu'une focale de 60 mm est indiquée pour un appareil numérique reflex, la focale réelle peut être de l'ordre de 15 mm. l'indication 60 mm indique simplement que le résultat sera le même qu'avec un argentique 35 mm équipé d'une focale de 60 mm).
Dans la suite du cours, les focales indiquées seront toujours les focales équivalentes.


ANGLE DE CHAMP:

La distance focale détermine également l'ANGLE DE CHAMP de l'objectif. Cet angle est d'autant plus grand que la focale est courte. Le tableau ci-après donne quelques valeurs d'angles de champ en fonction de la focale:


DISTANCE FOCALE (mm)
(focale équivalente argentique)
ANGLE DE CHAMP (degres)
2875
5047
9027
20012
Le schéma suivant illustre cette notion:


Variation de l'angle de champ

OUVERTURE DE BASE ET DIAPHRAGME:


l'OUVERTURE DE BASE d'un objectif caractérise la quantité de lumière pénétrant dans l'objectif quand son diaphragme est entièrement ouvert. Cette ouverture s'exprime par un nombre qui est égal au rapport entre la distance focale de l'objectif et le diamètre de sa lentille frontale. Par exemple, un objectif dont la lentille frontale aurait un diamètre de 20 mm et dont la distance focale serait 50 mm aurait une ouverture de: 50/25 = 2,5 (que l'on note: f/2.5). Notons que l'ouverture est d'autant plus grande que ce nombre est petit.
Le DIAPHRAGME est un dispositif interne à l'objectif qui permet de faire varier cette ouverture de base. Il se présente comme un ensemble de membranes permettant de réduire le diamètre de passage de la lumière dans l'objectif:
Diaphragme
L'ouverture de base, corrigée par le diaphragme est appelée simplement OUVERTURE de l'objectif. L'ouverture ne peut évidemment pas être plus grande que l'ouverture de base. Ainsi, un objectif dont l'ouverture de base est f/2.5 ne peut prendre que des valeurs d'ouverture plus grandes (par exemple f/2.8, f/4, etc.).
REMARQUES
- Il existe une suite de valeurs d'ouverture standards qui sont proposées par les systèmes de réglages: f/1.4, f/2, f/2.8, F/4, F/5.6, etc... (Chaque valeur se déduisant approximativement de la précédente par une multiplication par 1,414 (racine de 2). Par exemple, la valeur suivant f2.8 est 2.8*1,414, soit (à peu près) 4.
- Les valeurs maximales et minimales d'ouverture sont indiquées sur les objectifs (par exemple, sous la forme f/1.4-f/5.6).


II.3.2.VISEUR ET SYSTEME DE MISE AU POINT:


Le système de visée joue un rôle primordial, non seulement dans le cadrage, mais aussi dans la mise au point. Actuellement, 4 technologies différentes sont proposées.


LA VISEE OPTIQUE SEPAREE:

C'est la solution qui est représentée sur le schéma n° 1. Le viseur est un système optique (une petite lunette de visée) indépendant du bloc optique principal. L'image qu'il fournit n'est donc pas celle qui sera formée sur la surface sensible. L'avantage du viseur optique est qu'il ne consomme pas d'électricité, qu'il donne une bonne image et qu'il peut être utilisé en plein soleil. L'inconvénient est que l'axe de visée diffère de l'axe optique de l'objectif: nous verrons que ceci peut entraîner une mise au point incorrecte.


L'ECRAN LCR EXTERNE:

C'est souvent l'unique moyen de visée des compacts. Cependant, il est très peu lisible en pleine lumière et la visée manque énormément de précision. De plus, il impose de tenir l'appareil de telle manière qu'il est difficile de l'immobiliser pendant la prise de vue. Enfin, la définition est en général trop faible pour juger de la qualité de l'image et le système, qui consomme beaucoup d'énergie, réduit l'autonomie de l'appareil.


LE VISEUR ELECTRONIQUE:

Il s'agit d'un petit écran LCD que l'on peut observer à travers un oeilleton. L'avantage sur l'écran externe est qu'il reste lisible en pleine lumière, qu'il peut présenter la même image que l'objectif (donc le même axe de visée) et qu'il peut être utilisé en tenant l'appareil "normalement". Cependant, sa définition reste très faible, avec les mêmes conséquences que pour l'écran externe.


LE VISEUR REFLEX:

Les appareils reflex sont caractérisés par l'utilisation d'un type de viseur particulier appelé TTL (Through The Lens: au travers de l'objectif): avant le déclenchement, un système de miroirs et de prismes pivotants dévie la lumière arrivant sur le capteur à travers l'objectif vers un oeilleton. Au moment du déclenchement, le système pivote et le capteur reçoit la lumière. L'image de visée est donc la même que celle de la prise de vue. Sa très bonne qualité (définition, clarté) permet de bien juger de caractéristiques telles que la netteté ou la profondeur de champ et éventuellement de les corriger. De plus, on n'est pas géné par la lumière ambiante. En revanche, le mécanisme de basculement des miroirs augmente la durée de la prise de vue.


REMARQUE:

Sur les appareils numériques actuels, quelle que soit la technologie employée, l'affichage de paramètres de réglage est incorporé à l'image fournie par le viseur. Il s'agit au minimum de la valeur d'ouverture, de la vitesse d'obturation et d'un indicateur de validité de la mise au point. Les écrans LCD externes affichent parfois plus d'indications.


LA MISE AU POINT:

La MISE AU POINT consiste à faire coïncider l'image fournie par l'objectif avec la surface de la plaque photosensible. Nous avons vu que cette opération est réalisée au moyen d'une translation de l'objectif sur son axe optique. Cette opération peut s'effectuer manuellement ou automatiquement. Les appareils numériques possèdent tous un système de mise au point automatique appelé AUTOFOCUS. Il existe deux types d'autofocus:
- les systèmes ACTIFS, qui utilisent une visée télémétrique pour déterminer la distance du sujet: un faisceau d'infrarouges est projeté vers le sujet. Le rayonnement réfléchi est capté par l'appareil qui peut ainsi déterminer la distance de mise au point.
- Les systèmes PASSIFS, qui utilisent la lumière émise par le sujet pour déterminer sa distance. Les systèmes passifs se trouvent dans les boitiers reflex, car ils utilisent les miroirs du viseur reflex pour renvoyer la lumière vers des capteurs spéciaux avant la prise de vue. La distance est calculée par des procédés appelés correllation de phase ou de contraste.

Les systèmes actifs ont pour avantage de permettre une mise au point en dehors de la prise de vue elle-même. Ils sont, par contre, plus sensibles aux obstacles (vitre, grille, etc..) qui peuvent s'interposer entre le sujet et l'appareil (vitrages, grilles, etc.).


II.3.3.LES CAPTEURS NUMERIQUES:

REMARQUE PRELIMINAIRE:

Nous appellerons "point" (ou encore PIXEL) d'une image une surface dont les dimensions sont assez faible pour que l'on puisse en négliger les détails internes (ceci est évidemment subjectif et dépend du niveau de détail acceptable). Dans ces conditions, on peut considérer qu'une telle surface est monocolore. On pourra donc parler de la couleur et de l'intensité de ce point (ou pixel).


CAPTAGE DE L'IMAGE D'UN POINT:

L'image formée par l'objectif est captée par un panneau de diodes photosensibles (appelées PHOTOSITES). Chacune de ces diodes est capable de délivrer un courant électrique proportionnel à l'intensité lumineuse reçue. En revanche, un photosite ne peut détecter la couleur de la lumière reçue.


Panneaux de photosites
De ce fait, pour détecter à la fois l'intensité et la couleur en un point de l'image, on utilise (en général) 4 photosites: par le biais d'un jeu de filtres (cas du schéma) ou d'un prisme, la lumière issue de chaque point est décomposée en 3 composantes: Rouge, Vert et Bleu. Les intensités des composantes rouge et bleu sont captées chacune par un photosite, alors que la composante verte se voit attribuer deux photosites (car ceux-ci sont moins sensibles aux fréquences proches du vert).
Chaque groupe de 4 photosites délivre donc 3 courants électriques respectivement proportionnels aux intensités des composantes rouges, vertes et bleues du point de l'image. Les valeurs de ces trois intensités, une fois numérisées et encodées par l'informatique de bord, constitueront la valeur de la couleur attribuée au PIXEL capté par le groupe de photosites. Ce type de codage est appelé "codage en couleurs vraies", ou encore "codage RGB" (codage red, green, blue) en anglais, ou "codage RVB" en français.

SYNTHESE ADDITIVE DES COULEURS:

La synthèse des couleurs à partir des trois composantes rouge, vert et bleu est appelée "Synthèse additive", car elle permet de reconstituer une couleur à partir de l'addition de 3 sources monochromatiques figurant ces trois composantes.


LES PANNEAUX DE PHOTOSITES:

Un panneau de photosites se présente donc comme une matrice rectangulaire (le plus souvent de dimensions 4/3), dont chaque élément est constitué en général par un groupe de 4 photosites, capables de capter l'intensité et la couleur d'un PIXEL de l'image. Un panneau de 8 millions de pixels contient donc, en fait 32 millions de photosites.



II.3.4.LE SYSTEME STABILISATEUR D'IMAGES:


Ce système utilise les capteurs numérique pour détecter des mouvements pendant la prise de vue et recadrer rapidement l'image si ceux-ci sont considéres comme parasites. Ce système permet surtout de limiter les effets des tremblements qu'il est difficile d'éviter lors de prises de vues animées.

II.3.5.L'INFORMATIQUE EMBARQUEE


L'informatique embarquée supporte trois fonctionnalités principales:
  1. Le contrôle et la commande du système optique de formation des images.
  2. L'acquisition des données photographiques sous forme d'informations digitales.
  3. La communication avec d'autres systèmes (ordinateur, imprimante, etc.).
Dans le cadre de ce cours, nous n'aborderons que les deux premières.


D'autre part, l'informatique embarquée offre aux utilisateurs plusieurs modes d'utilisation. Les plus répandus sont les suivants:
  • Le MODE AUTOMATIQUE, dans lequel l'informatique prend en charge la presque totalité des réglages: l'utilisateur se contente de cadrer et de déclencher. Ceci implique tout de même qu'il détermine l'angle de champ, c'est à dire la focale à utiliser.
  • Le MODE "SCENES": Dans ce mode, l'utilisateur peut choisir dans une liste de scènes préprogrammées celle qui lui semble le mieux convenir à la prise de vue qu'il veut effectuer. Il aura par exemple à choisir entre un portrait, une scène de nuit, un paysage, etc. L'informatique tiendra compte de cette indication pour déterminer ces réglages. A part ce choix, tout se déroule comme en automatique.
  • Les MODES SEMI-AUTOMATIQUES: Dans ces modes, l'utilisateur détermine manuellement un paramètre, l'informatique de bord se chargeant de déterminer les autres paramètres en fonction de celui qui a été choisi manuellement. Nous pourrons ainsi avoir:
    - Le mode "PRIORITE A L'OUVERTURE" où l'utilisateur règlera manuellement l'ouverture, l'informatique adaptant la sensibilité et la vitesse d'obturation en fonction de son choix.
    - Le mode "PRIORITE A LA VITESSE" où l'utilisateur règlera manuellement la vitesse d'obturation, l'informatique adaptant la sensibilité et l'ouverture en fonction de son choix.
    - etc.
  • Le MODE MANUEL, dans lequel l'utilisateur peut choisir manuellement tous les paramètres.


II.4.PROBLEMATIQUE A RESOUDRE:


Pour pouvoir prendre une vue d'un sujet photographique, quelle que soit la nature de celui-ci (portrait, paysage, nature morte, vue animalière, etc...), il faut former sur la SURFACE PHOTO-SENSIBLE de l'appareil photographique (pellicule argentique ou panneau de diodes photosensibles), une IMAGE de ce sujet. Cette image doit, bien sûr, correspondre aux intentions du photographe. Pour cela, elle doit satisfaire un certain nombre de critères techniques (indépendamment des critères artistiques que nous n'aborderons pas ici):
  1. Tout d'abord, elle doit représenter la totalité du sujet et de l'arrière plan que l'on désire lui adjoindre, et autant que possible, se limiter à ces éléments: c'est la fonction du CADRAGE. Le cadrage est, bien sûr, fonction de l'AXE DE VISEE(déterminé par le photographe au moyen du VISEUR), et de la distance de l'appareil par rapport au sujet, mais aussi de l'ANGLE DE CHAMP. Celui-ci est déterminé par la DISTANCE FOCALE de l'objectif.

  2. En second lieu, l'image doit pouvoir présenter une netteté suffisante, au moins en ce qui concerne le rendu des détails importants du sujet: c'est la fonction de la MISE AU POINT. La mise au point peut être réalisée automatiquement par l'appareil: dans ce cas, la netteté est obtenue sur le détail du sujet se situant dans l'axe de visée de l'objectif, ce qui ne correspond pas forcément au cadrage voulu par le photographe (celui-ci peut, par exemple, vouloir positionner le sujet dans un angle de la photo). De ce fait, il est utile de connaître les moyens qui permettent d'influer sur cette mise au point.

  3. Nous savons qu'il est difficile d'obtenir une égale netteté pour des détails situés à des distances différentes par rapport à l'appareil (sujet principal et arrière plan). D'autre part, les exigences de netteté du photographe peuvent varier en fonction du type de sujet traité (dans le cas d'un portrait, par exemple, on peut rechercher la netteté pour le sujet et un flou en arrière plan). Il importe donc de pouvoir agir sur la longueur de l'intervalle des distances pour lesquelles on désire obtenir une image nette, c'est à dire sur la PROFONDEUR DE CHAMP. La profondeur de champ et déterminée par la DISTANCE FOCALE de l'objectif, mais aussi par l'OUVERTURE de celui-ci.

  4. Le contrôle de l'intensité lumineuse de l'image en ses différents point est également un enjeu primordial, puisqu'il détermine en partie la LUMINOSITE et le CONTRASTE de la photographie. Les paramètres intervenant sur ces caractéristiques sont (en dehors de la luminosité ambiante):
    - L'OUVERTURE, qui détermine la quantité de lumière entrant dans l'objectif.
    - La VITESSE D'OBTURATION, qui contrôle la durée d'exposition de la surface photosensible.
    - La SENSIBILITE de cette surface, qui détermine sa réaction à une intensité lumineuse donnée.


II.5:CONSEQUENCES:


Ce rapide exposé nous permet de mettre en évidence la difficulté majeure de la prise de vue: en fait, chaque paramètre physique de l'appareil photographique (distance focale, ouverture, sensibilité, vitesse d'obturation) interviendra dans la détermination de plusieurs caractéristiques de la photographie (luminosité, contraste, netteté, etc...). De ce fait, les réglages d'une prise de vue seront toujours le résultat de compromis entre des exigences contradictoires.


EXEMPLE:
Si l'on désire obtenir une grande profondeur de champ, un moyen est de réduire l'ouverture de l'objectif. Ceci aura pour effet secondaire de diminuer la quantité de lumière entrante. Pour obtenir tout de même une bonne luminosité sur la surface sensible, on peut soit diminuer la vitesse d'obturation, soit augmenter la sensibilité. Diminuer la vitesse d'obturation peut de pas convenir pour la photographie d'un sujet en mouvement. Augmenter la sensibilité peut dégrader la qualité de l'image en augmentant le "bruit". Il faudra donc trouver le meilleur compromis possible, ce qui nécessite une bonne connaîssance des mécanismes sous-jacents.




Retour accès cours Retour sommaire cours