Couleur de ciel

Regarder le ciel permet parfois de faire des découvertes esthétiques. Levers ou couchers de soleils, nuages étranges, lumières surréalistes, arcs-en-ciel, ou simplement un vol d’oiseaux dans un fond bleu immaculé, les occasions de s’extasier ne manquent guère. Immanquablement, on voudrait saisir son appareil photographique pour immortaliser l’instant. Cette galerie montre pêle-mêle quelques ambiances que j’ai pu à l’occasion saisir en divers endroits.

Coucher de soleil sur le lac de Neuchâtel

Image 3 parmi 36

Mais le ciel n’est pas toujours facile à photographier. Qui n’a déjà essayé de photographier ce ciel brillamment coloré avec son appareil photographique et a constaté après coup que les couleurs semblaient délavées, et très loin de l’impression que lui avait laissé le spectacle ?

Pourquoi photographier le ciel n’est pas si simple ?

Tout d’abord, rappelons que la notion de couleur n’est pas une donnée complètement objective, et que les capteurs de lumière, chimiques ou électroniques, ne sont pas normalement sensibles à la fréquence, mais à la quantité des photons frappant une unité de surface. On a donc, par défaut, une image en niveaux de gris. Pour ajouter une information de couleurs, on insère généralement, avant le capteur numérique, une série de filtres rouges, bleus et verts disposés selon un schéma déterminé appelé matrice de Bayer. Certaines variantes utilisent des capteurs à couches sensibles, mais ils sont plutôt rares dans le paysage technologique actuel. Pour la matrice de Bayer, on déduit les informations de couleur en combinant les valeurs des points de mesure adjacents, opération que l’on appelle dématriçage. Il s’agit d’une interprétation des valeurs mesurées par le capteur, et non d’une information totalement objective; une photo en couleurs est par construction une interprétation réalisée par un algorithme d’une image en niveaux de gris. Pour cette opération, un certain nombre de paramètres vont servir de base d’informations à l’algorithme, parmi lesquels la notion de ce qu’est une certaine « couleur » de référence, le blanc en l’occurrence.

Le problème est dû à une lumière dont la température de couleur est « anormale ». On retrouve sur la plupart des appareils un réglage qui permet de définir la « balance des blancs », mais les appareils modernes sont généralement à même de déterminer ce paramètre automatiquement. Sauf dans le cas où la lumière est « biaisée », comme c’est le cas très tôt le matin ou très tard le soir, au lever et au coucher du soleil; le soleil bas sur l’horizon voit sa lumière filtrée par l’atmosphère plus épaisse, et le filtre passe-bas constitué par les couches atmosphériques privilégie les basses fréquences, donc le rouge et le jaune. Par temps très clair ou très sombre, l’effet n’est pas très significatif, mais par temps intermédiaire (nuageux), le spectre de lumière peut se trouver très biaisé vers le rouge (déficit de bleu), ce qui tend à perturber l’algorithme de définition automatique de la balance de blancs ; malheureusement, c’est exactement ce genre de lumière qui produit les effets de ciel les plus spectaculaires !

L’algorithme va tenter de corriger le déficit de bleu, ce qui aura pour effet de délaver les rouges et les oranges; résultat, le magnifique coucher de soleil flamboyant de vos vacances dans la baie d’Along est un ciel bleu vaguement orangé dans le lointain !

Comment faire ?

Il y a plusieurs manières de procéder, mais aucune n’est « automatique ». La première est de définir soi-même ce qui est blanc. Une carte de visite à dos blanc suffit : on la photographie dans la lumière qui baigne le sujet que l’on désire immortaliser, et on « explique » à son appareil que ceci est du blanc. La procédure exacte est à extraire du mode d’emploi de votre appareil, et peut s’avérer moins immédiate que l’on désirerait. L’inconvénient du procédé, dans le cas qui nous intéresse, c’est que la lumière qui baigne le photographe n’est pas la même que celle qui baigne le sujet (le ciel), et que la méthode risque d’échouer, voire de faire pire que l’algorithme.

Une autre méthode est de « bidouiller » l’image après coup, dans un logiciel spécialisé, en poussant la saturation, la vibrance et autres paramètres jusqu’à obtenir un effet qui ressemble au ressenti éprouvé lors de la prise de vues. D’aucuns diront que ce n’est plus de la photo : ce n’est pas un problème qui me préoccupe en l’occurrence. Le principal problème, toutefois, de cette méthode, est que l’on part d’une image en format JPEG, qui est une interprétation de l’image acquise par le capteur, interprétation que l’on modifie a posteriori; c’est donc effectivement un bidouillage. On peut grandement améliorer le procédé en utilisant une image brute, en format RAW, si toutefois ce format est disponible; on travaille alors sur l’image non interprétée telle que saisie par le capteur. Dans ce cas, le bidouillage correspond à l’interprétation de l’acquisition du capteur, exactement ce que réalise votre appareil photo lorsqu’il génère une image JPEG; mais là, on le fait sur un ordinateur externe, avec la possibilité d’agir de manière plus flexible sur les paramètres de fonctionnement de l’algorithme.

Une troisième méthode, plus complexe, mais généralement plus puissante, est d’utiliser les fonctions de « bracketing d’exposition » de votre appareil de prise de vues. On peut le faire en JPEG ou en format natif (RAW) mais la deuxième option est bien sûr préférable, pour les raisons explicitées au paragraphe précédent. Il s’agit de prendre plusieurs images identiques avec des expositions différentes, puis de les combiner en une seule à dynamique étendue (eXtended Dynamic Range ou High Dynamic Range). En plus clair, si une image classique est codée généralement en JPEG avec compression, à raison de 8 bit par couleur ou 32 (8*3) par pixel au maximum, une image HDR n’est pas comprimée, et codée sur 12, 14 ou 16 bit par couleur, pour un total allant jusqu’à 64 bit par pixel. Une image de 20 Mpixels en HDR non compressé utilise donc très logiquement un espace de stockage de 160 MByte, sans compter la place utilisée par les N images qui servent à fabriquer par combinaison l’image HDR.

Une image HDR n’est par elle-même pas exploitable, car l’œil humain ne peut discerner autant de nuances de teintes, et aucun écran ne pourrait d’ailleurs représenter des nuances aussi ténues. Mais la résolution étendue autorise des interprétations différentes, beaucoup plus flexibles, de l’original, et dont certains peuvent avoir tendance à utiliser de manière inappropriée. Et ce sont ces possibilités d’interprétation qui vont nous permettre de générer une image qui corresponde au mieux à l’impression que nous avait laissé le spectacle ayant conduit à la prise de vues.

Les outils permettant ces opérations sont assez nombreux; votre outil de traitement préféré peut sans doute y parvenir; de mon côté je m’appuie sur les logiciels de DXO.