Trois éléments sont directement responsables de la qualité technique d’une image numérique. S’il y a bien sur sur la qualité de l’optique et du capteur, il ne faut pas oublier le processus d’interprétation des données transmises par le capteur. C’est cette opération que l’on appelle le dématriçage et qui intervient dans le processus d’obtention de l’image finale. Qu’est ce qui se passe pendant cette opération ? En quoi cette opération est elle si importante ? C’est ce que je vous propose de voir aujourd’hui…

Le capteur et les photosites

Commençons par le commencement… Le capteur est conçu pour capter. Capter quoi ? les photons qui composent la lumière et qui lui parviennent via l’objectif.

Comment se passe cette opération ?

Ce qu’il faut comprendre c’est que le capteur est parsemé de petits trous, des puits à lumière. Ces trous, c’est ce que l’on appelle les photosites. Chaque photosite donnera naissance à un pixel sur l’image finale. Cela veut donc dire que si le capteur de votre APN délivre des images de 24 millions de pixels, il a donc 24 millions de photosites (dur hein ? 🙂 ).

La couleur d’un pixel est déterminée par la combinaison de trois valeurs : une première pour le rouge, une seconde pour le vert et une troisième pour le bleu. On appelle cela la synthèse additive RVB.

Le rôle du photosite est donc de compter, de mesurer la proportion de photons rouges, verts et bleus contenus dans la lumière qui lui parvient.

Malheureusement les photosites ne sont pas capables de percevoir la couleur. Seule solution : réserver certains photosites à la captation des photons rouges, d’autres aux verts et d’autres aux bleus.

Pour permettre cette captation séparée, un filtre coloré est positionné par dessus chaque photosite.

  • certains photosites ont donc un filtre qui ne laisse passer que la longueur d’onde du rouge pour les photons rouges,
  • d’autres ont un filtre qui ne laisse passer que la longueur d’onde correspondant au vert,
  • d’autres enfin ont un filtre qui ne laisse passer que la longueur d’onde correspondant au bleu.

Fonctionnement-capteur

La matrice de filtres colorés

L’agencement de ces millions de petits filtres disposés côte à côte, par dessus les photosites, abouti à ce que l’on appelle une matrice de filtres.
La matrice de Bayer
Comme vous pouvez le constater sur l’illustration ci dessus, il y a deux fois plus de filtres qui laissent passer le vert que les deux autres couleurs. Pourquoi cette différence de proportion ? Tout simplement parce que notre oeil est quasiment deux fois plus sensible à la longueur d’onde du vert qu’à celle du rouge et au bleu.

Cette matrice de filtres colorés est la plus répandue. Elle équipe l’immense majorité des capteurs intégrés dans nos APN. On l’appelle matrice de Bayer du nom de l’ingénieur de chez Kodak qu’il l’a inventé (bon sang, quand on pense à ce qu’il est advenu de cette société alors que c’est elle qui a inventé l’appareil photo numérique…).

Fuji à fait un choix technologique différent en équipant une partie des capteurs de ses appareils d’un autre type de matrice : la x-trans ou les filtres ne sont pas disposés de la même manière que sur la matrice de Bayer. Cette matrice, de par l’agencement moins répétitif de ces filtres (par rapport à celle de Bayer), permet de ne pas générer d’effet de moirage (vous savez ces petits pixels magenta et verts qui peuvent apparaître lorsque la scène photographiée comporte des motifs répétitifs).

La matrice X Trans

La matrice X Trans de Fuji

Malheureusement, l’ensemble de ces matrices souffrent d’un défaut: du fait que les filtres ne permettent pas à la 1/2 des photons verts et aux 3/4 des des photons rouges et bleus d’être captés par les photosites, comment faire pour connaître les deux valeurs manquantes permettant de déterminer la couleur pour chaque pixel ?
Dématriçage matrice de Bayer
Seule solution : calculer, déduire ces deux valeurs manquantes. C’est cette opération que l’on appelle le dématriçage…

Le dématriçage

Comme on dit souvent qu’une bonne image vaut mieux qu’un long discours, voici donc un exemple pour illustrer ce que je viens de dire.
Raw-brut
Voici donc trois images correspondant aux trois couleurs captées par les photosites.

L'image telle que vue par les photosites sensibles au rouge

L’image telle que vue par les photosites sensibles au rouge

L'image telle que vue par les photosites sensibles au vert

L’image telle que vue par les photosites sensibles au vert

L'image telle que vue par les photosites sensibles au bleu

L’image telle que vue par les photosites sensibles au bleu

On combine ces trois images, ce qui permet de visualiser les données transmises par le capteur. Voilà ce que contient réellement le fichier Raw (c’est pas top hein ?). On est encore loin d’obtenir une image…

L'image après combinaison des photosites sensibles au rouge, vert et bleu

L’image après combinaison des photosites sensibles au rouge, vert et bleu

Le fameux dématriçage, appelé aussi dérawtisation ou développement, correspond donc à une interprétation des données transmises par le capteur et traitées par le processeur de votre APN ou par votre logiciel de retouche en vue de générer une image. C’est là que l’on comprend ce qu’est réellement un fichier Raw et que ce terme prend tout son sens.

Le Raw n’est pas une image. C’est un fichier qui contient des données transmises par le capteur et non interprétées. Pour qu’il devienne une image, il faut de dématricer.

Chaque fabricant d’APN ou éditeur de logiciel de traitement Raw à donc sa propre formule mathématique, son algorithme maison pour calculer les valeurs inconnues de rouge, de vert et de bleu et qui permettront d’obtenir l’image finale en couleur.

Pour aller un peu plus loin, il faut savoir que le dématriçage ne se limite pas au seul calcul des valeurs inconnues de couleurs (j’ai simplifié au maximum la manière dont fonctionne le capteur). Ce que je peux ajouter c’est que, une fois les photons capturés, il sont convertis en une impulsion électrique qui est envoyée au processeur de votre APN. Du coup, il faut aussi faire le tri des émissions électriques parasites générées par l’électronique interne de l’appareil (quel bordel ça doit être de travailler sur ces algorithmes…)

Tout ceci pour vous dire qu’il existe une infinité de possibilités d’interprétation des données contenues dans un fichier Raw. Vu qu’il existe des milliers de fichiers Raw différents (un par appareil), je vous laisse imaginer le nombre colossal d’algorithmes de développement qui existent pour interpréter ces types de fichiers. Ces algorithmes sont sans cesse améliorés, optimisés, pour répondre aux progrès technologiques.

Ces algorithmes, c’est ce qui fait la valeur ajoutée des industriels. C’est comme la recette du Coca Cola ou du kouign aman pur beurre de Douarnenez (miam !!). C’est top secret ! C’est ce qui caractérise la différence de rendu d’image entre les photos issues des différentes marques d’appareils ou développées avec différents logiciels.

Par exemple, Nikon ne fabrique pas ces propres capteurs et fait appel à Sony pour la fourniture de ces pièces. Pour autant, le rendu d’image est différent. Si ces deux marques mettent à priori les mêmes yeux (le capteur) dans leurs boitiers, ils n’ont en tous cas, pas le même cerveau (les algorithmes). C’est particulièrement visible sur les photos prises à très haute sensibilité ou la gestion du bruit et l’accentuation sont souvent gérées différemment entre les appareils.

Par contre, une image JPEG, qu’elle soit ouverte avec Photoshop, Photofiltre, ou tout autre logiciel, afffichée sur votre smartphone ou votre télévision aura toujours le même rendu. Tout simplement parce que les couleurs sont déjà codées et inscrites dans le fichier. Le JPEG, c’est une image, un fichier prêt à l’affichage. Le Raw est, comme je l’ai dit plus haut un fichier à interpréter. Voilà la véritable différence entre ces deux formats.

Je ne vais bien sur pas me risquer à expliquer dans le détail le processus de dématriçage. J’en suis bien entendu tout à fait incapable, et puis bon, est-ce vraiment utile ?

Conclusion

Voilà pourquoi de nombreux photographes ont fait le choix du format Raw à la prise de vue. Ils veulent pouvoir récupérer un fichier brut non interprété. Ce système offre de nombreux avantages :

  • Ce type de fichier est non compressé et possède un potentiel de retouche très important.
  • Il permet de s’affranchir du réglage de la balance des blancs à la prise de vue et de la modifier si besoin en post traitement.
  • Il permet de choisir l’espace couleur dans lequel on veut travailler.
  • Il permet enfin de pouvoir bénéficier des futurs algorithmes de développement proposés par les éditeurs de logiciels. Par exemple, Lightroom en est à son troisième processus de développement (2003, 2010 et 2012). A chaque fois, la qualité des images s’est bien entendu améliorée. D’ailleurs, à ce titre, peut-être que la future version de ce logiciel intégrera un nouveau processus de développement ?

Ces autres articles parlent aussi de : Balance des blancs Capteur Format raw

20 Partages
Partagez16
Tweetez
Enregistrer4
Partagez4