Quel est l'ordre optimal des étapes de post-traitement?
Je sais qu'il est préférable de faire autant de post-traitement avant de convertir à partir de RAW, mais dans les cas où ce n'est pas possible - quel est l'ordre optimal des étapes de post-traitement (comme la suppression du bruit, la suppression des taches de poussière, la correction des couleurs, la correction de la luminosité/contraste, le redressement, la suppression
Quand je dis ordre optimal, je veux dire l'ordre qui entraînera le moins de bandes, de coupures, de halos et d'autres artefacts numériques. Je voudrais également comprendre les raisons derrière une commande particulière. Est-ce différent pour les impressions et la sortie web?
Plusieurs des opérations que vous décrivez manipulent les données de l'image de telle sorte que les informations sont perdues ou transformées. Pour la plupart, Je ne pense pas que cela compte avec la photographie traditionnelle (c'est-à-dire, les tirages et autres), mais cela compte définitivement lorsque chaque pixel est considéré comme une mesure du nombre de photons.
Ce à quoi je pense quand je fais des opérations, c'est la propagation de l'erreur. Une erreur peut exister au niveau d'un seul pixel, au niveau spatial et au niveau de couleur.
Le bruit est une erreur de capteur à un seul pixel pendant le processus de détection, introduite soit par des photons errants, soit par des effets quantiques (la traduction d'un photon en électron pour le comptage est un événement probabiliste au niveau quantique), et la conversion analogique-numérique. Si les opérations suivantes vont faire des choses telles que étirer le contraste (égalisation de l'histogramme) ou souligner les régions plus sombres (lumière de remplissage), alors vous voudriez réduire le bruit avant de les faire.
Pour un exemple complètement réduit de ce que je veux dire, prenez une image de champ sombre (image avec le capuchon d'objectif allumé). Le résultat est le bruit. Vous pouvez contraster améliorer cela, ou ce que vous voulez, mais c'est toujours du bruit. Un algorithme de réduction de bruit parfait devrait tout Supprimer, de sorte qu'aucun contraste ne peut être trouvé pour améliorer les étapes ultérieures.
L'erreur spatiale peut être introduite de plusieurs façons. Lorsque vous faites pivoter une image, vous introduisez des erreurs spatiales. Si vous pensez qu'il y a une image "vraie" (dans le sens idéal platonicien), l'appareil photo enregistre une version numérique de cela. Même lorsque vous utilisez un film the les grains/cristaux de film sont de taille finie, et un certain échantillonnage de la "vraie" image se produira. Lorsque vous faites pivoter une image numérique, vous introduisez des effets d'aliasing. Les bords les plus tranchants seront légèrement émoussés (sauf si vous tournez à 90 degrés, auquel cas l'échantillonnage de la grille tient toujours). Pour voir ce que je veux dire, prenez une image et faites-la pivoter par incréments de 1 degré. Le tranchant sera maintenant (légèrement) flou à cause de l'échantillonnage nécessaire pour faire de petites rotations.
L'échantillonnage de Bayer peut être juste une erreur d'échantillonnage spatial avec laquelle nous devons vivre. C'est l'un des grands tirages (peut-être le seul vrai tirage) du capteur Foveon. Chaque pixel mesure la couleur à cet emplacement, plutôt que d'obtenir les autres couleurs des pixels voisins. J'ai un dp2, et je dois dire, les couleurs sont assez superbes par rapport à mon d300. La facilité d'utilisation, pas tellement.
Les artefacts de Compression sont un autre exemple d'erreur spatiale. Compressez une image plusieurs fois (ouvrez un jpg, enregistrez-le à un emplacement différent, fermez, rouvrez, rincez, répétez) et vous verrez ce que je veux dire ici, en particulier à 75% de compression.
Des erreurs d'espace colorimétrique sont introduites lorsque vous passez d'un espace colorimétrique à l'autre. Si vous prenez un png (losslesss) et le déplacez d'un espace colorimétrique à un autre, enregistrez-le. Ensuite, revenez à l'espace colorimétrique d'origine, vous verrez des différences subtiles où les couleurs d'un espace ne correspondaient pas à l'autre.
Lorsque je traite des photos, ma commande est généralement la suivante:
- réduction du bruit
- amélioration du contraste, expositions, etc.
- rotation
- espace de couleur
- compression finale à l'image de sortie.
Et j'ai toujours enregistrer le raw.
Karel 10.08.2010 18:05
mmr 10.08.2010 18:28
Karel 12.08.2010 13:11
Karel 12.08.2010 13:31
Comme toujours, il dépend. De préférence, vous utiliseriez un éditeur non destructif, Lightroom en est un exemple. Dans ce cas, la commande ne fait pas beaucoup (tout?) différence.
D'autre part, si vous utilisez un éditeur qui effectue les modifications au fur et à mesure, Chaque modification est permanente et vous aurez une perte de qualité.
Dans ces situations, j'ai tendance à faire les plus petits changements en premier et à travailler jusqu'à des changements plus importants.
Aller avec cet ordre je dirais probablement:
- espace de couleur
- spot/enlèvement de la poussière
- correction des couleurs
- modifications sélectives
- redressage ou autres modifications d'image large
- redimensionner
- aiguisage
Cela étant dit, les seules choses dont je m'inquiète sont les 2 derniers, redimensionner à la fin, puis après le redimensionnement, affiner.
Karel 10.08.2010 14:21
chills42 10.08.2010 14:25
jrista 10.08.2010 17:42
Jerry Coffin 10.08.2010 18:51
FRR 29.12.2019 14:52
Je pense que, dans la pratique, sont très, très peu d'opérations où l'ordre fait une différence particulière. Il peut y en avoir où vous modifiez une plus petite quantité de données au total, mais la préoccupation concernant l'édition destructive est largement exagérée. Je suis revenu en arrière et n'ai refait des photos que très rarement pour quelques favoris particuliers; si j'ai fait ce que je perçois plus tard comme une erreur, je préfère faire des ajustements à l'avenir.
Je pense que plutôt que de penser en termes d'ordre, il est plus utile de penser en termes d'interaction des groupes d'opérations.
- (Si vous vous fiez d'abord à la conversion RAW, comme Photoshop le fait) ajustements de couleur/tonalité et de balance des blancs "assez proches", appliqués en lot. Des modifications mineures sont très bien à faire plus tard. Le gros conseil ici est d'utiliser un réglage WB manuel lorsque c'est faisable, car cela facilite beaucoup le traitement par lots.
- garder / jeter, recadrer et redresser, poussière, distorsion, balance des blancs.
- ce sont les choses de base que je fais pour obtenir l'image avec laquelle je travaille. Peu importe s'ils sont "destructeurs" ou Non; Je ne vais jamais les refaire.
- Tonalité: Couleur, luminosité, etc. Beaucoup de commentaires perceptifs dans ces étapes, donc pas d'ordre particulier pour moi.
- Exporter, je travaille généralement à partir de préréglages en fonction de la destination:
- profondeur de bit, espace colorimétrique
- (rarement) réajuster la tonalité
- redimensionner
- aiguisage il sera le dernier
Ma copie d'archive est généralement après l'étape 3, mais parfois après l'étape 2 Si 3 semble particulièrement expérimental ou extrême.
Karel 12.08.2010 13:15
(c'est plus un commentaire qu'une réponse). L'ordre fait une différence, que vous fassiez une édition "non destructive" ou non.
Photoshop est tout aussi" aucun destructeur " que tout autre éditeur selon la façon dont vous l'utilisez. Vous ne modifiez pas le fichier raw d'origine.
Le point principal est qu'il est plus facile d'apporter quelques modifications avant de passer des valeurs linéaires capturées par le capteur aux valeurs de log-réponse utilisées pour conduire votre œil. C'est pourquoi beaucoup de traitement au cours des dernières années a déménagé dans le convertisseur raw: il est préférable de le faire avant de le mapper à la réponse log de l'œil.
Le convertisseur raw est le meilleur endroit pour la plupart des changements de "développement" car c'est avant que la correction gamma ne soit appliquée. Essayez d'ajuster la balance des couleurs avant et après la conversion raw pour avoir une idée de la différence. Bien sûr, je n'ai aucune idée de l'ordre dans lequel le convertisseur raw supprime les taches et réduit le bruit (bien que je puisse deviner), mais ce n'est pas particulièrement pertinent: c'est une étape dans le traitement.
À l'époque, les gens s'inquiétaient de faire la plupart des travaux dans la profondeur de bits maximale, puis de convertir vers le bas pour la sortie. Il n'y a rien de mal à ce principe, mais en pratique, vous devriez être capable de faire tout ce dont vous avez besoin dans le convertisseur raw, donc c'est un point discutable.
Bien sûr, vous devez redimensionner puis affiner à cette taille, le point manqué Par peut-être 95% des personnes qui affichent des images sur le web.
Il est différent pour les impressions et la sortie web. Pour la sortie web, vous devez savoir comment votre moniteur se rapporte aux autres: est-il net ou non, et les couleurs sont-elles correctes? Une fois que vous savez, vous saurez combien aiguiser. La plupart du temps, vous constaterez que les imprimantes sont beaucoup plus douces, alors vous voudrez généralement sur-aiguiser sur votre écran afin que les impressions sont sur place. La quantité de sur-netteté que vous devrez trouver par essais et erreurs, car les imprimantes varient. Parce que vous ne modifiez pas de manière destructive, vous pouvez affiner pour des périphériques de sortie spécifiques sans vous soucier de vos originaux.