Comment l'œil humain comparer pour caméras modernes et les lentilles?
Un but dans la plupart des photographies est de présenter une scène qui ressemble à ce qu'une personne qui était là à ce moment-là aurait vu. Même en travaillant intentionnellement en dehors de cela, la vision humaine est la ligne de base de facto.
Donc, il semble utile de savoir quelque chose sur la façon dont l'œil se compare à notre technologie de caméra. Laissant de côté les questions de psychologie, de reconnaissance des formes et de perception des couleurs autant que possible (parce que c'est une question distincte!), comment l'œil humain comparer à un appareil moderne et de l'objectif?
Quelle est la résolution efficace? Champ de vision? Ouverture maximale (et minimale)? Équivalence ISO? Plage dynamique? Avons-nous quelque chose qui équivaut à la vitesse d'obturation?
Quelles structures sont directement analogues aux parties d'une caméra et d'un objectif (la pupille et l'iris, par exemple), et quelles caractéristiques sont uniquement humaines (ou trouvées dans les caméras mais pas dans la biologie)?
L'œil humain vraiment suce par rapport aux objectifs de caméra modernes.
Le système visuel humain, d'autre part, surpasse de loin tout système de caméra moderne (Objectif, Capteur, firmware).
L'œil humain n'est aiguisé qu'au centre. En fait, il n'est pointu que dans un très, très petit endroit connu sous le nom de fovea, qui est un spot dont le diamètre est inférieur à un pour cent de notre angle de vue total. Nous avons donc une douceur de coin sérieuse en cours.
Le cerveau humain est capable de corriger cela, cependant. Il demande à l'Œil de faire des mouvements très rapides tout autour d'une scène afin que la partie tranchante du milieu fléchisse. Le cerveau a alors une stabilisation de l'image dans le corps assez impressionnante, car il prend tous ces mouvements rapides et les recoupe pour créer une scène nette-Eh bien, au moins tous les morceaux sur lesquels l'œil a atterri en dardant seront nets.
L'œil humain est très sensible à la lumière, mais à faible luminosité, aucune information de couleur n'est disponible. De plus, la partie pointue du centre (la fovéa) est moins sensible à la lumière.
Techniquement, c'est parce que l'œil a des photosites séparés appelés cônes pour les trois couleurs (rouge, vert, bleu), et un autre type de photosite différent appelé tiges qui ne capture que le noir et le blanc, mais est beaucoup plus efficace.
Le cerveau suture tout cela ensemble pour créer une excellente image en couleur pendant la journée, mais même quand il fait vraiment, vraiment sombre, il arrive avec une image douce et incolore faite par toutes les tiges.
L'œil n'a qu'un seul élément de lentille et il produit une aberration chromatique terrible sous la forme de franges violettes.
En fait, cette frange est dans les très courtes longueurs d'onde de la lumière. Le système visuel humain est le moins sensible à ces bleus et violettes. En plus de cela, il est capable de corriger cette frange qui existe de plusieurs façons. Premièrement, parce que le système de vision humaine n'est pointu qu'au milieu, et c'est là qu'il y a le moins d'aberration chromatique. Et deuxièmement, parce que notre résolution de couleur est (en dehors de la fovéa) beaucoup plus faible que notre résolution de luminosité, et le cerveau n'a pas tendance à utiliser le bleu pour déterminer la luminosité.
Nous pouvons voir en trois dimensions. C'est en partie parce que nous avons deux yeux, et le cerveau peut faire des calculs étonnants relatifs à la convergence entre eux. Mais c'est aussi plus avancé que cela; en plus de "l'effet 3D" que vous obtenez de la vision stéréo, le cerveau peut également reconstruire des scènes en trois dimensions même en regardant une photo en deux dimensions de la scène. C'est parce qu'il comprend des indices tels que l'occlusion, les ombres, la perspective et les indices de taille et utilise tout cela pour assembler la scène comme un espace 3D. Lorsque nous regardons une photo d'un long couloir, nous pouvons voir que le couloir s'étend loin de nous même si nous n'avons pas de vision stéréo, parce que le cerveau comprend la perspective.
(Avec beaucoup d'aide de la Article de Wikipedia)
Nos yeux sont un système de lentilles 2, le premier étant notre œil externe, et le second étant une lentille juste à l'intérieur de notre œil. Nos yeux ont une focale fixe, d'environ 22-24 mm. nous avons une résolution nettement plus élevée près du centre que sur les bords. La résolution varie considérablement en fonction de l'endroit dans l'image que vous regardez, mais elle est d'environ 1,2 minute d'Arc/paire de lignes dans la région centrale. Nous avons environ 6-7 millions de capteurs, nous avons donc 6-7 mégapixels, mais ils sont quelque peu différents. Le modèle des détecteurs de couleur n'est pas très uniforme, il y a différentes capacités de détection de couleur dans le centre par rapport à la vision périphérique. Le champ de vision est d'environ 90 degrés du centre.
Un point intéressant est que l'œil humain ne forme jamais un "instantané" complet, mais est plus un système continu. Il peut être très difficile de le dire, parce que notre cerveau est très bon pour corriger, mais notre système est plus d'une approche de seau qui fuit à la photographie, un peu mais pas exactement similaire à un caméscope numérique.
La lentille" normale " est généralement choisie pour représenter la principale zone de mise au point humaine, expliquant ainsi leurs différences.
Les caméras ont différents types de capteurs, mais ils sont généralement répartis de manière assez uniforme autour du capteur. Le capteur est toujours plat (le capteur humain est incurvé), ce qui peut entraîner des distorsions de bord. La résolution est difficile à obtenir dans le même format que la vision humaine est donnée, et dépend quelque peu de la lentille, mais on peut dire sans risque que l'œil humain a plus de résolution au centre de sa mise au point, mais moins dans les zones périphériques.
jrista 31.01.2011 17:34
Zachary K 31.01.2011 20:38
Pixiq a un article très intéressant sur le sujet, qui vient de sortir il y a quelques jours: http://web.archive.org/web/20130102112517/http://www.pixiq.com/article/eyes-vs-cameras
Ils parlent de l'équivalence ISO, mise au point, ouverture, vitesse d'obturation, etc... Il est sujet à discussion, mais c'est toujours intéressant à lire.
L'œil lui-même est un bon morceau de technologie, mais le cerveau font la plupart du travail en assemblant les morceaux ensemble. Par exemple, nous pouvons percevoir une très grande gamme dynamique, mais cela est principalement dû au cerveau assembler les différentes régions ensemble sans nous rendre compte. Même chose pour la résolution, l'œil a une bonne résolution au centre, mais est vraiment sous-performant partout ailleurs. Le cerveau assembler les détails pour nous. Même chose pour les couleurs, nous ne percevons que les couleurs au centre, mais le cerveau nous trompe en cache informations de couleur quand ils sortent de la portée centrale.
Laissez-moi jeter un question de retour à vous: Quel est le débit et la profondeur de bits d'un disque vinyle?
Les caméras sont des dispositifs conçus pour reproduire le plus fidèlement possible l'image projetée sur leur CCD. Un œil humain est un appareil évolué dont le but est simplement d'améliorer la survie. Il est assez complexe et se comporte souvent contre-intuitivement. Ils ont très peu de similitudes:
- Structure optique pour focaliser la lumière
- Membrane réceptive pour détecter la lumière projetée
Les photorécepteurs de la rétine
L'œil lui-même n'est pas remarquable. Nous avons des millions de photorécepteurs, mais ils fournissent redondant (et ambigu en même temps! entrées de notre cerveau. Les photorécepteurs de tige sont très sensibles à la lumière (particulièrement du côté bleuâtre du spectre), et peuvent détecter a seul photon. Dans l'obscurité, ils fonctionnent assez bien dans un mode appelé vision scotopique. Comme il devient plus lumineux, comme au crépuscule, les cellules du cône commencent à se réveiller. Les cellules coniques nécessitent environ 100 photons au minimum pour détecter la lumière. À cette luminosité, les cellules de tige et les cellules de cône sont actives, dans un mode appelé vision mésopique. Les cellules de tige fournissent une petite quantité d'informations de couleur à ce moment. Comme il devient plus lumineux, les cellules de tige saturent et ne peuvent plus fonctionner comme des détecteurs de lumière. C'est ce qu'on appelle la vision photopique, et seules les cellules coniques fonctionneront.
Les matériaux biologiques sont étonnamment réfléchissants. Si rien n'était fait, la lumière qui traverse nos photorécepteurs et frappe l'arrière de l'œil se réfléchirait à un angle, créant une image déformée. Ceci est résolu par la couche finale de cellules dans la rétine qui absorbent la lumière utilisant la mélanine. Chez les animaux qui nécessitent une grande vision nocturne, cette couche est intentionnellement réfléchissant, donc les photons qui manquent de photorécepteurs ont une chance de les frapper sur le chemin du retour. C'est pourquoi les chats ont des rétines réfléchissantes!
Une autre différence entre une caméra et l'œil est l'endroit où se trouvent les capteurs. Dans une caméra, ils sont situés immédiatement dans le chemin de la lumière. Dans les yeux, tout est à l'envers. Le circuit rétinien est entre la lumière et les photorécepteurs, de sorte que les photons doivent traverser une couche de toutes sortes de cellules et de vaisseaux sanguins, avant de finalement frapper une tige ou un cône. Cela peut déformer légèrement la lumière. Heureusement, nos yeux se calibrent automatiquement, nous ne sommes donc pas coincés à regarder un monde avec des vaisseaux sanguins rouge vif qui se jettent d'avant en arrière!
Le centre de l'œil est l'endroit où toute la réception haute résolution a lieu, la périphérie devenant progressivement de moins en moins sensible aux détails et de plus en plus daltonienne (bien que plus sensible à de petites quantités de lumière et de mouvement). Notre cerveau traite de cela en déplaçant rapidement nos yeux dans un modèle très sophistiqué pour nous permettre d'obtenir le maximum de détails du monde. Une caméra est en fait similaire, mais plutôt que d'utiliser un muscle, il échantillonne chaque récepteur CCD à son tour dans un modèle de Balayage rapide. Ce balayage est beaucoup, beaucoup plus rapide que notre mouvement saccadique, mais il est également limité à un seul pixel à la fois. L'œil humain est plus lent (et le balayage n'est pas progressif et exhaustif), mais il peut en prendre beaucoup plus à la fois.
Prétraitement effectué dans la rétine
La rétine elle-même fait en fait beaucoup de prétraitement. La disposition physique des cellules est conçu pour traiter et extraire les informations les plus pertinentes.
Alors que chaque pixel d'une caméra a une cartographie 1: 1 du pixel numérique stocké (pour une image sans perte au moins), les bâtonnets et les cônes de notre rétine se comportent différemment. Un seul "pixel" est en fait un anneau de photorécepteurs appelé champ réceptif. Pour comprendre cela, une compréhension de base des circuits de la rétine est nécessaire:
Les composants principaux sont les photorécepteurs, dont chacun se connecte à une seule cellule bipolaire, qui à son tour se connecte à un ganglion qui atteint le cerveau à travers le nerf optique. Une cellule ganglionnaire reçoit l'entrée de plusieurs cellules bipolaires, dans un anneau appelé champ réceptif centre-surround. Le centre si l'anneau et l'ambiance de l'anneau se comportent comme des opposés. Lumière activant le centre exciter la cellule ganglionnaire, tandis que la lumière activant le surround inhiber il (un sur-Center, hors-surround champ). Il existe également des cellules ganglionnaires pour lesquelles cela est inversé (décentré, surround).
Cette technique améliore fortement la détection des bords et le contraste, sacrifiant l'acuité dans le processus. Cependant, le chevauchement entre les champs réceptifs (un seul photorécepteur peut servir d'entrée à plusieurs cellules ganglionnaires) permet au cerveau d'extrapoler ce qu'il voit. Cela signifie que les informations se dirigeant vers le cerveau sont déjà fortement codées, au point où une interface cerveau-ordinateur se connectant directement au nerf optique est incapable de produire tout ce que nous pouvons reconnaître. Il est codé de cette façon parce que, comme d'autres l'ont mentionné, notre cerveau offre des capacités de post-traitement étonnantes. Comme ce n'est pas directement lié à l'œil, Je ne les expliquerai pas beaucoup. Les bases sont que le cerveau détecte des lignes individuelles (bords), puis leurs longueurs, puis leur direction de mouvement, chacune dans des zones plus profondes du cortex, jusqu'à ce que tout soit mis ensemble par le voie ventrale et la voie dorsale, qui servent à traiter la couleur haute résolution et le mouvement, respectivement.
Le fovea centralis est le centre de l'œil et, comme d'autres l'ont souligné, est l'endroit où la plupart de nos acuité vient de. Il ne contient que des cellules coniques et, contrairement au reste de la rétine, il a une correspondance 1:1 avec ce que nous voyons. Un photorécepteur à cône unique se connecte à une seule cellule bipolaire qui se connecte à une seule cellule ganglionnaire.
Les spécifications de l'œil
L'œil n'est pas conçu pour être un appareil photo, il n'y a donc aucun moyen de répondre à beaucoup de ces questions d'une manière que vous pourriez aimer.
Quelle est la résolution efficace?
Dans un appareil photo, il y a une précision plutôt uniforme. La périphérie est aussi bonne que le centre, il est donc logique de mesurer une caméra par la résolution absolue. L'œil d'autre part n'est pas seulement un rectangle, mais différentes parties de l'œil voient avec une précision différente. Au lieu de mesurer la résolution, les yeux sont le plus souvent mesurés en VA. Un 20/20 VA Est moyen. Un 20/200 VA vous rend légalement aveugle. Une autre mesure est LogMAR mais c'est moins commun.
Champ de vision?
En tenant compte des deux yeux, nous avons un champ de vision horizontal de 210 degrés et un champ de vision vertical de 150 degrés. 115 degrés dans le plan horizontal sont capables de vision binoculaire. Cependant, seulement 6 degrés nous fournit une vision haute résolution.
Ouverture maximale (et minimale)?
Typiquement, la pupille a un diamètre de 4 mm. Sa portée maximale est de 2 mm (f / 8,3 à 8 mm (f/2.1). Contrairement à un appareil photo, nous ne pouvons pas contrôler manuellement l'ouverture pour ajuster des choses comme l'exposition. Un petit ganglion derrière l'œil, le ganglion ciliaire, ajuste automatiquement l'élève en fonction de la lumière ambiante.
Équivalence ISO?
Vous ne pouvez pas mesurer directement cela, car nous avons deux types de photorécepteurs, chacun avec une sensibilité différente. Au minimum, nous sommes capables de détecter un seul photon (bien que cela ne garantisse pas qu'un photon frappant notre rétine frappera une cellule de tige). De plus, nous ne gagnons rien en regardant quelque chose pendant 10 secondes, donc une exposition supplémentaire signifie peu pour nous. Par conséquent, L'ISO n'est pas une bonne mesure à cette fin.
Une estimation in-the-ballpark des astrophotographes semble être 500-1000 ISO, avec ISO lumière du jour étant aussi bas que 1. Mais encore une fois, ce n'est pas une bonne mesure à appliquer à l'œil.
Plage dynamique?
La gamme dynamique de l'œil lui-même est dynamique, car différents facteurs entrent en jeu pour la vision scotopique, mésopique et photopique. Cela semble être bien exploré dans Comment fonctionne la dynamique de l'œil humain comparer à celle des appareils photo numériques?.
Avons-nous quelque chose qui équivaut à la vitesse d'obturation?
L'œil humain ressemble plus à une caméra vidéo. Il prend tout à la fois, le traite et l'envoie au cerveau. L'équivalent le plus proche de la vitesse d'obturation (ou FPS) est le CFF, ou fréquence de Fusion Critique, également appelée taux de Fusion par scintillement. Ceci est défini comme le point de transition où une lumière intermittente de fréquence temporelle croissante se fond en une seule lumière solide. Le CFF est plus élevé dans notre périphérie (c'est pourquoi vous pouvez parfois voir le scintillement des vieilles ampoules fluorescentes uniquement si vous les regardez, indirectement), et il est plus élevé lorsqu'il est lumineux. En pleine lumière, notre système visuel a un CFF d'environ 60. Dans l'obscurité, il peut atteindre 10.
Ce n'est pas toute l'histoire cependant, car une grande partie de cela est causée par visual persistance dans le cerveau. L'œil lui-même a un CFF plus élevé (bien que je ne trouve pas de source pour le moment, il semble que je me souvienne qu'il est de l'ordre de grandeur de 100), mais notre cerveau brouille les choses pour diminuer la charge de traitement et nous donner plus de temps pour analyser un stimulus transitoire.
Essayer de comparer un appareil photo et l'œil
Les yeux et les caméras ont des objectifs complètement différents, même s'ils semblent faire superficiellement la même chose. Les caméras sont intentionnellement construites autour d'hypothèses qui facilitent certains types de mesure, alors qu'aucun plan de ce type n'est entré en jeu pour l'évolution de l'œil.
JoséNunoFerreira 31.01.2011 14:10
JoséNunoFerreira 31.01.2011 14:13
Please Read My Profile 31.01.2011 14:15
tomm89 31.01.2011 16:38
JYelton 31.01.2011 18:40
Nick 1.02.2011 12:25
Please Read My Profile 1.02.2011 13:31
jrista 1.02.2011 16:07
Nick 2.02.2011 13:05
Please Read My Profile 2.02.2011 18:34
Please Read My Profile 28.03.2011 04:28
Please Read My Profile 1.11.2011 00:38
Please Read My Profile 13.06.2012 21:44