FR2843809A1 - Systeme de mise au point automatique avec correction de sensibilite - Google Patents
Systeme de mise au point automatique avec correction de sensibilite Download PDFInfo
- Publication number
- FR2843809A1 FR2843809A1 FR0310096A FR0310096A FR2843809A1 FR 2843809 A1 FR2843809 A1 FR 2843809A1 FR 0310096 A FR0310096 A FR 0310096A FR 0310096 A FR0310096 A FR 0310096A FR 2843809 A1 FR2843809 A1 FR 2843809A1
- Authority
- FR
- France
- Prior art keywords
- focus
- image
- image reading
- evaluation value
- lens
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/67—Focus control based on electronic image sensor signals
- H04N23/673—Focus control based on electronic image sensor signals based on contrast or high frequency components of image signals, e.g. hill climbing method
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/65—Control of camera operation in relation to power supply
- H04N23/651—Control of camera operation in relation to power supply for reducing power consumption by affecting camera operations, e.g. sleep mode, hibernation mode or power off of selective parts of the camera
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Automatic Focus Adjustment (AREA)
- Studio Devices (AREA)
- Focusing (AREA)
Abstract
Une commande de mise au point automatique est basée sur une valeur d'évaluation de mise au point indiquant un degré de netteté d'une image obtenue depuis une pluralité de dispositifs de lecture d'image (32A, 32B) en des positions de différentes longueurs de chemin lumineux. Un dispositif (40) corrige la sensibilité de la valeur d'évaluation de mise au point obtenue à partir de chacun des dispositifs de lecture d'image. Cette sensibilité est corrigée de façon adéquate pour exercer la commande de mise au point automatique selon une précision élevée. Cette sensibilité est corrigée automatiquement. La totalité ou une partie du traitement de signal pour la commande de mise au point automatique est réalisée par une unique partie de traitement (40) en temps partagé. L'échelle de circuit est minimisée et la consommation d'énergie ou de puissance est réduite.
Description
i
ARRIERE-PLAN DE L'INVENTION
Domaine de l'invention La présente invention concerne un système de mise au point automatique
ou auto-focus et de façon davantage particulière, un système de mise au point 5 automatique permettant de commander une mise au point d'un objectif de prise d'image au moyen d'un procédé par contraste.
Description de l'art antérieur
Une commande de mise au point automatique d'une caméra vidéo etc...
dépend de façon générale d'un procédé par contraste. Conformément au 10 procédé par contraste, des composantes hautes fréquences de signaux d'image dans une certaine plage (zone de mise au point) des signaux d'image qui sont obtenus à partir d'un dispositif de lecture d'image sont intégrées de manière à constituer une valeur d'évaluation de mise au point, et un réglage de mise au point est automatiquement réalisé de telle sorte que la valeur d'évaluation de 15 mise au point devienne maximum (maximum local). Il est ainsi possible d'obtenir la meilleure mise au point (focalisation) pour maximiser le degré de netteté (le
contraste) d'une image qui est lue par le dispositif de lecture d'image.
Ce que l'on appelle un procédé de montée de montagne est largement connu en tant que procédé d'établissement ou de réglage d'un foyer au niveau 20 d'une position de mise au point (un point maximum local de la valeur d'évaluation de mise au point). Conformément à ce procédé, une direction selon laquelle la valeur d'évaluation de mise au point augmente est déterminée en comparant les valeurs d'évaluation de mise au point en deux points différents lors du déplacement du foyer, et le foyer est déplacé suivant cette direction de telle sorte 25 que si la valeur d'évaluation de mise au point en vient à diminuer à partir d'une augmentation, le foyer soit retourné à la position avant que la valeur d'évaluation de mise au point n'ait diminué de manière à établir le foyer au point maximum
local de la valeur d'évaluation de mise au point.
Dans le cas du procédé de montée de montagne qui a été mentionné ci30 avant, on a l'inconvénient consistant en ce qu'une direction d'augmentation de la valeur d'évaluation de mise au point et de la mise au point ne peut pas être déterminée sans déplacer réellement le foyer. Par conséquent, il existe un procédé proposé selon lequel un état de foyer (foyer avant, foyer arrière ou foyer juste) d'un objectif de prise d'image peut être déterminé sans déplacer le foyer en 35 plaçant une pluralité de dispositifs de lecture d'image en des positions de différentes longueurs de chemin lumineux (voir par exemple les documents WO 02/099495 A1, WO 02/099496 A1, WO 02/099497 A1 et WO 02/099498 A1 qui étaient, à l'instant o la présente invention a été faite, non publiés et non connus publiquement). Conformément à ce procédé de détermination d'état de foyer, il est possible d'avoir une connaissance immédiate d'un état de foyer courant à partir d'une relation de grandeur entre des valeurs d'évaluation de foyer 5 courantes qui sont obtenues à partir des dispositifs de lecture d'image de manière à déterminer une direction de déplacement du foyer et la juste mise au point sans déplacer le foyer. Par conséquent, la commande de mise au point automatique qui utilise ce procédé a pour avantage le fait qu'elle permet d'établir
rapidement le foyer à la position de mise au point.
Dans le cas de l'exercice d'une commande de mise au point automatique en utilisant une pluralité de dispositifs de lecture d'image comme mentionné ciavant, il est nécessaire, afin d'améliorer la précision de la commande de mise au point automatique, de faire se correspondre des sensibilités des valeurs d'évaluation de foyer (la relation entre une lumière objet qui arrive en incidence 15 sur chaque dispositif de lecture d'image et la dimension de la valeur d'évaluation de foyer obtenue en conséquence) qui sont obtenues à partir de chacun des dispositifs de lecture d'image. Pour être davantage spécifique, la commande de mise au point automatique est exercée moyennant l'hypothèse consistant en ce que des caractéristiques des dispositifs de lecture d'image et des circuits de 20 traitement pour traiter des signaux d'image en provenance des dispositifs de lecture d'image se correspondent. Cependant, pour être précis, il y a des variations au niveau des caractéristiques des dispositifs de lecture d'image et des circuits de traitement et par conséquent, il est important, dans le but d'améliorer la précision de la commande de mise au point automatique, de réaliser une 25 correction à l'avance en ce qui concerne la sensibilité des valeurs d'évaluation de
mise au point qui sont obtenues à partir des dispositifs de lecture d'image.
Les valeurs d'évaluation de foyer peuvent être obtenues en réalisant le même processus sur les signaux d'image en provenance d'une pluralité de dispositifs de lecture d'image de détermination d'état de mise au point, de façon 30 respective. Cependant, si ce processus est réalisé en parallèle par les circuits de traitement prévus en correspondance avec les signaux d'image, des images du même instant sont obtenues à partir des dispositifs de lecture d'image et on a l'inconvénient consistant en ce qu'un clignotement d'une lampe fluorescente peut se produire et la dimension de circuit et la consommation d'énergie ou de 35 puissance sont augmentées bien qu'une information de foyer ou de mise au point en provenance d'un objet se déplaçant sur l'écran puisse être traitée selon une
précision élevée.
RESUME DE L'INVENTION
La présente invention a été réalisée en considération de ces circonstances et son objet consiste à proposer un système de mise au point automatique permettant, dans le cas de l'exercice de la commande de mise au point 5 automatique qui est basée sur les valeurs d'évaluation de mise au point qui sont obtenues à partir d'une pluralité de dispositifs de lecture d'image, de réaliser une correction adéquate en ce qui concerne la sensibilité des valeurs d'évaluation de mise au point de manière à exercer la commande de mise au point automatique
selon une précision élevée.
Un autre objet consiste à proposer le système de mise au point automatique dont une partie de traitement pour obtenir l'information de mise au point à partir des signaux d'image des dispositifs de lecture d'image est davantage rendue miniature, ce qui permet d'économiser l'énergie ou la
puissance et d'atteindre un cot faible.
Afin d'atteindre les objets qui ont été décrits ci-avant, la présente invention est orientée vers un système de mise au point automatique comprenant: une pluralité de dispositifs de lecture d'image qui lisent des images d'une lumière objet qui arrive en incidence sur un objectif de prise d'image et qui sont agencés en des positions de différentes longueurs de chemin lumineux; un dispositif de 20 génération de valeur d'évaluation de mise au point qui génère une valeur d'évaluation de mise au point indiquant un degré de netteté de l'image qui est prise par chacun des dispositifs de lecture d'image; un correcteur qui réalise une correction en termes de sensibilité de la valeur d'évaluation de mise au point qui est obtenue à partir de chacun des dispositifs de lecture d'image de telle sorte 25 que les sensibilités soient en correspondance; et un dispositif de commande de mise au point qui déplace un foyer de l'objectif de prise d'image jusqu'à une position de mise au point conformément aux valeurs d'évaluation de mise au point. Selon un aspect de la présente invention, une valeur qui est obtenue, pour 30 chaque valeur d'évaluation de mise au point obtenue à partir de chacun des dispositifs de lecture d'image, en multipliant une variation de la valeur d'évaluation de mise au point par rapport à une valeur de référence prédéterminée par un gain prédéterminé est la valeur d'évaluation de mise au point qui est utilisée pour commander le foyer/la mise au point de l'objectif de 35 prise d'image; et le correcteur réalise une correction en ce qui concerne la sensibilité en établissant la valeur de référence et le gain à des valeurs appropriées, et comprenant en outre: un dispositif d'établissement de valeur de référence qui établit en tant que valeur de référence la valeur d'évaluation de mise au point qui est obtenue à partir de chacun des dispositifs de lecture d'image dans un cas dans lequel une image ne présentant pas de contraste est prise; et un dispositif d'établissement de gain qui établit le gain de telle sorte 5 qu'une valeur maximum de la valeur d'évaluation de mise au point qui est obtenue à partir de chacun des dispositifs de lecture d'image soit en correspondance dans un cas dans lequel la mise au point de l'objectif de prise
d'image est déplacée.
De préférence, le correcteur réalise de manière automatique une 10 correction en ce qui concerne la sensibilité à au moins un instant pris parmi un instant d'activation d'un commutateur prédéterminé, un instant de mise en route
et un instant d'initialisation avant expédition.
De préférence, le correcteur stocke la valeur de référence et le gain qui sont établis par le dispositif d'établissement de valeur de référence et par le 15 dispositif d'établissement de gain en tant que données de correction dans une mémoire. De préférence, le dispositif d'établissement de valeur de référence a l'image qui ne présente pas de contraste qui est lue par chacun des dispositifs de
lecture d'image en fermant un diaphragme de l'objectif de prise d'image.
De préférence, à l'instant o le gain est établi par le dispositif d'établissement de gain, le correcteur déplace le foyer dans un état dans lequel
un zoom de l'objectif de prise d'image est établi en une position prédéterminée.
De préférence, le dispositif d'établissement de gain déplace le foyer de l'objectif de prise d'image à une vitesse élevée afin de vérifier l'existence de la 25 valeur maximum de la valeur d'évaluation de mise au point qui est obtenue à partir de chacun des dispositifs de lecture d'image puis déplace le foyer à une
vitesse faible afin de déterminer de façon précise la valeur maximum.
De préférence, le système comporte un indicateur qui indique que le
correcteur est juste en train de réaliser une correction concernant la sensibilité.
Selon la présente invention, on prévoit le correcteur qui réalise une correction concernant la sensibilité de la valeur d'évaluation de mise au point comme obtenu à partir de chacun des dispositifs de lecture d'image qui ont été décrits ci-avant de telle sorte qu'il puisse réaliser une correction adéquate en ce qui concerne la sensibilité de la valeur d'évaluation de mise au point et qu'il 35 puisse exercer la commande de mise au point automatique selon une précision élevée. Il peut également réaliser de manière automatique une correction concernant la sensibilité de la valeur d'évaluation de mise au point de manière à
éliminer un travail peu commode.
Afin d'atteindre les objets qui ont été décrits ci-avant, la présente invention est également orientée vers un système de mise au point automatique 5 comprenant: une pluralité de dispositifs de lecture d'image qui lisent des images d'une lumière objet qui arrive en incidence sur un objectif de prise d'image et qui sont agencés en des positions de différentes longueurs de chemin lumineux; un contrôleur de mise au point qui commande une mise au point de l'objectif de prise d'image conformément à un signal d'image qui est obtenu par chacun des 10 dispositifs de lecture d'image afin de réaliser une mise au point automatique; et une unique partie de traitement pour, en ce qui concerne chaque signal d'image en provenance de chacun des dispositifs de lecture d'image, réaliser la totalité ou une partie du même processus réalisé pour chaque signal d'image en temps partagé. De préférence, une image/trame AF est établie en tant qu'image pour identifier une plage sur laquelle il convient réaliser une mise au point selon un angle de vue de l'objectif de prise d'image; et la partie de traitement réalise une commutation des signaux d'image à traiter selon les signaux d'image en provenance d'un autre dispositif de lecture d'image chaque fois que la partie de 20 traitement termine au moins le traitement des signaux d'image dans l'image AF
des signaux d'image en provenance d'un dispositif de lecture d'image.
De préférence, une image AF est établie en tant qu'image pour identifier une plage sur laquelle il convient de réaliser une mise au point selon un angle de vue de l'objectif de prise d'image; et la partie de traitement réalise une 25 commutation des signaux d'image à traiter selon les signaux d'image en provenance d'un autre dispositif de lecture d'image chaque fois que la partie de traitement termine le traitement d'une partie des signaux d'image des signaux
d'image dans l'image AF en provenance d'un dispositif de lecture d'image.
De préférence, le système de mise au point automatique comprend en 30 outre: un dispositif de stockage qui stocke les signaux d'image en provenance de chacun des dispositifs de lecture d'image, dans lequel la partie de traitement réalise une lecture à partir du dispositif de stockage et traite les signaux d'image qui sont émis en sortie à partir de chaque dispositif de lecture d'image en même temps. De préférence, les signaux d'image à traiter sont commutés par référence
à un signal de synchronisation horizontale.
De préférence, un signal de synchronisation verticale des signaux d'image en provenance de chacun des dispositifs de lecture d'image est dévié pendant
une certaine période temporelle.
Selon la présente invention, la totalité ou une partie de la commande de 5 mise au point automatique utilisant la pluralité de dispositifs de lecture d'image qui sont placés aux positions de différentes longueurs de chemin lumineux est exercée par l'unique partie de traitement en temps partagé de telle sorte qu'une échelle de circuit peut être miniaturisée et que la consommation d'énergie ou de
puissance peut être réduite.
BREVE DESCRIPTION DES DESSINS
La nature de la présente invention de même que d'autres objets et avantages afférents seront expliqués dans ce qui suit par report aux dessins annexés sur lesquels des symboles ou index de référence identiques désignent les mêmes parties ou des parties similaires sur l'ensemble des figures, et parmi 15 ces dessins: la figure 1 est un schéma fonctionnel d'un système de caméra TV auquel un système de mise au point automatique selon la présente invention est appliqué; la figure 2 est un schéma qui représente un axe optique d'une lumière 20 objet qui arrive en incidence sur un dispositif de lecture d'image vidéo et l'axe optique d'une lumière objet qui arrive en incidence sur une paire de dispositifs de lecture d'image de détermination d'état de mise au point sur la même ligne droite; la figure 3 est un schéma fonctionnel qui représente une configuration 25 d'une partie de génération de valeur d'évaluation de mise au point; la figure 4 est un schéma qui représente des valeurs d'évaluation de mise au point en fonction de positions de mise au point lors de la prise d'un certain objet en considérant des positions de mise au point d'un objectif de prise d'image en tant qu'axe horizontal et les valeurs d'évaluation de mise au point en tant 30 qu'axe vertical; la figure 5 est un organigramme qui représente un flux de processus complet dans une unité centrale de traitement ou CPU; la figure 6 est un organigramme qui représente une procédure d'un processus de correction de sensibilité de valeur d'évaluation de mise au point 35 dansuneCPU; la figure 7 est un organigramme qui représente la procédure du processus de correction de sensibilité de valeur d'évaluation de mise au point dans la CPU; la figure 8 est un organigramme qui représente la procédure du processus de correction de sensibilité de valeur d'évaluation de mise au point dans la CPU; la figure 9 est un organigramme qui représente la procédure du processus de correction de sensibilité de valeur d'évaluation de mise au point dans la CPU; 5 la figure 10 est un organigramme qui représente une procédure de commande de mise au point selon la figure 5; la figure 11 est un organigramme qui représente la procédure de calcul de valeur d'évaluation de mise au point dans la CPU; la figure 12 est un organigramme qui représente une procédure d'un 10 processus AF sur la figure 10; la figure 13 est un organigramme qui représente la procédure du processus AF selon une autre forme; la figure 14 est un schéma fonctionnel qui représente une configuration d'un système de caméra TV auquel la présente invention est appliquée; la figure 15 est un schéma fonctionnel qui représente une configuration d'une partie de lecture d'image pour déterminer un état de foyer/mise au point; la figure 16 est un schéma qui représente des dispositifs de lecture d'image de détermination d'état de mise au point sur le même axe optique; la figure 17 est un schéma qui représente une configuration d'une partie 20 de traitement de signal pour déterminer l'état de mise au point; la figure 18 est un schéma qui représente un exemple d'une image AF sur un écran; la figure 19 est un schéma qui représente des valeurs d'évaluation de mise au point de chaque dispositif de lecture d'image de détermination d'état de mise 25 au point en relation avec les positions de mise au point à l'instant de la prise d'un certain objet;
la figure 20 est un schéma explicatif qui est utilisé pour la description d'un
processus de détermination d'état de mise au point au moyen de trois dispositifs de lecture d'image de détermination d'état de mise au point; la figure 21 est un schéma fonctionnel qui représente un premier mode de réalisation de la configuration de la partie de traitement de signal à laquelle la présente invention est appliquée; la figure 22 est un schéma fonctionnel qui représente un second mode de réalisation de la configuration de la partie de traitement de signal à laquelle la 35 présente invention est appliquée; la figure 23 est un schéma fonctionnel qui représente un troisième mode de réalisation de la configuration de la partie de traitement de signal à laquelle la présente invention est appliquée; et
la figure 24 est un schéma fonctionnel qui représente un quatrième mode 5 de réalisation de la configuration de la partie de traitement de signal à laquelle la présente invention est appliquée.
DESCRIPTION DETAILLEE DES MODES DE REALISATION PREFERES
Ci-après, des modes de réalisation préférés d'un système de mise au point
automatique selon la présente invention seront décrits en détail conformément 10 aux dessins annexés.
La figure 1 est un schéma fonctionnel d'un système de caméra TV auquel le système de mise au point automatique selon un mode de réalisation de la présente invention est appliqué. Comme représenté sur la figure 1, ce système de caméra TV est constitué par un appareil d'objectif 10, par un corps de caméra 15 12 etc... Le corps de caméra 12 comporte des dispositifs de lecture d'image (ciaprès appelés dispositifs de lecture d'image vidéo) pour prendre une image pour la diffusion et pour l'émission en sortie ou l'enregistrement sur un support d'enregistrement d'un signal d'image selon un format prédéterminé, des circuits
nécessaires etc... montés dessus.
L'appareil d'objectif 10 est monté de façon amovible sur le corps de caméra 12 et est essentiellement constitué par un système optique (objectif de prise d'image) et par un système de commande. Tout d'abord, afin de décrire une configuration de l'objectif de prise d'image, il comporte un objectif de mise au point (groupe de lentilles) 16, un objectif de zoom (groupe de lentilles) 18 et un 25 diaphragme 20, un objectif de relais (système optique de relais) constitué par un
objectif de relais de côté avant 22A et par un objectif de relais de côté arrière 22B. Un miroir semi-transparent 24 pour dériver une lumière objet pour déterminer un état de mise au point à partir de la lumière objet qui arrive en incidence sur l'objectif de prise d'image est placé entre l'objectif de relais de côté 30 avant 22A et l'objectif de relais de côté arrière 22B du système optique de relais.
Le miroir semi-transparent 24 est monté de manière à être incliné d'approximativement 45 par rapport à l'axe optique O de l'objectif de prise d'image de telle sorte qu'une partie de la lumière objet (volume de lumière de 1/3 par exemple) qui est passée au travers de l'objectif de relais de côté avant 22A 35 soit réfléchie dessus à angle droit en tant que lumière objet pour déterminer l'état de mise au point. La lumière objet qui est transmise au travers du miroir semitransparent 24 est émise en tant que lumière objet pour l'image depuis un côté d'extrémité arrière de l'objectif de prise d'image puis arrive en incidence sur une partie de lecture d'image 14 du corps de caméra 12. La configuration de la partie de lecture d'image 14 sera omise. La lumière objet qui arrive en incidence sur la partie de lecture d'image 14 est décomposée selon trois couleurs que sont la 5 lumière rouge, la lumière verte et la lumière bleue par un système optique de séparation de couleur par exemple et arrive en incidence sur une surface de lecture d'image vidéo de chaque couleur. Par conséquent, une image couleur pour la diffusion est prise. Une surface de mise au point P sur le dessin est en une position équivalente optiquement sur la surface de prise d'image de chaque 10 dispositif de lecture d'image vidéo comme représenté sur l'axe optique O de
l'objectif de prise d'image.
La lumière objet qui est réfléchie sur le miroir semi-transparent 24 se déplace suivant l'axe optique O' qui est vertical par rapport à l'axe optique O en tant que lumière objet pour déterminer l'état de mise au point puis arrive en 15 incidence sur l'objectif de relais 26. Elle est collectée par l'objectif de relais 26 puis elle arrive en incidence sur une partie de détermination d'état de mise au
point 28.
La partie de détermination d'état de mise au point 28 est constituée par deux prismes 30A, 30B constituant un système optique de division de lumière et 20 par une paire de dispositifs de lecture optique pour déterminer l'état de mise au point 32A, 32B (ci-après appelés dispositifs de lecture d'image de détermination
d'état de mise au point 32A, 32B).
Comme il a été décrit ci-avant, la lumière objet qui est réfléchie sur le miroir semi-transparent 24 se déplace suivant un axe optique O' et arrive en 25 incidence sur le premier prisme 30A. Elle est également divisée selon une lumière réfléchie et une lumière transmise sur une surface de miroir semitransparent M du premier prisme 30A. Sa lumière réfléchie arrive en incidence sur la surface de lecture d'image du dispositif de lecture d'image de détermination d'état de mise au point 32A sur un côté et la lumière transmise arrive en 30 incidence sur le dispositif de lecture d'image de détermination d'état de mise au point 32B sur l'autre côté. Chaque surface de lecture d'image des dispositifs de lecture d'image de détermination d'état de mise au point 32A et 32B présente le volume lumineux de 1/6 fois la lumière objet complète arrivant en incidence sur
l'objectif de prise d'image, par exemple.
La figure 2 est un schéma qui représente l'axe optique de la lumière objet qui arrive en incidence sur le dispositif de lecture d'image vidéo du corps caméra 12 et l'axe optique de la lumière objet qui arrive en incidence sur la paire de dispositifs de lecture d'image de détermination d'état de mise au point 32A, 32B sur la même ligne droite. Comme représenté sur la figure 2, la longueur de chemin lumineux de la lumière objet qui arrive en incidence sur le dispositif de lecture d'image de détermination d'état de mise au point 32A sur un côté est 5 établie de manière à être plus courte que celle de la lumière qui arrive en incidence sur le dispositif de lecture d'image de détermination d'état de mise au point 32B sur l'autre côté et la longueur de chemin lumineux de la lumière objet qui arrive en incidence sur la surface de lecture d'image (surface de mise au point P) du dispositif de lecture d'image vidéo est établie de manière à présenter 10 une longueur intermédiaire entre. Pour être davantage spécifique, les dispositifs
de la paire de dispositifs de lecture d'image de détermination d'état de mise au point 32A, 32B (leurs surfaces de lecture d'image) sont placés de manière à présenter une distance égale (d) à l'avant et à l'arrière de la surface de lecture d'image (surface de mise au point P) du dispositif de lecture d'image vidéo, de 15 façon respective.
Par conséquent, la lumière objet pour déterminer l'état de mise au point qui est dérivée par le miroir semi-transparent 24 a son image qui est saisie à la distance égale (d) à l'avant et à l'arrière de la surface de lecture d'image (surface de mise au point P) du dispositif de lecture d'image vidéo au moyen de la paire 20 de dispositifs de prise/lecture d'image de détermination d'état de mise au point 32A, 32B. Comme il sera décrit ultérieurement, les dispositifs de lecture d'image de détermination d'état de mise au point 32A, 32B obtiennent le signal d'image pour déterminer l'état de mise au point (la commande de mise au point automatique) et ce sont des CCD ou dispositifs à couplage de charge pour 25 prendre une image en noir et blanc conformément à ce mode de réalisation
puisqu'ils n'ont pas besoin de prendre une image couleur.
Afin de décrire le système de commande de l'appareil d'objectif 10 ensuite, l'objectif de mise au point 16, l'objectif de zoom 18 et le diaphragme 20 sont liés à un moteur de mise au point 42, à un moteur de zoom 46 et à un moteur de 30 diaphragme 50 comme représenté sur la figure 1 via un mécanisme de transmission de puissance (qui n'est pas représenté) , de façon respective. Si le moteur de mise au point 42 est entraîné, l'objectif de mise au point 16 se déplace suivant une direction d'axe optique pour modifier une position de mise au point (distance de prise de vue) de l'objectif de prise. Si le moteur de zoom 46 est 35 entraîné, l'objectif de zoom 18 se déplace suivant la direction d'axe optique pour modifier l'agrandissement zoom de l'objectif de prise d'image. Si le moteur de diaphragme 50 est entraîné, une lame de diaphragme du diaphragme 20 s'ouvre
et se ferme pour modifier un diamètre de diaphragme (valeur de diaphragme) .
Les moteurs 42, 46 et 50 se voient appliquer des tensions de pilotage ou d'entraînement depuis un circuit de pilotage de moteur de mise au point 44, un 5 circuit de pilotage de moteur de zoom 48 et un circuit de pilotage de moteur de diaphragme 52, de façon respective. Les circuits de pilotage 44, 48 et 52 reçoivent en application des signaux de commande en provenance d'une unité centrale de traitement ou CPU 40 qui est montée sur l'appareil d'objectif 10 via un
convertisseur numérique-analogique ou N/A 54.
Les signaux de commande qui sont émis en sortie depuis la CPU 40 représentent des valeurs de tension correspondant à des vitesses de rotation des moteurs à piloter ou entraîner, c'est-à-dire des vitesses de travail d'objets à entraîner ou piloter (l'objectif de mise au point 16, I'objectif de zoom 18 et le diaphragme 20). Si les valeurs de tension sont converties selon des signaux 15 analogiques par le convertisseur N/A 54 et sont appliquées sur les circuits de
pilotage correspondants 44, 48 et 52, les tensions sont amplifiées par lescircuits de pilotage 44, 48 et 52 et les tensions amplifiées sont appliquées en tant que tensions de pilotage sur les moteurs correspondants 42, 46 et 50. Par conséquent, les vitesses de rotation des moteurs 42, 46 et 50 sont commandées 20 par la CPU 40.
Des positions courantes de l'objectif de mise au point 16, de l'objectif de zoom 18 et du diaphragme 20 sont déterminées par un détecteur de position d'objectif de mise au point 56, par un détecteur de position d'objectif de zoom 58 et par un détecteur de position de diaphragme 60 tels que des potentiomètres, de 25 façon respective, et des signaux de détermination qui sont détermines à partir des détecteurs de position 56, 58 et 60 sont appliqués sur la CPU 40 via un
convertisseur analogique-numérique ou A/N 68.
Par conséquent, en ce qui concerne le processus de la CPU 40, il est possible, en commandant les vitesses de rotation des moteurs 42, 46 et 50 30 comme il a été décrit ci-avant, de commander les vitesses de travail de l'objectif de mise au point 16, de l'objectif de zoom 18 et du diaphragme 20 à des vitesses souhaitables. Il est également ainsi possible de commander des positions d'instauration de l'objectif de mise au point 16, de l'objectif de zoom 18 et du diaphragme 20 à des positions d'instauration souhaitables en commandant les 35 vitesses de rotation des moteurs 42, 46 et 50 tout en lisant les positions courantes de l'objectif de mise au point 16, de l'objectif de zoom 18 et du diaphragme 20 au moyen des signaux de détermination en provenance des
détecteurs de position 56, 58 et 60.
De façon générale, la mise au point et l'effet de zoom de l'objectif de prise d'image peuvent être commandés manuellement par un opérateur en connectant 5 un contrôleur tel qu'une demande de mise au point 62 et/ou qu'une demande de zoom 64 sur l'appareil d'objectif 10. Par exemple, la demande de mise au point 62 émet en sortie un signal d'instruction de mise au point (données de demande de mise au point) de la tension correspondant à une position en rotation d'un élément de fonctionnement manuel (une bague de mise au point), comme 10 appliqué sur la CPU 40 via le convertisseur A/N 68. Par exemple, en constituant la valeur des données de demande de mise au point en tant que valeur indiquant une position cible de déplacement de l'objectif de mise au point 16, la CPU 40 émet en sortie via le convertisseur N/A 54 sur le circuit de pilotage de moteur de mise au point 44 comme décrit ci-avant le signal de commande pour appliquer 15 une instruction afin de réaliser un déplacement à une vitesse de déplacement
conformément à une différence entre la position cible de déplacement et la position courante (les données de position de mise au point) comme obtenu à partir du détecteur de position d'objectif de mise au point 56. Par conséquent, l'objectif de mise au point 16 se déplace jusqu'à la position cible de déplacement 20 comme demandé en instruction par la demande de mise au point 62 et il s'arrête.
La demande de zoom 64 applique de façon générale sur la CPU 40 la tension qui correspond à une position en rotation d'un élément de fonctionnement (par exemple une bague actionnable par pouce) en tant que valeur indiquant une vitesse cible de déplacement de l'objectif de zoom 18 et la CPU 40 émet en 25 sortie sur le circuit de pilotage de moteur de zoom 48 le signal de commande pour appliquer une instruction de déplacement à cette vitesse cible de déplacement de manière à déplacer l'objectif de zoom 18 à la vitesse cible de déplacement comme demandé en instruction par la demande de zoom 64. En ce qui concerne le diaphragme 20, le corps de caméra 12 applique de façon 30 générale sur la CPU 40 le signal d'instruction pour diriger une position cible d'opération du diaphragme 20 et la CPU 40 commande la position du
diaphragme 20 de telle sorte qu'elle soit cette position cible d'opération.
En ce qui concerne la commande de mise au point de l'objectif de prise d'image, il y a une commande de mise au point manuelle ou MF qui utilise la 35 demande de mise au point 62 et une commande de mise au point automatique ou AF qui est basée sur les signaux d'image en provenance des dispositifs de lecture d'image de détermination d'état de mise au point 32A, 32B. Un commutateur AF 66 pour réaliser une commutation entre cette commande MF et cette commande AF est prévu sur l'appareil d'objectif 10 ou sur la demande de mise au point 62. Un état d'activation/désactivation du commutateur AF 66 est déterminé par la CPU 40 et la commande MF est exercée dans le cas o le 5 commutateur AF 66 est désactivé de telle sorte que, comme il a été décrit ciavant, l'objectif de mise au point 16 soit commandé sur la base du signal d'instruction de mise au point (les données de demande de mise au point) en
provenance de la demande de mise au point 62.
Dans le cas o le commutateur AF 66 est activé, la commande AF est 10 exercée. Pour être davantage spécifique, les images qui sont lues par la paire de dispositifs de lecture d'image de détermination d'état de mise au point 32A, 32B sont émises en sortie en tant que signaux d'image pour transmettre de façon séquentielle chaque valeur de pixel afférente le long d'une pluralité de lignes de balayage (des lignes horizontales) constituant un écran et sont entrées sur une 15 partie de génération de valeur d'évaluation de mise au point 70. Bien que la configuration et le processus de la partie de génération de valeur d'évaluation de mise au point 70 soient décrits ultérieurement, la partie de génération de valeur d'évaluation de mise au point 70 génère à partir de signaux d'image entrés la valeur d'évaluation de mise au point indiquant si oui ou non un contraste (un 20 degré de netteté) de chaque image saisie par les dispositifs de lecture d'image de détermination d'état de mise au point 32A, 32B est élevé ou faible de manière à appliquer les valeurs d'évaluation de mise au point générées sur la CPU 40. La valeur d'évaluation de mise au point qui est générée sur la base du signal d'image en provenance du dispositif de lecture d'image de détermination d'état 25 de mise au point 32A est appelée valeur d'évaluation de mise au point de canal A (chA) et la valeur d'évaluation de mise au point qui est générée sur la base du signal d'image en provenance du dispositif de lecture d'image de détermination d'état de mise au point 32B est appelée valeur d'évaluation de mise au point de canal B (chB). Comme il sera décrit en détail ultérieurement, la CPU 40 obtient 30 les valeurs d'évaluation de mise au point des canaux chA et chB comme obtenu à partir de la partie de génération de valeur d'évaluation de mise au point 70 et détermine l'état de mise au point (mise au point avant, mise au point arrière ou mise au point) de l'objectif de prise d'image sur la base des valeurs d'évaluation de mise au point obtenues et commande également la position de l'objectif de 35 mise au point 16 de telle sorte que l'état de mise au point de l'objectif de prise
d'image soit la mise au point.
Sur ce dessin, par exemple, une mémoire 72 est une mémoire non volatile pour stocker les données de correction mentionnées ci-après pour réaliser une correction en ce qui concerne la sensibilité de la valeur d'évaluation de mise au point etc..., un commutateur de début de correction 74 est un commutateur pour 5 diriger un début de cette correction et un indicateur 76 est un dispositif d'indication tel qu'une diode électroluminescente ou DEL pour indiquer que la
correction est juste en train d'être réalisée.
La commande AF dans le système de caméra qui est constitué comme mentionné ci-avant sera décrite en détail ci-après. Tout d'abord, la configuration 10 et le processus de la partie de génération de valeur d'évaluation de mise au point seront décrits. Comme représenté sur la figure 3, le signal d'image qui est émis en sortie depuis chacun des dispositifs de lecture d'image de détermination d'état de mise au point 32A, 32B est entré sur des filtres passe-haut (FPH) 80A, 80B de la partie de génération de valeur d'évaluation de mise au point 70. Ici, les 15 deux dispositifs de lecture d'image de détermination d'état de mise au point 32A et 32B sont des CCD pour lire l'image en noir et blanc et ainsi, le signal d'image qui est émis en sortie depuis chacun des dispositifs de lecture d'image de détermination d'état de mise au point 32A et 32B est un signal de luminance
représentant une valeur de luminance des pixels constituant chaque écran.
Les signaux d'image qui sont entrés sur les FPH 80A, 80B ont leurs composantes hautes fréquences qui sont extraites par les FPH 80A, 80B, et les signaux des composantes hautes fréquences sont ensuite convertis selon des signaux numériques par des convertisseurs analogique-numérique ou A/N 82A, 82B. Parmi les signaux numériques d'un écran (équivalent à une trame) des 25 images lues par les dispositifs de lecture d'image de détermination d'état de mise au point 32A, 32B, seulement les signaux numériques correspondant aux pixels dans une zone de mise au point prédéterminée (la partie centrale de l'écran par exemple) sont extraits par des circuits de porte 84A, 84B de telle sorte que les valeurs des signaux numériques dans une plage extraite sont additionnées par 30 des additionneurs 86A, 86B. Par conséquent, un total des valeurs de composantes hautes fréquences des signaux d'image dans la zone de mise au point est acquis. Les valeurs acquises par les additionneurs 86A, 86B sont les valeurs d'évaluation de mise au point indiquant si oui ou non le degré de netteté des images dans la zone de mise au point est élevé ou faible. Les valeurs 35 d'évaluation de mise au point qui sont acquises par l'additionneur 86A sont appliquées sur la CPU 40 en tant que valeurs d'évaluation de mise au point du canal A (chA) et les valeurs d'évaluation de mise au point qui sont acquises par l'additionneur 86B sont appliquées dessus en tant que valeurs d'évaluation de
mise au point du canal B (chB).
Divers signaux de synchronisation sont appliqués sur les dispositifs de lecture d'image de détermination d'état de mise au point 32A, 32B et sur les 5 circuits tels que les circuits de porte 84A, 84B depuis un circuit de génération de signal de synchronisation 88 comme représenté sur la figure 3, et une synchronisation du traitement du circuit est mise en oeuvre. Le circuit de génération de signal de synchronisation 88 applique sur la CPU 40 un signal de
synchronisation verticale (signal V) par trame du signal d'image.
Puis une description d'une détermination de l'état de mise au point et de la
commande afférente sur le foyer (l'objectif de mise au point 16) sera présentée sur la base des valeurs d'évaluation de mise au point. Il est possible, au moyen des valeurs d'évaluation de mise au point des canaux chA et chB, qui sont obtenues à partir de la partie de génération de valeur d'évaluation de mise au 15 point 70 comme décrit ci-avant, de déterminer l'état de mise au point courant de l'objectif de prise d'image en relation avec la surface de lecture d'image (la
surface de mise au point P) du dispositif de lecture d'image vidéo.
La figure 4 est un schéma qui représente les valeurs d'évaluation de mise au point en fonction des positions de mise au point lors de la prise d'un certain 20 objet en considérant les positions de l'objectif de mise au point 16 de l'objectif de prise d'image (les positions de mise au point) en tant qu'axe horizontal et les valeurs d'évaluation de mise au point en tant qu'axe vertical. Une courbe C qui est représentée au moyen d'une ligne en pointillés sur le dessin représente les valeurs d'évaluation de mise au point en relation avec les positions de mise au 25 point moyennant l'hypothèse consistant en ce que les valeurs d'évaluation de mise au point ont été acquises au moyen des signaux d'image en provenance des dispositifs de prise d'image vidéo (ou les dispositifs de prise d'image placés en des positions couplées aux dispositifs de prise d'image vidéo). Des courbes A et B représentées en trait plein sur le dessin représentent les valeurs d'évaluation 30 de mise au point des canaux chA et chB comme obtenu respectivement à partir des dispositifs de lecture d'image de détermination d'état de mise au point 32A, 32B, en relation avec les positions de mise au point. Sur la figure 4, une position F3 au niveau de laquelle la valeur d'évaluation de mise au point de la courbe C
devient maximum (maximum local) est la position de mise au point.
Dans le cas o la position de mise au point de l'objectif de prise d'image est établie en F1 sur la figure 4, la valeur d'évaluation de mise au point VA1 du canal chA devient la valeur qui correspond à la position F1 de la courbe A et la
valeur d'évaluation de mise au point VB1 du canal chB devient la valeur qui correspond à la positon F1 de la courbe B. Dans ce cas, la valeur d'évaluation de mise au point VA, du canal chA devient supérieure à la valeur d'évaluation de mise au point VB1 du canal chB, ce qui démontre que la position de mise au point 5 est établie sur un côté plus proche que la position de mise au point (F3), c'est-àdire un état de mise au point avant.
Dans le cas o la position de mise au point de l'objectif de prise d'image est établie en F2 sur la figure 4, la valeur d'évaluation de mise au point VA2 du canal chA devient la valeur qui correspond à la position F2 de la courbe A et la 10 valeur d'évaluation de mise au point VB2 du canal chB devient la valeur qui
correspond à la position F2 de la courbe B. Dans ce cas, la valeur d'évaluation de mise au point VA2 du canal chA devient inférieure à la valeur d'évaluation de mise au point VB2 du canal chB, ce qui démontre que la position de mise au point est établie sur un côté davantage infini que la position de mise au point (F3) 15 c'est-à-dire un état de mise au point arrière.
A l'opposé de cela, dans le cas o la position de mise au point de l'objectif de prise d'image est établie en F3, c'est-à-dire la position de mise au point, la valeur d'évaluation de mise au point VA3 du canal chA devient la valeur correspondant à la position F3 de la courbe A et la valeur d'évaluation de mise au 20 point VB3 du canal chB devient la valeur qui correspond à la position F3 de la courbe B. Dans ce cas, la valeur d'évaluation de mise au point VA3 du canal chA devient égale à la valeur d'évaluation de mise au point VB3 du canal chB, ce qui démontre que la position de mise au point est établie à la position de mise au
point (F3).
Par conséquent, il est possible, au moyen des valeurs d'évaluation de mise au point des canaux chA et chB, comme obtenu à partir de la partie de génération de valeur d'évaluation de mise au point 70, de déterminer si l'état de mise au point courant de l'objectif de prise d'image est la mise au point avant, la
mise au point arrière ou la mise au point.
Par conséquent, il est possible de déplacer l'objectif de mise au point 16 jusqu'à la position de mise au point en commandant la position de l'objectif de mise au point 16 sur la base des valeurs d'évaluation de mise au point des canaux chA et chB comme obtenu à partir de la partie de génération de valeur d'évaluation de mise au point 70. Pour être davantage spécifique, dans le cas o 35 les valeurs d'évaluation de mise au point de chA et chB sont dans l'état d'être déterminées en tant que mise au point avant, I'objectif de mise au point 16 est déplacé suivant la direction d'infini. Dans le cas o elles sont dans l'état d'être déterminées en tant que mise au point arrière, il est déplacé suivant la direction de proximité. Dans le cas o elles sont dans l'état d'être déterminées en tant que mise au point, I'objectif de mise au point 16 peut être déplacé jusqu'à la position
de mise au point en l'arrêtant à cette position.
Le processus de la CPU 40 qui correspond à la description qui a été
présentée ci-avant sera décrit de façon concrète comme suit. Si l'on suppose que la valeur d'évaluation de mise au point du canal chA comme obtenu à partir de la partie de génération de valeur d'évaluation de mise au point 70 vaut AFV_A et que celle du canal chB vaut AFV_B, dans le cas o AFV_A >AFV_B, ce qui 10 signifie l'état de la mise au point avant, la CPU 40 modifie une position cible de déplacement d'établissement présent de l'objectif de mise au point 16 en direction du côté d'infini d'une distance de déplacement (valeur positive) qui est mentionnée ultérieurement et émet en sortie sur le circuit de pilotage de moteur de mise au point 44 via le convertisseur N/A 54 le signal de commande pour 15 déplacer l'objectif de mise au point 16 jusqu'à la nouvelle position cible de déplacement. A l'inverse, dans le cas de AFV_A < AFV_B, ce qui signifie l'état de la mise au point arrière, la CPU 40 modifie une position cible de déplacement courant de l'objectif de mise au point 16 en direction du côté de proximité de la distance de déplacement (valeur négative) mentionnée ultérieurement et émet en 20 sortie sur le circuit de pilotage de moteur de mise au point 44 via le convertisseur
N/A 54 le signal de commande pour déplacer l'objectif de mise au point 16 jusqu'à la nouvelle position cible de déplacement. Ce processus est répété et dans le cas o on obtient AFV_A = AFV_B, le déplacement de l'objectif de mise au point 16 est arrêté. Par conséquent, I'objectif de mise au point 16 est déplacé 25 jusqu'à la position de mise au point.
Ici, si l'on suppose que la valeur du signal de détermination (les données de position de mise au point) représentant la position courante de l'objectif de mise au point 16 comme obtenu à partir du détecteur de position d'objectif de mise au point 56 est F_POSI et que la position cible de déplacement de l'objectif 30 de mise au point 16 établie comme décrit ci-avant est AFCTRL, la CPU 40 établit la valeur de la position cible de déplacement AF_CTRL moins la position courante F_POSI, c'est-àdire AF_CTRL - F_POSI en tant que valeur F_SPEED du signal de commande à émettre en sortie sur le circuit de pilotage de moteur de mise au point 44. Le signal de commande destiné à être émis en sortie sur le 35 circuit de pilotage de moteur de mise au point 44 est la valeur qui correspond à la vitesse de rotation du moteur de mise au point 42 (la vitesse de déplacement de l'objectif de mise au point 16) à diriger sur le circuit de pilotage de moteur de mise au point 44. La valeur F_SPEED du signal de commande établi comme décrit ci-avant est émise en sortie sur le circuit de pilotage de moteur de mise au point 44 de telle sorte que l'objectif de mise au point 16 se déplace à la vitesse correspondant à la différence entre la position cible de déplacement AF_CTRL et la position courante F_POSI (AFCRTL- F_POSI).
Puis une description de la distance de déplacement additionnée à la
position cible de déplacement courante sera donnée dans le cas de l'établissement de la nouvelle position cible de déplacement de l'objectif de mise au point 16 comme il a été décrit ci-avant. Comme il a été décrit ci-avant, la 10 différence entre la position courante F_POSI et la position cible de déplacement AF_CTRL de l'objectif de mise au point 16 correspond à la vitesse de déplacement de l'objectif de mise au point 16. Lors de l'établissement de la nouvelle position cible de déplacement AF_CTRL, plus la distance de déplacement additionnée à la position cible de déplacement courante est élevée, 15 plus la vitesse de déplacement de l'objectif de mise au point 16 devient élevée et plus la distance de déplacement est faible, plus la vitesse de déplacement
devient faible.
Dans le cas du déplacement de l'objectif de mise au point 16 jusqu'à la position de mise au point, il est nécessaire, dans le but d'arrêter en sécurité 20 I'objectif de mise au point 16 à la position de mise au point au moyen d'une
opération stable, d'abaisser la vitesse de déplacement de l'objectif de mise au point 16 en réduisant la distance de déplacement lorsque l'on se rapproche de la position de mise au point de telle sorte que, lors de l'arrivée à la position de mise au point, la distance de déplacement devienne égale à 0 et la vitesse de 25 déplacement de l'objectif de mise au point 16 devienne égale à 0.
Par conséquent, la CPU 40 acquiert la différence AAFV (= AFV_A AFVB) entre les valeurs d'évaluation de mise au point des canaux chA et chB et établit en tant que distance de déplacement la valeur AAFV X AFG qui est la différence AAFV (=AFVA - AFV_B) multipliée par un gain AF prédéterminé AFG. 30 Par conséquent, dans le cas o l'objectif de mise au point 16 arrive à la position de mise au point, c'est-à-dire dans le cas o la différence SAFV entre les valeurs d'évaluation de mise au point devient égale à 0 (AFV_A = AFVB), la distance de déplacement AAFV X AFG devient égale à 0 et l'objectif de mise au point 16 s'arrête à la position de mise au point. Comme on peut le comprendre au vu de la 35 figure 4, lorsque l'objectif de mise au point 16 s'approche de la position de mise au point depuis le voisinage de la position de mise au point, la différence AAFV entre les valeurs d'évaluation de mise au point diminue et la distance de déplacement AAFV X AFG se rapproche progressivement de 0 de telle sorte que la vitesse de déplacement de l'objectif de mise au point 16 est réduite de façon progressive. En lieu et place d'établir en tant que distance de déplacement la valeur 5 AAFV X AFG qui est la différence AAFV entre les valeurs d'évaluation de mise au point des canaux chA et chB multipliée par le gain AF prédéterminé AFG comme décrit ci-avant, il est également possible d'établir la distance de déplacement comme suit. Pour être davantage spécifique, la CPU 40 acquiert tout d'abord un rapport AAFV = AFV_A/AFV_B entre la valeur d'évaluation de mise au point 10 AFVA du canal chA et la valeur d'évaluation de mise au point AFV_B du canal
chB. Dans le cas de AFV_A > AFV_B (AAFV > 1), ce qui signifie l'état de la mise au point avant (se reporter à la figure 4), la distance de déplacement est établie en tant que (AAFV-1) X AFG. AFG représente la valeur du gain AF prédéterminé.
Dans le cas de AFV_A < AFVB (AAFV < 1), ce qui signifie l'état de la mise au 15 point arrière (ou l'état de justement la mise au point), la distance de déplacement
est établie en tant que -(1/AAFV - 1) X AFG.
Par conséquent, dans le cas o l'objectif de mise au point 16 arrive à la position de mise au point, la distance de déplacement devient égale à 0 du fait que l'on a AAFV = 1, et l'objectif de mise au point 16 s'arrête à la position de mise 20 au point. Lorsque l'objectif de mise au point 16 s'approche de la position de mise au point depuis le voisinage de la position de mise au point, (AAFV - 1) ou (1/AAFV - 1) diminue et la distance de déplacement se rapproche progressivement de 0 de telle sorte que la vitesse de déplacement de l'objectif de mise au point 16 est réduite progressivement. Qui plus est, dans le cas de 25 I'utilisation du rapport AAFV = AFV_A/AFV_B entre les valeurs d'évaluation de
mise au point en tant qu'élément pour ainsi rechercher la distance de déplacement, la dimension de la valeur d'évaluation de mise au point ellemême n'influence pas la distance de déplacement (la vitesse de déplacement) de beaucoup au point qu'une opération de mise au point davantage stable peut être 30 mise en oeuvre.
Puis une description concernant la correction en termes de sensibilité des
valeurs d'évaluation de mise au point des canaux chA et chB comme obtenu à partir de la partie de génération de valeur d'évaluation de mise au point 70 sera présentée. La description mentionnée ci-avant a été fournie moyennant 35 I'hypothèse du cas dans lequel les sensibilités des valeurs d'évaluation de mise
au point (ci-après appelées sensibilités de valeur d'évaluation de mise au point) des canaux chA et chB comme obtenu à partir de la partie de génération de valeur d'évaluation de mise au point 70 se correspondent. Pour être davantage spécifique, il est supposé qu'il y a une correspondance entre les caractéristiques du dispositif de lecture d'image de détermination d'état de mise au point 32A pour générer la valeur d'évaluation de mise au point du canal chA et des divers circuits 5 rapportés au canal chA dans la partie de génération de valeur d'évaluation de mise au point 70 et les caractéristiques du dispositif de lecture d'image de détermination d'état de mise au point 32B pour générer la valeur d'évaluation de mise au point du canal chB et des divers circuits rapportés au canal chB dans la partie de génération de valeur d'évaluation de mise au point 70. Dans la réalité 10 cependant, il y a des cas selon lesquels les sensibilités de valeur d'évaluation de
mise au point ne sont pas en correspondance et par conséquent, ce mode de réalisation décrit le cas selon lequel il est possible de réaliser une correction concernant la sensibilité des valeurs d'évaluation de mise au point des canaux chA et chB comme obtenu à partir de la partie de génération de valeur 15 d'évaluation de mise au point 70.
Tout d'abord, dans la CPU 40, la valeur d'évaluation de mise au point du canal chA comme obtenue à partir de la partie de génération de valeur d'évaluation de mise au point 70 vaut AFV_A0 et la valeur d'évaluation de mise au point du canal chB vaut AFV_B0. Les valeurs d'évaluation de mise au point 20 des canaux chA et chB à la sensibilité qui est corrigée, c'est-à-dire les valeurs d'évaluation de mise au point à utiliser pour la commande AF (ci-après appelées sensibilité de valeur d'évaluation de mise au point corrigée), sont respectivement AFV_A et AFV_B comme décrit ciavant. Dans ce cas, les valeurs d'évaluation de mise au point corrigées sont calculées au moyen des formules qui suivent: 25 AFVA = (AFVA0 AFVAOFFSET) x AFG_A (1) AFVB = (AFV_B0 - AFVBOFFSET) x AFG_B (2) Les valeurs d'évaluation de mise au point AFV_A0 et AFV_B0 qui sont
obtenues à partir de la partie de génération de valeur d'évaluation de mise au point 70 avant correction au moyen des formules (1) et (2) sont appelées valeurs 30 d'évaluation de mise au point avant la correction.
Par conséquent, il est possible de réaliser une correction concernant la
sensibilité de valeur d'évaluation de mise au point en établissant les valeurs de AFVAOFFSET, AFVBOFFSET, AFG_A et AFG_B dans les formules (1) et (2) à des valeurs adéquates de manière à faire correspondre les sensibilités de 35 valeur d'évaluation de mise au point des canaux chA et chB.
Bien qu'un processus de correction concret soit décrit ultérieurement, les valeurs AFVAOFFSET et AFVBOFFSET qui ont été mentionnées ci-avant (valeurs de référence) sont établies au moyen du processus de correction pour les valeurs d'évaluation de mise au point des canaux chA et chB à un niveau de noir (les valeurs d'évaluation de mise au point avant la correction) comme obtenu dans un état dans lequel les dispositifs de lecture/prise d'image de détermination 5 d'état de mise au point 32A et 32B sont protégés vis-à-vis de la lumière. Par exemple, elles sont établies aux valeurs d'évaluation de mise au point des canaux chA et chB comme obtenu dans un état dans lequel le diaphragme 20 est complètement fermé. Cependant, on n'est pas limité à cela mais ces valeurs peuvent également être établies aux valeurs d'évaluation de mise au point des 10 canaux chA et chB comme obtenu à l'instant de la prise d'une image d'un objet uni (une image ne comportant pas de contraste) par exemple. Par ailleurs, les valeurs AFG_A et AFG_B mentionnées ci-avant (les gains) sont établies aux valeursauxquelles les valeurs d'évaluation de mise au point corrigées se correspondent sur la base des valeurs maximum respectives des valeurs 15 d'évaluation de mise au point des canaux chA et chB comme obtenu lorsque l'objectif de mise au point 16 est déplacé tout en prenant un objet prédéterminé tel qu'une représentation de référence (il n'est pas nécessaire qu'il s'agisse d'un
objet déterminé de façon spécifique).
Par conséquent, il est possible, en utilisant les valeurs mentionnées ci20 avant AFVAOFFSET, AFVBOFFSET, AFG_A et AFGB qui sont établies au moyen du processus de correction, de réaliser des corrections sur la valeur d'évaluation de mise au point AFV_A0 du canal chA et sur la valeur d'évaluation de mise au point AFV_B0 du canal chB comme obtenu à partir de la partie de génération de valeur d'évaluation de mise au point 70 au moyen des formules (1) 25 et (2) de manière à obtenir les valeurs d'évaluation de mise au point AFV_A et AFV_B des canaux chA et chB dans un état dans lequel les sensibilités de valeur
d'évaluation de mise au point se correspondent.
Les valeurs mentionnées ci-avant AFVAOFFSET, AFVBOFFSET, AFG_A et AFG_B qui sont établies au moyen du processus de correction sont 30 stockées en tant que données de correction dans la mémoire 72 qui est représentée sur la figure 1 de telle sorte que, dans le cas de l'exercice de la commande AF, ces données de correction soient lues et utilisées pour la correction des valeurs d'évaluation de mise au point qui sont obtenues à partir de la partie de génération de valeur d'évaluation de mise au point 70. Le processus 35 de correction est réalisé en activant le commutateur de début de correction 74 qui est représenté sur la figure 1, et l'indicateur 76 (un dispositif à cristaux liquides ou LCD par exemple) qui est représenté sur la figure 1 s'éclaire tout en réalisant le processus de correction et s'éteint lors de sa fin. Le commutateur de début de correction 74 et l'indicateur 76 peuvent être montés soit sur l'appareil d'objectif 10, soit sur le contrôleur, tel que la demande de mise au point 62. Il est également réalisable, en lieu et place de réaliser le processus de correction en 5 activant le commutateur de début de correction 74, de réaliser cela lors d'une mise en route de l'appareil d'objectif 10 ou lors d'un réglage initial avant une expédition du produit et de stocker les données de correction établies dans la
mémoire 72.
Puis la procédure de commande AF dans la CPU 40 sera décrite. Tout 10 d'abord, un flux du processus complet dans la CPU 40 sera décrit par report à l'organigramme de la figure 5. Après réalisation d'une initialisation requise (étape S10), la CPU 40 détermine si oui ou non il convient de démarrer la correction de la sensibilité de valeur d'évaluation de mise au point (la génération des données de correction) (étape S12). En ce qui concerne le fait de déterminer si oui ou non 15 il convient de réaliser une correction concernant la sensibilité de valeur
d'évaluation de mise au point, ceci est déterminé en déterminant si oui ou non le commutateur de début de correction 74 est activé, comme il a été décrit ci-avant.
S'il est déterminé que OUI au niveau de l'étape S12, le processus de correction de sensibilité de valeur d'évaluation de mise au point mentionné ci20 avant est réalisé (étape S14). S'il est déterminé que NON, les données de correction déjà générées et stockées dans la mémoire 72 sont lues dedans
(étape S16).
Puis la CPU 40 réalise une commande de diaphragme sur la base d'un
signal d'instruction de diaphragme qui est appliqué par le corps de caméra 12 25 (étape S18).
Puis une commande de zoom est réalisée sur la base d'un signal
d'instruction de zoom en provenance de la demande de zoom 64 (étape S20).
Ensuite, la CPU 40 détermine si oui ou non le commutateur AF 66 est activé (étape S22) et s'il est déterminé que OUI, elle établit un indicateur de début de 30 AF dans l'état activé (étape S24) puis elle réalise le processus de commande de mise au point (étape S26). S'il est déterminé que NON au niveau de l'étape S22, elle réalise le processus de commande de mise au point sans établir l'indicateur de début de AF dans l'état activé (étape S26). Lorsqu'elle termine le processus de commande de mise au point au niveau de l'étape S26, elle retourne au 35 processus de l'étape S18 et elle répète le processus depuis l'étape S18 jusqu'à
l'étape S26.
Les figures 6 à 9 sont des organigrammes qui représentent la procédure du processus de correction de sensibilité de valeur d'évaluation de mise au point au niveau de l'étape S14. Dans le cas de la réalisation de la correction de sensibilité de valeur d'évaluation de mise au point, il est souhaitable que 5 I'opérateur établisse l'objectif de prise d'image dans un état de prise de la représentation de référence de contraste élevé en tant qu'objet. Tout d'abord, sur la figure 6, la CPU 40 émet en sortie le signal de commande sur le circuit de pilotage de moteur de diaphragme 52 afin de piloter le moteur de diaphragme 50 et ferme complètement l'ouverture du diaphragme 20 (étape S30). Par 10 conséquent, les dispositifs de lecture d'image de détermination d'état de mise au point 32A et 32B sont protégés vis-à-vis de la lumière. Ensuite, la valeur d'évaluation de mise au point AFV_A du canal chA et la valeur d'évaluation de mise au point AFV_B du canal chB sont obtenues à partir de la partie de génération de valeur d'évaluation de mise au point 70 (étapes S32, S34). 15 Ensuite, une valeur de comptage d'un compteur d'échantillonnage de valeur d'évaluation de mise au point est augmentée de 1 (étape S36) et il est déterminé si oui ou non un nombre prédéterminé d'échantillonnages sont terminés sur la base de la valeur de comptage du compteur d'échantillonnage (étape S38). S'il
est déterminé que NON, le processus depuis l'étape S32 est répété.
Par ailleurs, s'il est déterminé que OUI au niveau de l'étape S38, les valeurs maximum AFVAMAX et AFVBMAX des valeurs d'évaluation de mise au point comme échantillonné tel que pour les canaux chA et chB sont respectivement déterminées et les valeurs maximum déterminées AFVAMAX et AFVBMAX sont établies en tant que valeurs de décalage respectives 25 (valeurs d'évaluation de mise au point de niveau de noir) AFVAOFFSET et AFVBOFFSET des canaux chA et chB. Pour être davantage spécifique, le traitement se déroule comme suit (étape S40):
AFVAOFFSET = AFVAMAX (3)
AFVBOFFSET = AFVBMAX (4)
Puis la CPU 40 émet en sortie le signal de commande sur le circuit de pilotage de moteur de diaphragme 52 afin de piloter le moteur de diaphragme 50 et ouvre l'ouverture du diaphragme 20 (étape S42). Ainsi, la lumière objet arrive en incidence sur les dispositifs de lecture d'image de détermination d'état de mise au point 32A et 32B. Ensuite, la CPU 40 émet en sortie le signal de commande 35 sur le circuit de pilotage de moteur de zoom 48 afin de piloter le moteur de zoom 46 et déplace l'objectif de zoom 18 jusqu'à une position appropriée (position prédéterminée) (étape S44). La CPU émet également en sortie le signal de commande sur le circuit de pilotage de moteur de mise au point 44 afin de piloter le moteur de mise au point 42 et elle déplace l'objectif de mise au point 16
jusqu'à l'extrémité de fermeture (S46).
La position de l'objectif de zoom 18 établie au niveau de l'étape S44 est 5 une position adéquate pour la correction de la sensibilité de valeur d'évaluation de mise au point. Par exemple, si cette position est établie sur le côté de grand angle, l'objectif de mise au point 16 peut être déplacé à vitesse élevée selon le processus qui suit et si elle est établie sur le côté de téléobjectif, une crête exacte (valeur maximum) de la valeur d'évaluation de mise au point peut être 10 déterminée au niveau du processus qui suit, lequel est avantageux pour les deux côtés. Puis la CPU 40 obtient la valeur d'évaluation de mise au point AFV_A du canal chA à partir de la partie de génération de valeur d'évaluation de mise au point 70 et établit la valeur d'évaluation de mise au point obtenue AFV_A en tant 15 que AFVAMIN (étape S48). Comme représenté au niveau de l'organigramme suivant sur la figure 7, la CPU 40 obtient la valeur d'évaluation de mise au point AFV_B du canal chB à partir de la partie de génération de valeur d'évaluation de mise au point 70 et établit la valeur d'évaluation de mise au point obtenue AFV_B en tant que AFVB MIN (étape S50). Au niveau des étapes S48, S50 et selon le 20 processus qui suit, les valeurs d'évaluation de mise au point des canaux chA et
chB qui sont représentées par AFV_A et AFVB peuvent prendre les valeurs selon lesquelles AFVAOFFSET et AFVBOFFSET des canaux chA et chB comme établi au niveau de l'étape S40 sont soustraites des valeurs d'évaluation de mise au point qui sont obtenues à partir de la partie de génération de valeur 25 d'évaluation de mise au point 70, de façon respective.
Puis la CPU 40 établit une vitesse de déplacement FSPEED_IST de l'objectif de mise au point 16 pour déterminer l'objet (étape S52). Elle émet en sortie la vitesse de déplacement F_SPEED_IST en tant que signal de commande sur le circuit de pilotage de moteur de mise au point 44 via le convertisseur N/A 30 54 de manière à déplacer l'objectif de mise au point 16 suivant la direction d'infini
(étape S44).
Tout en déplaçant ainsi l'objectif de mise au point 16 suivant la direction d'infini, la CPU 40 obtient la valeur d'évaluation de mise au point AFV_A du canal chA et la valeur d'évaluation de mise au point AFV_B du canal chB à partir de la 35 partie de génération de valeur d'évaluation de mise au point 70 (étapes S56 et S58) et détermine si oui ou non les crêtes respectives (les valeurs maximum) des valeurs d'évaluation de mise au point des canaux chA et chB ont été déterminées (étape S60). S'il est déterminé que NON, elle répète le processus à partir de
l'étape S56.
Par ailleurs, s'il est déterminé que OUI au niveau de l'étape S60, la CPU obtient ensuite la valeur d'évaluation de mise au point AFV_A du canal chA et 5 la valeur d'évaluation de mise au point AFV_B du canal chB à partir de la partie de génération de valeur d'évaluation de mise au point 70 (étapes S62, S64) et détermine si oui ou non les formules qui suivent sont satisfaites en ce qui concerne AFVAMIN et AFVBMIN établies au niveau des étapes S48 et S50 (étape S66): AFV_A < AFVAMIN (5)ou
AFV_B < AFVBMIN (6)
S'il est déterminé que NON, elle répète le processus à partir de l'étape S62. S'il est déterminé que OUI, elle arrête l'objectif de mise au point 16 comme
représenté au niveau de l'organigramme suivant de la figure 8 (étape S68).
Ensuite, la CPU 40 établit une vitesse de déplacement F_SPEED_MIN (une vitesse inférieure à la vitesse F_SPEED_IST mentionnée ci-avant) de l'objectif de mise au point 16 pour déterminer les valeurs maximum des valeurs d'évaluation de mise au point selon une précision élevée (étape S70). Elle émet en sortie la vitesse de déplacement F_SPEDD_MIN en tant que signal de 20 commande sur le circuit de pilotage de moteur de mise au point 44 via le convertisseur N/A 54 de manière à déplacer l'objectif de mise au point 16 suivant
la direction de proximité (étape S72).
Tout en déplaçant ainsi l'objectif de mise au point 16 suivant la direction de proximité, la CPU 40 obtient la valeur d'évaluation de mise au point AFV_A du 25 canal chA et la valeur d'évaluation de mise au point AFV_B du canal chB à partir de la partie de génération de valeur d'évaluation de mise au point 70 (étapes S74, S76) et recherche les valeurs maximum respectives de la valeur d'évaluation de mise au point AFV_A du canal chA et de la valeur d'évaluation de mise au point AFV_B du canal chB de manière à établir les valeurs maximum 30 respectives en tant que AFVAMAX et AFVBMAX (étape S78). Elle
détermine si oui ou non les valeurs maximum des deux canaux chA et chB ont été déterminées (étape S80). S'il est déterminé que NON, elle répète le processus à partir de l'étape S74. Par ailleurs, s'il est déterminé que OUI, elle arrête l'objectif de mise au point 16 comme représenté au niveau de 35 I'organigramme suivant de la figure 9 (étape S82).
Puis la CPU 40 détermine si oui ou non AFVAMAX et AFVBMAX qui sont établies au niveau de l'étape S78 satisfont la formule qui suit (étape S84):
AFVAMAX > AFVBMAX (7)
S'il est déterminé que OUI, elle établit une valeur de correction AFG_B dans les formules (1) et (2) à 1 et elle établit une valeur de correction AFG_A en tant que AFVBMAX/AFVAMAX (étape S86). S'il est déterminé que NON, 5 elle établit la valeur de correction AFG_A dans les formules (1) et (2) à 1 et elle est établie la valeur de correction AFG_B en tant que AFVAMAX/AFVBMAX
(étape S88).
Elle écrit les valeurs de correction AFG_A et AFGB qui sont établies au niveau de l'étape S86 ou de l'étape S88 en tant que données de correction 10 concernant les valeurs d'évaluation de mise au point dans la mémoire 72 (mémoire non volatile) (étape S90). Elle écrit également AFVAOFFSET et AFV_B_OFFSET établies au niveau de l'étape S40 en tant que données de correction dans la mémoire 72. Le traitement mentionné ci-avant termine le
processus de correction de sensibilité de valeur d'évaluation de mise au point.
La figure 10 est un organigramme qui représente le processus de commande de mise au point au niveau de l'étape S26 de la figure 5 comme décrit ciavant. Dans le cas de la réalisation du processus de commande de mise au point, la CPU 40 obtient tout d'abord la valeur d'évaluation de mise au point AFV_A du dispositif de lecture d'image de détermination d'état de mise au point 20 32A (canal chA) (étape S100) et obtient également la valeur d'évaluation de mise au point AFV_B du dispositif de lecture d'image de détermination d'état de mise au point 32B (canal chB) à partir de la partie de génération de valeur d'évaluation
de mise au point 70 (étape S102).
Ici, les valeurs d'évaluation de mise au point AFVA et AFV_B qui sont 25 obtenues au niveau des étapes S100 et S102 représentent les valeurs d'évaluation de mise au point corrigées, et la procédure de correction afférente est représentée sur la figure 11. Tout d'abord, la CPU 40 lit les valeurs d'évaluation de mise au point (les valeurs d'évaluation de mise au point avant la correction) des canaux chA et chB à partir de la partie de génération de valeur 30 d'évaluation de mise au point 70 et les établit en tant que AFVA0 et AFV_B0, de façon respective (étape S120). Comme représenté selon les formules mentionnées ci-avant (1) et (2), les valeurs d'évaluation de mise au point corrigées AVF_A et AVF_B sont calculées à l'aide des formules qui suivent en utilisant les données de correction AFVAOFFSET, AFVBOFFSET, AFGA 35 et AFG_B qui sont lues à partir de la mémoire 72 au niveau de l'étape S16 de la
figure 5.
AFVA = (AFV_A0 - AFVAOFFSET) x AFGA (8) AFVB = (AFV_B0 - AFVBOFFSET) x AFG_B (9) Afin de décrire cela par retour à la figure 10, après obtention des valeurs
d'évaluation de mise au point AFV_A et AFV_B des canaux chA et chB calculées comme mentionné ci-avant, la CPU 40 détermine ensuite si oui ou non un 5 indicateur de début de AF est établi dans l'état activé (étape S104). S'il est déterminé que NON, elle réalise un processus MF.
Dans le cas du processus MF, la CPU 40 obtient les données de position de mise au point F_POSI représentant la position courante de l'objectif de mise au point 16 à partir du détecteur de position d'objectif de mise au point 56 (étape 10 S106) et elle obtient également les données de demande de mise au point F_CTRL représentant la position cible de déplacement de l'objectif de mise au point 16 à partir de la demande de mise au point 62 (étape S108). Elle acquiert la différence F_POSI - F_CTRL entre les données de position de mise au point obtenues F_POSI et les données de demande de mise au point F_CTRL et elle 15 établit cette valeur en tant que vitesse de déplacement F_SPEED pour déplacer
l'objectif de mise au point 16 jusqu'à la position cible de déplacement comme dirigé par la demande de mise au point 62 (étape S110). Elle émet en sortie la vitesse de déplacement F_SPEED en tant que signal de commande sur le circuit de pilotage de moteur de mise au point 44 via le convertisseur N/A 54 (étape 20 S114).
Par ailleurs, s'il est déterminé que OUI, c'est-à-dire que l'indicateur de début de AF est activé au niveau de l'étape S104, la CPU 40 réalise le processus
AF (étape S112).
La figure 12 est un organigramme qui représente la procédure AF au 25 niveau de l'étape S12. Tout d'abord, la CPU 40 détermine si oui ou non un paramètre F_MEMO_FLG est établi à 1 (étape S130). Au niveau du premier processus, après décalage depuis la commande MF sur la commande AF, il est déterminé que NON. Dans ce cas, la CPU 40 obtient les données de demande de mise au point indiquant la position cible de déplacement courante à partir de 30 la demande de mise au point 62 et établit cette valeur de données en tant que
position cible de déplacement initial (position courante) FCTRL (étape S132).
Puis elle établit le paramètre F_MEMO_FLG à 1 (étape S134). S'il est déterminé que OUI au niveau de l'étape S130, le processus au niveau des étapes S132 et
S134 n'est pas réalisé.
Ensuite, la CPU 40 acquiert la différence AAFV = AFV_A - AFV_B entre la valeur d'évaluation de mise au point AFV_A du canal chA et la valeur d'évaluation de mise au point AFV_B du canal chB comme obtenu au niveau des
étapes S100 et S102 sur la figure 10 (étape S136).
Elle additionne à la position cible de déplacement courante AF_CTRL la valeur (distance de déplacement) AAFV x AFG qui est la valeur de AAFV 5 multipliée par le gain AF prédéterminé AFG et elle établit cette valeur en tant que nouvelle position cible de déplacement AF_CTRL (étape S138). Pour être
davantage spécifique, on a AF_CTRL = AF_CTRL + AAFV x AFG.
Puis la CPU 40 lit les données de position de mise au point F_POSI représentant la position courante de l'objectif de mise au point 16 à partir du 10 détecteur de position d'objectif de mise au point 56 (étape S40) et établit la différence AF_CTRL - F_POSI entre les données de position de mise au point F_POSI et la position cible de déplacement AF_CTRL comme établi au niveau de l'étape S138 en tant que vitesse de déplacement F_SPEED pour déplacer l'objectif de mise au point 16 (étape S142). Elle retourne à l'organigramme de la 15 figure 10 et elle émet en sortie la vitesse de déplacement F_SPEED en tant que signal de commande sur le circuit de pilotage de moteur de mise au point 44 via
le convertisseur N/A 54 (étape S1 14).
Par l'intermédiaire du processus qui a été mentionné ci-avant, l'objectif de mise au point 16 se déplace jusqu'à la position de mise au point à la vitesse de 20 déplacement conformément à une distance focale et à une valeur F de l'objectif
de prise d'image.
Puis une description du processus AF dans le cas o l'élément pour établir
la distance de déplacement est le rapport AAFV = AFV_A/AFV_B entre la valeur d'évaluation de mise au point AFV_A du canal chA et la valeur d'évaluation de 25 mise au point AFV_B du canal chB comme décrit ci-avant en lieu et place de la différence AAFV = AFV_A - AFV_B entre la valeur d'évaluation de mise au point AFV_A du canal chA et la valeur d'évaluation de mise au point AFV_B du canal chB en tant que processus AF qui est représenté sur la figure 12 sera présentée par report à l'organigramme de la figure 13 du processus AF. Le processus au 30 niveau des étapes S150 à S154 au niveau de l'organigramme de la figure 13 est
tout simplement le même que le processus selon les étapes S130 à S134 de la figure 12 et ainsi, la description démarrera à partir du processus selon une étape
S156 sur la figure 13.
Après réalisation du processus selon les étapes S150 à S154, la CPU 40 35 acquiert alors le rapport AAFV = AFV_A/AFV_B entre la valeur d'évaluation de mise au point AFV_A du canal chA corrigé et la valeur d'évaluation de mise au point AFV_B du canal chB comme obtenu au niveau des étapes S100 et S102 de
la figure 10 (étape S156).
La CPU 40 détermine si oui ou non le rapport AAFV entre les valeurs d'évaluation de mise au point est supérieur à 1,0 (étape S158). S'il est déterminé 5 que OUI, on a AAFV = (AAFV - 1,0) x AFG (étape S160). S'il est déterminé que NON, on a -AAFV = (1/AAFV - 1,0) x AFG (étape S162). AFG représente la valeur du gain AF prédéterminé. La CPU 40 additionne à la position cible de déplacement courante AF_CTRL la valeur acquise (la distance de déplacement) AAFV et établit cette valeur en tant que nouvelle position cible de déplacement 10 AF_CTRL (étape S164). Pour être davantage spécifique, on a AF_CTRL =
AF_CTRL + AAFV.
Ensuite, la CPU 40 lit les données de position de mise au point F_POSI représentant la position courante de l'objectif de mise au point 16 à partir du détecteur de position d'objectif de mise au point 56 ( étape S166) et établit la 15 différence AF_CTRL - F_POSI entre les données de position de mise au point F_POSI et la position cible de déplacement AF_CTRL établie au niveau de l'étape S164 en tant que vitesse de déplacement F_SPEED pour déplacer l'objectif de mise au point 16 (étape S168). Elle retourne à l'organigramme de la figure 10 et elle émet en sortie la vitesse de déplacement F_SPEED en tant que 20 signal de commande sur le circuit de pilotage de moteur de mise au point 44 via
le convertisseur N/A 54 (étape S114).
La description du mode de réalisation présenté ci-avant a été présentée en
ce qui concerne le cas o la commande AF est exercée en obtenant deux valeurs d'évaluation de mise au point à partir des deux dispositifs de lecture d'image de 25 détermination d'état de mise au point 32A, 32B. Cependant, on n'est pas limité à ce cas mais même dans le cas o la commande AF est exercée sur la base de trois valeurs d'évaluation de mise au point ou plus qui sont obtenues à partir de trois dispositifs de lecture d'image ou plus qui sont placés en des positions de différentes longueurs de chemin lumineux, un processus qui fait correspondre les 30 sensibilités des valeurs d'évaluation de mise au point peut être réalisé de la
même manière que selon le mode de réalisation qui a été présenté ci-avant.
Conformément au mode de réalisation qui a été présenté ci-avant, en ce qui concerne la commande AF, la position cible de déplacement de l'objectif de mise au point 16 est établie au moyen de la différence ou du rapport entre les 35 valeurs d'évaluation de mise au point des canaux chA et chB et l'objectif de mise
au point 16 est déplacé à la vitesse de déplacement qui correspond à la différence entre la position cible de déplacement et la position courante.
Cependant, on n'est pas limité à ce cas et il est également possible d'établir de façon directe la vitesse de déplacement au moyen de la différence ou du rapport entre les valeurs d'évaluation de mise au point des canaux chA et chB et de déplacer l'objectif de mise au point 16 à cette vitesse de déplacement. En ce qui 5 concerne le mode de réalisation qui a été présenté ci-avant, le cas de l'application de la présente invention à un système de caméra TV a été décrit en tant qu'exemple. Cependant, on n'est pas limité à ce cas mais la présente invention peut également être appliquée à une caméra vidéo et à une caméra
fixe pour une prise d'image statique.
* Puis un autre mode de réalisation sera décrit. La figure 14 est un schéma fonctionnel qui représente une configuration du système de caméra TV auquel la présente invention est appliquée. Le système de caméra TV représenté sur ce dessin est constitué par un corps de caméra 110, par un objectif de prise d'image remplaçable 112 etc..., et le corps de caméra 110 contient le dispositif de lecture 15 d'image (dispositif de lecture d'image vidéo) pour prendre les images pour l'enregistrement et la reproduction et pour émettre en sortie ou enregistrer sur un support d'enregistrement le signal d'image selon un format prédéterminé, des circuits nécessaires etc... Par ailleurs, l'objectif de prise d'image 112 est monté de façon amovible sur le côté avant du corps de caméra 110. Comme représenté 20 sur le dessin et comme connu de façon générale, le système optique de l'objectif de prise d'image 112 comporte un objectif de mise au point fixe F', un objectif de mise au point mobile F, un objectif de zoom Z qui est constitué par un système de puissance variable et par un système de compensation, un diaphragme I et un objectif de relais (système optique de relais) qui est constitué par un objectif de 25 relais de côté avant R1 et par un objectif de relais de côté arrière R2 qui sont placés depuis le côté d'extrémité avant. La configuration de chaque objectif dans le dessin est simplifiée, en représentant un groupe d'objectifs constitué par une
pluralité d'objectifs en tant qu'un seul objectif.
Comme représenté sur le dessin, sur un chemin lumineux de la lumière 30 objet entre l'objectif de relais de côté avant R1 et l'objectif de relais de côté
arrière R2 du système optique de relais, un miroir semi-transparent 124 pour dériver une lumière objet pour déterminer un état de mise au point par rapport à la lumière objet pour les images est placé de manière à être incliné d'approximativement 45 en direction d'un axe optique O de l'objectif de prise 35 d'image 112.
A partir de la lumière objet qui arrive en incidence depuis le côté d'extrémité avant de l'objectif de prise d'image 112, la lumière autre que celle dérivée par le miroir semi-transparent 124 qui est la lumière objet pour les images comme évacué par filtrage par le miroir semi- transparent 124 est émise depuis un côté d'extrémité arrière de l'objectif de prise d'image puis arrive en incidence sur une partie de lecture d'image 120 du corps de caméra 110. La 5 configuration de la partie de lecture d'image 120 sera omise. La lumière objet qui arrive en incidence sur la partie de lecture d'image 120 est décomposée selon trois couleurs que sont la lumière rouge, la lumière verte et la lumière bleue par un système optique de séparation de couleur par exemple et arrive en incidence sur une surface de lecture d'image du dispositif de lecture d'image (le dispositif 10 de lecture d'image vidéo) de chaque couleur. Ainsi, une image couleur pour la diffusion est prise. Une surface de mise au point 122 sur le dessin est en une position équivalente optiquement à la surface de lecture d'image de chaque dispositif de lecture d'image vidéo comme représenté sur l'axe optique O de
l'objectif de prise d'image 112.
Par ailleurs, la lumière objet qui est réfléchie sur le miroir semitransparent 124 est acheminée jusqu'à une partie de lecture d'image 126 pour déterminer l'état de mise au point suivant un axe optique O' qui est approximativement vertical par rapport à l'axe optique O en tant que lumière objet pour déterminer l'état de mise au point. Ici, la lumière objet est dans un état de lumière 20 approximativement parallèle entre l'objectif de relais de côté avant R1 et l'objectif
de relais de côté arrière R2, et la lumière objet qui est réfléchie sur le miroir semitransparent 124 passe au travers de l'objectif de relais R3pour collecter la lumière présentant la même nature que l'objectif de relais de côté arrière R2 puis arrive en incidence sur la partie de lecture d'image 126 pour déterminer l'état de 25 mise au point.
La figure 15 est un schéma fonctionnel qui représente la configuration de
la partie de lecture d'image 126 pour déterminer l'état de mise au point.
Comme représenté sur la figure 15, la partie de lecture d'image 126 est constituée par trois prismes P1, P2 et P3 qui constituent un système optique de 30 division de lumière et par trois dispositifs de lecture d'image pour déterminer l'état de mise au point (des CCD ou dispositifs à couplage de charge bidimensionnels) A, B et C. Dans le cas de la référence aux dispositifs de lecture d'image A, B et C dans un contexte o l'on souhaite tout particulièrement les distinguer des dispositifs de lecture d'image vidéo qui sont montés sur le corps de caméra 110, 35 ils sont appelés dispositifs de lecture d'image de détermination d'état de mise au point A, Bet C. Comme il a été décrit ci-avant, la lumière objet qui est réfléchie sur le miroir semi-transparent 124 et qui s'est déplacée le long de l'axe optique O' arrive en incidence sur le premier prisme P1 en premier et est divisée selon une lumière réfléchie et une lumière transmise sur une surface de miroir semi-transparent 140 5 du premier prisme P1. Sa lumière réfléchie arrive en incidence sur la surface de lecture d'image du dispositif de lecture d'image C. La lumière transmise arrive en incidence sur le second prisme P2 et est en outre divisée selon la lumière réfléchie et selon la lumière transmise sur une surface de miroir semi-transparent 142 du second prisme P2. Sa lumière réfléchie arrive en incidence sur le 10 dispositif de lecture d'image B. La lumière transmise passe au travers du troisième prisme P3 et arrive en incidence sur le dispositif de lecture d'image A. La lumière objet est divisée sur la surface de miroir semi-transparent 140 du premier prisme P1 et sur la surface de miroir semi-transparente 142 du second prisme P2 de telle sorte que les volumes de lumière de la lumière objet arrivée en 15 incidence sur chacun des dispositifs de lecture d'image A, B et C deviennent égaux. Les dispositifs de lecture d'image A, B et C n'ont pas besoin de prendre une image couleur mais ce sont des CCD pour prendre une image en noir et
blanc conformément à ce mode de réalisation.
Si les axes optiques de la lumière objet qui arrive en incidence sur les 20 dispositifs de lecture d'image vidéo A, B et C sont présentés sur la même ligne droite, comme représenté sur la figure 16, la longueur de chemin lumineux du dispositif de lecture d'image B est la plus courte, la longueur de chemin lumineux du dispositif de lecture d'image C est la plus longue et la longueur de chemin lumineux du dispositif de lecture d'image A présente une longueur intermédiaire 25 entre les dispositifs de lecture d'image B et C vis-à-vis de la lumière objet avant qu'elle n'arrive en incidence sur les dispositifs de lecture d'image A, B et C. Pour être davantage spécifique, les surfaces de lecture d'image des dispositifs de lecture d'image B et C sont placées en parallèle en des positions espacées d'une distance égale vers l'avant et vers l'arrière par rapport à la surface de lecture 30 d'image du dispositif de lecture d'image A. La surface de lecture d'image du dispositif de lecture d'image A est selon une relation de couplage avec la surface de mise au point 122 (se reporter à la figure 14) du corps de caméra 110 et la longueur de chemin lumineux jusqu'à la lumière objet qui arrive en incidence sur l'objectif de prise d'image 112 correspond à la surface de lecture d'image du 35 dispositif de lecture d'image vidéo du corps de caméra 110. Le dispositif de lecture d'image A est placé de telle sorte qu'il y ait une correspondance entre une surface objet dont la surface imageuse est la surface de lecture d'image du dispositif de lecture d'image vidéo et la surface objet dont la surface imageuse est la surface de lecture d'image du dispositif de lecture d'image vidéo A. On n'est pas nécessairement limité au cas selon lequel la longueur de chemin lumineux correspond à la surface de lecture d'image du dispositif de lecture 5 d'image vidéo. Le système optique de division de lumière pour diviser la lumière objet selon les dispositifs de lecture d'image A, B et C n'est pas limité à la
configuration qui utilise les prismes PI à P3 qui ont été mentionnés ciavant.
Conformément au système optique qui est constitué comme mentionné ciavant, parmi la lumière objet qui arrive en incidence sur l'objectif de prise d'image 10 112, la lumière objet qui est dérivée par le miroir semitransparent 124 a son image qui est prise par les dispositifs de lecture d'image A, B et C de différentes longueurs de chemin lumineux placés à proximité de la position couplée à la
surface de mise au point 122 du corps de caméra 110.
Puis une description d'une vue globale de la commande de mise au point 15 automatique sera présentée sur la base de la détermination d'états de mise au
point. Comme représenté sur la figure 14, l'image (les signaux d'image) qui est lue par les dispositifs de lecture d'image de détermination d'état de mise au point A, B et C est reçue dans une partie de traitement de signal 128. Comme il sera décrit ultérieurement, la partie de traitement de signal 128 recherche une position 20 d'un objectif de mise au point F (position de mise au point) à laquelle l'état de mise au point de l'objectif de prise d'image 112 devient en mise au point sur la surface de mise au point 122 du corps de caméra 110 sur la base de composantes hautes fréquences des signaux d'image lus par les dispositifs de lecture d'image A, B et C. Elle émet en sortie sur un circuit de pilotage de moteur 25 130 le signal de commande pour appliquer une instruction afin de déplacer l'objectif de mise au point F jusqu'à cette position de mise au point. Le circuit de pilotage de moteur de mise au point 130 pilote un moteur de mise au point (qui n'est pas représenté) et déplace l'objectif de mise au point F via un mécanisme de transmission de puissance 132 qui est constitué par un pignon ou engrenage 30 etc... afin d'établir l'objectif de mise au point F à la position de mise au point comme dirigé par la partie de traitement de signal 128. La commande de mise au
point automatique est exercée en réalisant en succession un tel processus.
Ensuite, la configuration de la partie de traitement de signal 128 et le processus de la détermination d'état de mise au point seront décrits. La figure 17 35 est un schéma fonctionnel qui représente la configuration de la partie de traitement de signal 128. La configuration de la partie de traitement de signal 128 qui est représentée sur la figure 17 est une configuration de base permettant de décrire le contenu du processus dans la partie de traitement de signal 128. La configuration sur la figure 17 est appelée configuration dans le passé par souci de commodité et la configuration rapportée à la présente invention sera décrite ultérieurement. Comme représenté sur la figure 17, l'image de l'objet qui est lue 5 par les dispositifs de lecture d'image de détermination d'état de mise au point A, B et C est émise en sortie en tant que signaux d'image selon le format prédéterminé, lesquels signaux sont ensuite convertis selon les signaux des valeurs d'évaluation de mise au point indiquant le degré de netteté de l'image (le contraste de l'image) au travers de convertisseurs A/N 150, 160 et 170, de filtres 10 passe-haut ou FPH 152, 162 et 172, de circuits de porte 154, 164 et 174 et d'additionneurs 156, 166 et 176 qui sont placés sur les dispositifs de lecture d'image A, B et C, de façon respective, de manière à être entrés sur une unité
centrale de traitement ou CPU 182.
Afin de décrire le processus jusqu'à l'acquisition de la valeur d'évaluation 15 de mise au point par référence au circuit qui est placé sur le dispositif de lecture d'image A, le signal d'image qui est émis en sortie depuis le dispositif de lecture d'image A est un signal de luminance par exemple qui représente la luminance de chaque pixel à laquelle un signal de synchronisation horizontale d'approximativement 1/15,75 kHz et un signal de synchronisation verticale 20 d'approximativement 1/60 kHz appliqués depuis un circuit de génération de signal de synchronisation 180 sont additionnés. Les signaux d'image sont convertis selon des signaux numériques par le convertisseur A/N 150 et sont entrés sur le filtre passe-haut ou FPH 152 ensuite de manière à ce que les composantes hautes fréquences des signaux d'image soient extraites. Les 25 signaux des composantes hautes fréquences comme extrait par le FPH 152 sont entrés sur le circuit de porte 152 ensuite de telle sorte que, parmi les signaux d'image équivalents à un écran (équivalent à une trame), seulement les signaux correspondant aux pixels dans une image AF prédéterminée (une partie centrale d'écran par exemple) qui est soumise à la commande de mise au point 30 automatique soient extraits par le circuit de porte 154. L'image AF est établie dans la partie centrale de l'écran (l'angle de vue de l'objectif de prise d'image 112) comme représenté sur la figure 18 par exemple. Les valeurs des signaux dans l'image AF équivalente à un écran comme extrait par le circuit de porte 154
sont additionnées par l'additionneur 156.
Ainsi, le total de somme des valeurs des composantes hautes fréquences des signaux d'image dans l'image AF est acquis et la valeur qui est obtenue au moyen de l'additionneur 156 est lue par la CPU 182 en tant que valeur d'évaluation de mise au point qui représente si oui ou non le degré de netteté de
l'image AF est élevé ou faible.
Divers signaux de synchronisation sont appliqués sur les circuits des
dispositifs de lecture d'image A, B et C, sur la CPU 182 etc... depuis le circuit de 5 génération de signal de synchronisation 180 de manière à synchroniser le traitement dans les circuits. Dans la description ciaprès, les valeurs d'évaluation de mise au point obtenues à partir des dispositifs de lecture d'image A, B et C sont appelées valeurs d'évaluation de mise au point des canaux (Ch) A, B et C.
La partie de traitement de signal 128 comporte une mémoire programmable et 10 effaçable électriquement ou EEPROM 184 etc... permettant de lire et d'écrire les
données, la CPU 182 étant placée dessus.
Après lecture des valeurs d'évaluation de mise au point des canaux ch A, B et C comme décrit ci-avant, la CPU 182 détermine un état de mise au point courant de l'objectif de prise d'image 112 sur la surface de mise au point 122 du 15 corps de caméra 110 sur la base des valeurs d'évaluation de mise au point afférentes. La figure 19 est un schéma qui représente des exemples des valeurs d'évaluation de mise au point en fonction des positions de mise au point à l'instant de la prise d'un certain objet en constituant les positions de mise au point de l'objectif de prise d'image 112 en tant qu'axe horizontal et les valeurs 20 d'évaluation de mise au point en tant qu'axe vertical. Une courbe a qui est représentée selon une ligne en trait plein sur le dessin représente les valeurs d'évaluation de mise au point du canal chA comme obtenu à partir du dispositif de lecture d'image de détermination d'état de mise au point A à la position couplée à la surface de mise au point 122 du corps de caméra 110 en fonction 25 des positions de mise au point. Des courbes b et c représentées au moyen de lignes en pointillés sur le dessin représentent les valeurs d'évaluation de mise au point des canaux chB et chC comme obtenu à partir des dispositifs de lecture d'image de détermination d'état de mise au point B et C, de façon respective, en
fonction des positions de mise au point.
Sur la figure 19, une position de mise au point F3 à laquelle la valeur d'évaluation de mise au point du canal chA comme représenté par la courbe a
devient maximum (maximum local) est la position de mise au point.
Maintenant, il est supposé que la position de mise au point de l'objectif de prise d'image 112 est établie à la position de F1 sur la figure 19. Dans ce cas, les 35 valeurs d'évaluation de mise au point respectives des canaux chA, chB et chC sont les valeurs correspondant à la position de mise au point F1 conformément aux courbes a, b et c. Dans ce cas, au moins la valeur d'évaluation de mise au point du canal chB est supérieure à la valeur d'évaluation de mise au point du canal chC, ce qui démontre que la position de mise au point est établie davantage sur le côté de proximité que la position de mise au point F3 qui est la
position de mise au point, c'est-à-dire un état de la mise au point avant.
Par ailleurs, dans le cas o la position de mise au point de l'objectif de prise d'image 112 est établie à la position de F2 sur la figure 19, les valeurs d'évaluation de mise au point respectives des canaux chA, chB et chC sont les valeurs correspondant à la position de mise au point F2 conformément aux courbes a, b et c. Dans ce cas, au moins la valeur d'évaluation de mise au point 10 du canal chC est supérieure à la valeur d'évaluation de mise au point du canal chB, ce qui démontre que la position de mise au point est établie davantage sur le côté d'infini que la position de mise au point F3 qui est la position de mise au
point, c'est-à-dire un état de mise au point arrière.
Dans le cas o la position de mise au point de l'objectif de prise d'image 15 112 est établie à la position de mise au point en F3 sur la figure 19, les valeurs d'évaluation de mise au point respectives des canaux chA, chB et chC sont les valeurs correspondant à la positon de mise au point F3 conformément aux courbes a, b et c. Dans ce cas, la valeur d'évaluation de mise au point du canal chB est égale à la valeur d'évaluation de mise au point du canal chC, ce qui 20 démontre que la position de mise au point est établie à la position de mise au
point F3, c'est-à-dire un état de mise au point.
Par conséquent, il est possible, sur la base des valeurs d'évaluation de mise au point des canaux chA, chB et chC comme obtenu à partir des dispositifs de lecture d'image A, B et C, de façon respective, de déterminer si l'état de mise 25 au point à la position de mise au point courante est la mise au point avant, la mise au point arrière ou la mise au point. Conformément à ce mode de réalisation, la position de mise au point à mettre au point est déterminée comme suit sur la base des valeurs d'évaluation de mise au point des canaux chA, chB et chC comme obtenu à partir des trois dispositifs de lecture d'image A,B et C. Sur la figure 19 qui a été décrite ci-avant, les courbes a, b et c représentant une distribution des valeurs d'évaluation de mise au point respectives des canaux chA, chB et chC peuvent être approximativement selon la même forme. Par conséquent, la valeur d'évaluation de mise au point des canaux chB et chC en une certaine position de mise au point représente la valeur 35 d'évaluation de mise au point du canal chA à la position de mise au point déplacée par rapport à cette position de mise au point d'une valeur de décalage prédéterminée. Par exemple, il est supposé que, sur la courbe a des valeurs d'évaluation de mise au point du canal chA comme représenté sur la figure 20, la position de mise au point est établie à la position de F4. Dans ce cas, la valeur d'évaluation de mise au point du canal chA représente la valeur d'un point PA sur la courbe a. La valeur d'évaluation de mise au point du canal chB représente la 5 valeur d'un point PB sur la courbe a à la position de mise au point F5 qui est déplacée davantage vers le côté d'infini que la position de mise au point F4 de la valeur de décalage prédéterminée. La valeur d'évaluation de mise au point du canal chC représente la valeur d'un point Pc sur la courbe à la position de mise au point F6 déplacée davantage vers le côté de proximité que la position de mise 10 au point F4 de la valeur de décalage prédéterminée. La différence entre la position de mise au point F4 et la position de mise au point F5, c'est-à-dire la valeur de décalage concernant la valeur d'évaluation de mise au point du canal chB, est égale à la différence entre la position de mise au point du point maximum sur la courbe b et la position de mise au point du point maximum sur la 15 courbe a sur la figure 18, par exemple. La différence entre la position de mise au
point F4 et la position de mise au point F6, c'est-à-dire la valeur de décalage concernant la valeur d'évaluation de mise au point du canal chC, est égale à la différence entre la position de mise au point du point maximum sur la courbe c et la position de mise au point du point maximum sur la courbe a sur la figure 19 par 20 exemple.
Par ailleurs, la courbe a peut être approchée par une fonction prédéterminée (courbe de second ordre par exemple). Par conséquent, il est possible d'identifier de façon concrète la courbe a à partir des valeurs d'évaluation de mise au point aux trois points respectifs PA, PB et Pc des canaux 25 chA, chB et chC de manière à acquérir la position de mise au point F3 au niveau de laquelle la valeur d'évaluation de mise au point devient maximum sur la
courbe a.
Après acquisition de cette position de mise au point à mettre au point sur la base des valeurs d'évaluation de mise au point des canaux chA, chB et chC 30 comme décrit ci-avant, la CPU 182 sur la figure 17 envoie le signal de commande sur le circuit de pilotage de moteur de mise au point 130 pour réaliser la position
de mise au point et déplace l'objectif de mise au point F jusqu'à cette position.
Puis une description concernant la configuration de la partie de traitement
de signal 128 à laquelle la présente invention est appliquée par opposition à sa 35 configuration par le passé représentée sur la figure 17 sera présentée. La figure 21 est un schéma fonctionnel qui représente la configuration d'un premier mode de réalisation de la partie de traitement de signal 128 à laquelle la présente invention est appliquée. Sur la figure 21, des blocs qui se voient octroyer les mêmes symboles ou index de référence que ceux dans la configuration passée sur la figure 17 sont les blocs permettant de réaliser le même processus que sur la figure 17 ou un processus similaire. Le premier mode de réalisation sur la 5 figure 21 sera décrit par comparaison avec la configuration dans le passé sur la figure 17. Tandis que les signaux d'image en provenance des dispositifs de lecture d'image de détermination d'état de mise au point A, B et C (ci-après appelés signaux d'image des canaux chA, chB et chC) sont traités en parallèle sur des circuits individuels pour acquérir les valeurs d'évaluation de mise au point 10 des canaux chA, chB et chC selon la configuration dans le passé, une partie de traitement commune (circuit) traite les signaux d'image des canaux chA, chB et chC en temps partagé conformément au premier mode de réalisation sur la figure 21. Pour être davantage spécifique, les signaux d'image des canaux chA, chB 15 et chC sont entrés sur un convertisseur A/N 200 qui comporte trois canaux. Le convertisseur A/N 200 commute les canaux pour chaque trame avec le signal de synchronisation verticale afin de convertir A/N les signaux d'image des canaux chA, chB et chC et émet en sortie les signaux d'image des canaux chA, chB et chC convertis selon les signaux numériques sur un FPH 152 pour chaque trame 20 dans l'ordre. Conformément à ce mode de réalisation, il est supposé que les signaux de synchronisation verticale dans les signaux d'image des canaux chA,
chB et chC se correspondent en termes de cadencement.
Par exemple, le convertisseur A/N 200 convertit les signaux d'image du canal chA depuis les signaux analogiques selon les signaux numériques et les 25 émet en sortie sur le FPH 152 dans une période qui va depuis un certain signal de synchronisation verticale (premier signal de synchronisation verticale) jusqu'au signal de synchronisation verticale suivant (second signal de synchronisation verticale). Puis il convertit les signaux d'image du canal chB depuis les signaux analogiques selon les signaux numériques et il les émet en 30 sortie sur le FPH 152 dans la période qui va depuis le second signal de synchronisation verticale jusqu'au signal de synchronisation verticale suivant (troisième signal de synchronisation verticale). Ensuite, il convertit les signaux d'image du canal chC depuis les signaux analogiques selon les signaux numériques et il les émet en sortie sur le FPH 152 dans la période qui va depuis 35 le troisième signal de synchronisation verticale jusqu'au signal de synchronisation verticale suivant (quatrième signal de synchronisation verticale). Par conséquent, la commutation des canaux depuis le premier signal de synchronisation verticale jusqu'au quatrième signal de synchronisation verticale est répétée de manière à émettre en sortie les signaux d'image des canaux chA, chB et chC convertis selon des signaux numériques pour chaque trame sur le FPH 152. Le convertisseur A/N 200 peut obtenir le signal de synchronisation verticale soit 5 directement à partir du circuit de génération de signal de synchronisation 180, soit à partir des signaux d'image qui sont entrés depuis les dispositifs de lecture d'image A, B et C. Par conséquent, les signaux d'image des canaux chA, chB et chC qui sont émis en sortie sur le FPH 152 depuis le convertisseur A/N 200 ont leurs 10 composantes hautes fréquences qui sont extraites par le FPH 152 comme décrit en ce qui concerne la configuration du passé sur la figure 17. Seulement les signaux dans l'image AF (se reporter à la figure 18) sont extraits et émis en sortie par le circuit de porte 154. Les signaux qui sont équivalents à une trame comme émis en sortie depuis le circuit de porte 154 sont additionnés par l'additionneur 15 156. Par conséquent, la CPU 182 reçoit en application les valeurs d'évaluation de mise au point des canaux chA, chB et chC en commutation pour chaque trame
selon l'ordre des canaux qui sont traités par le convertisseur A/N 200.
Par conséquent, il est possible, en faisant en sorte que les signaux d'image des canaux soient traités en temps partagé par la partie de traitement 20 commune, de réduire une échelle de circuit et une consommation d'énergie ou de puissance de la partie de traitement de signal 128. En particulier, I'effet de partage du FPH 152 présentant une échelle de circuit importante entre les
canaux dans le but du traitement est significatif.
La figure 22 est un schéma fonctionnel qui représente un second mode de 25 réalisation de la configuration de la partie de traitement de signal 128 à laquelle la présente invention est appliquée. Les blocs auxquels les mêmes symboles ou index de référence que ceux dans la configuration passée de la figure 17 et selon le premier mode de réalisation de la figure 21 sont octroyés sont les blocs pour réaliser le même processus que sur les figures 17 et 21 ou un processus 30 similaire. Le processus depuis le FPH 152 et à la suite conformément au second mode de réalisation de la figure 22 correspond au processus depuis le FPH 152 et à la suite conformément au premier mode de réalisation sur la figure 21. Par ailleurs, conformément au second mode de réalisation de la figure 22, les signaux d'image des canaux chA, chB et chC qui sont émis en sortie depuis les 35 dispositifs de lecture d'image A, B et C sont convertis selon les signaux numériques par les convertisseurs A/N 150, 160 et 170 individuellement constitués comme selon la configuration passée sur la figure 17. Ensuite, les
signaux d'image qui sont équivalents à une trame, par exemple, comme émis en sortie depuis les dispositifs de lecture d'image A, B et C en même temps sont stockés dans des mémoires vives statiques ou SRAM 202, 204 et 206, de façon respective. Les signaux d'images qui sont équivalents à une trame comme 5 stocké dans les SRAM 202, 204 et 206 sont émis en sortie sur le FPH 152 selon l'ordre prédéterminé, de façon respective.
Par exemple, les signaux d'image qui sont équivalents à une trame du
canal chA comme stocké dans la SRAM 202 sont émis en sortie sur le FPH 152 en premier et les signaux d'image qui sont équivalents à une trame du canal chB 10 comme stocké dans la SRAM 204 sont ensuite émis en sortie sur le FPH 152.
Ensuite, les signaux d'image qui sont équivalents à une trame du canal chC comme stocké dans la SRAM 206 sont émis en sortie sur le FPH 152. Par conséquent, il est possible, en stockant dans la mémoire les signaux qui sont émis en sortie depuis les dispositifs de lecture d'image A, B et C en même temps, 15 d'obtenir de quelconques valeurs d'évaluation de mise au point des canaux chA, chB et chC sur la base des signaux d'image qui sont obtenus en faisant en sorte que leurs images soient lues sur les dispositifs de lecture d'image A, B et C en même temps. Pour être davantage spécifique, selon le premier mode de réalisation sur la figure 21, les signaux d'image émis en sortie en temps réel 20 depuis les dispositifs de lecture d'image A, B et C sont traités en temps partagé
et ainsi, il n'est pas possible d'obtenir les valeurs d'évaluation de mise au point de l'image lue sur les dispositifs de lecture d'image A, B et C en même temps. Selon le second mode de réalisation de la figure 22, cependant, il est possible d'obtenir les valeurs d'évaluation de mise au point de l'image qui est lue sur les dispositifs 25 de lecture d'image A, B et C en même temps.
Les canaux sont commutés pour chaque trame de manière à traiter les
signaux d'image dans une partie de traitement selon le premier mode de réalisation sur la figure 21 et selon le second mode de réalisation sur la figure 22.
Cependant, il est réalisable de commuter les canaux chaque fois que l'on termine 30 le traitement des signaux d'image au moins nécessaires à l'instant de la recherche des valeurs d'évaluation de mise au point, c'est-à-dire les signaux d'image dans l'image AF (se reporter la figure 18). Le contenu de traitement traité en temps partagé dans une partie de traitement peut être différent de ceux dans les premier et second modes de réalisation et la présente invention peut être 35 appliquée au cas o tout ou une partie du processus réalisé pour les signaux d'image est traitée en temps partagé dans une seule partie de traitement. En particulier, il est également efficace de réaliser seulement le processus du FPH 152 en temps partagé dans une seule partie de traitement et de réaliser le processus autre que celui-ci dans une partie de traitement individuelle de chaque canal. La figure 23 est un schéma fonctionnel qui représente un troisième mode 5 de réalisation de la configuration de la partie de traitement de signal 128 à laquelle la présente invention est appliquée. Les blocs auxquels les mêmes index de référence ou symboles de référence que ceux dans la configuration passée de la figure 17 et du premier mode de réalisation de la figure 21 sont octroyés sont les blocs permettant de réaliser le même processus que sur les figures 17 et 21 10 ou un processus similaire. Bien que le convertisseur A/N 200 selon le premier mode de réalisation de la figure 21 réalise le processus de conversion A/N en commutant les signaux d'image des canaux chA, chB et chC pour chaque trame, le convertisseur A/N 200 selon le troisième mode de réalisation de la figure 23 réalise le processus de conversion A/N en commutant les signaux d'image des 15 canaux chA, chB et chC pour chaque période de balayage horizontal. Par exemple, il convertit les signaux d'image ducanal chA depuis les signaux analogiques selon les signaux numériques et il les émet en sortie sur le FPH 152 dans la période qui va depuis un certain signal de synchronisation horizontale (premier signal de synchronisation horizontale) jusqu'au signal de 20 synchronisation horizontale suivant (second signal de synchronisation horizontale). Puis il convertit les signaux d'image du canal chB depuis les signaux analogiques selon les signaux numériques et il les émet en sortie sur le FPH 152 dans la période qui va depuis le second signal de synchronisation horizontale jusqu'au signal de synchronisation horizontale suivant (le troisième signal de 25 synchronisation horizontale). Ensuite, il convertit les signaux d'image du canal chC depuis les signaux analogiques selon les signaux numériques et il les émet en sortie sur le FPH 152 dans la période qui va depuis le troisième signal de synchronisation horizontale jusqu'au signal de synchronisation horizontale suivant (quatrième signal de synchronisation horizontale). Par conséquent, la 30 commutation des canaux depuis le premier signal de synchronisation horizontale jusqu'au quatrième signal de synchronisation horizontale est répétée de manière à émettre en sortie les signaux d'image des canaux chA, chB et chC qui sont convertis selon des signaux numériques pour chaque période de balayage
horizontal sur le FPH 152.
Les signaux d'image des canaux chA, chB et chC qui sont émis en sortie pour chaque période de balayage horizontal depuis le convertisseur A/N 200 ont leurs composantes hautes fréquences qui sont extraites au moyen du FPH 152
comme décrit en ce qui concerne la configuration dans le passé selon la figure 17. Seulement les signaux dans l'image AF (se reporter à la figure 18) sont extraits et émis en sortie par le circuit de porte 154. Les signaux de sortie du canal chA qui sont traités et émis en sortie depuis le circuit de porte 154 sont 5 entrés sur l'additionneur 156 et les signaux d'image du canal chB qui sont traités et émis en sortie depuis le circuit de porte 154 sont entrés sur l'additionneur 166.
Les signaux d'image du canal chC qui sont traités et émis en sortie depuis le circuit de porte 154 sont entrés sur l'additionneur 176. Ainsi, les signaux qui sont équivalents à une trame comme émis en sortie depuis le circuit de porte 154 sont 10 additionnés par les additionneurs 156, 166 et 176, de façon respective, o la valeur d'évaluation de mise au point du canal chA est acquise par l'additionneur 156, la valeur d'évaluation de mise au point du canal chB est acquise par l'additionneur 166 et la valeur d'évaluation de mise au point du canal chC est acquise par l'additionneur 176. Les valeurs d'évaluation de mise au point des 15 canaux chA, chB et chC comme acquis par les additionneurs 156,166 et 176, de
façon respective, sont appliquées sur la CPU 182 pour chaque trame.
Par conséquent, il est également possible, à l'aide de la partie de traitement commune, de traiter les signaux d'image des canaux en temps partagé pour chaque période de balayage horizontal, ce qui permet de miniaturiser 20 I'échelle de circuit de la partie de traitement de signal 128 comme selon le
premier mode de réalisation ou similaire.
Dans le cas du traitement des signaux d'image des canaux en temps partagé pour chaque période de balayage horizontal comme selon le troisième mode de réalisation, les positions des lignes de balayage horizontal à traiter 25 réellement pour les signaux d'image des canaux chA, chB et chC sont différentes. Afin d'empêcher cela, il est possible décaler les temps pour les signaux de synchronisation verticale des dispositifs de lecture d'image A, B et C d'une période de balayage horizontal conformément à l'ordre des canaux à traiter par le convertisseur A/N 200 de manière à faire en sorte que les signaux d'image 30 de tous les canaux soient traités pour la même position de ligne de balayage horizontal. Pour être davantage spécifique, dans le contexte du processus en temps partagé, il est possible de retarder le cadencement du signal de synchronisation verticale du signal d'image d'un certain canal d'une longueur temporelle dont le processus des signaux d'image des autres canaux est en 35 retard vis-à-vis de ce signal d'image de telle sorte que, selon le processus en temps partagé, la position de ligne de balayage à traitée et la position de ligne de
balayage non à traiter puissent être non différentes entre les canaux.
La figure 24 est un schéma fonctionnel qui représente un quatrième mode de réalisation de la configuration de la partie de traitement de signal 128 à laquelle la présente invention est appliquée. Les blocs auxquels les mêmes symboles de référence que ceux selon le second mode de réalisation de la figure 5 22 et le troisième mode de réalisation de la figure 23 sont octroyés sont les blocs pour réaliser le même processus que sur les figures 22 et 23 ou un processus similaire. En ce qui concerne le quatrième mode de réalisation de la figure 24, le processus depuis le FPH 152 et à la suite correspond au processus depuis le FPH 152 et à la suite selon le troisième mode de réalisation de la figure 23. Par 10 ailleurs, conformément au quatrième mode de réalisation de la figure 24, les signaux d'image des canaux chA, chB et chC comme émis en sortie depuis les dispositifs de lecture d'image A, B et C sont convertis selon les signaux numériques par les convertisseurs A/N 150, 160 et 170 de manière individuelle comme assuré selon le second mode de réalisation sur la figure 22 (la 15 configuration passée sur la figure 17). Ensuite, les signaux d'image qui sont équivalents à une période de balayage horizontal comme émis en sortie depuis les dispositifs de lecture d'image A, B et C en même temps sont stockés dans les SRAM 202, 204 et 206, de façon respective. Les signaux d'image équivalents à une période de balayage horizontal comme stocké dans les SRAM 202, 204 et 20 206 sont émis en sortie sur le FPH 152 dans l'ordre prédéterminé, de façon respective. Les cadencements pour les signaux de synchronisation verticale des
dispositifs de lecture d'image A, B et C se correspondent.
Par exemple, les signaux d'image qui sont équivalents à une période de balayage horizontal du canal chA comme stocké dans la SRAM 202 sont émis en 25 sortie sur le FPH 152 en premier et les signaux d'image équivalents à une période de balayage horizontale du canal chB comme stocké dans la SRAM 204 sont ensuite émis en sortie sur le FPH 152. Ensuite, les signaux d'image équivalents à une période de balayage horizontal du canal chC comme stocké dans la SRAM 206 sont émis en sortie sur le FPH 152. Par conséquent, il est 30 possible, en stockant dans la mémoire les signaux d'image qui sont émis en
sortie depuis les dispositifs de lecture d'image A, B et C en même temps, d'obtenir les valeurs d'évaluation de mise au point des canaux chA, chB et chC sur la base des signaux d'image à la même position de ligne de balayage horizontal comme obtenu en faisant en sorte que leurs images soient lues sur les 35 dispositifs de lecture d'image A, B et C en même temps.
Les canaux sont commutés pour chaque période de balayage horizontal de manière à traiter les signaux d'image dans une seule partie de traitement selon le troisième mode de réalisation de la figure 23 et le quatrième mode de réalisation de la figure 24. Cependant, il est également réalisable de commuter les canaux chaque fois que le traitement des signaux d'image au moins nécessaires à l'instant de la recherche des valeurs d'évaluation de mise au point 5 est terminé, c'est-à-dire les signaux d'image dans l'image AF (se reporter à la figure 18). Les contenus de traitement à traiter en temps partagé dans une seule partie de traitement peuvent être différents de ceux selon les troisième et quatrième modes de réalisation, et la présente invention peut être appliquée au cas o la totalité ou une partie du processus réalisé sur les signaux d'image est 10 traitée en temps partagé dans une seule partie de traitement. En particulier, il est également efficace de réaliser seulement le processus du FPH 152 en temps partagé dans une seule partie de traitement et de réaliser le processus autre que
celui-ci dans une partie de traitement individuelle de chaque canal.
Les modes de réalisation qui ont été présentés ci-avant ont été décrits en 15 ce qui concerne les cas de l'application de la présente invention à la configuration
de la partie de traitement de signal 128 comportant les trois dispositifs de lecture d'image de détermination d'état de mise au point. Cependant, la présente invention peut être appliquée au cas o il y a une pluralité de dispositifs de lecture d'image de détermination d'état de mise au point, leur nombre n'étant pas 20 limité à trois.
Il est également possible de combiner la matière décrite sur les figures 1 à 13 avec la matière décrite sur les figures 14 à 24 de manière à constituer le
système de mise au point automatique incluant les deux matières.
Comme il a été décrit ci-avant, le système de mise au point automatique 25 selon la présente invention comporte un correcteur qui réalise une correction concernant la sensibilité de la valeur d'évaluation de mise au point qui est obtenue à partir de chacun des dispositifs de lecture d'image et ainsi, il devient possible de réaliser une correction adéquate en ce qui concerne la sensibilité des valeurs d'évaluation de mise au point de manière à exercer la commande de 30 mise au point automatique selon une précision élevée. On peut également réaliser de manière automatique une correction concernant la sensibilité de la valeur d'évaluation de mise au point de manière à éliminer un travail peu commode. La totalité du processus de commande de mise au point automatique ou 35 une partie de celui-ci utilisant la pluralité de dispositifs de lecture d'image placés aux positions de différentes longueurs de chemin lumineux est exercée au moyen de l'unique partie de traitement en temps partagé de telle sorte que l'échelle de circuit peut être miniaturisée et la consommation d'énergie ou de puissance peut
être réduite.
Cependant, il doit être bien compris qu'il n'y a aucune intention de limiter l'invention aux formes spécifiques divulguées mais qu'à l'opposé, I'invention est 5 destinée à couvrir toutes les modifications, toutes les autres constructions et tous les équivalents qui tombent dans l'esprit et le cadre de l'invention comme
exprimée dans les revendications annexées.
Claims (14)
1. Système de mise au point automatique caractérisé en ce qu'il comprend: une pluralité de dispositifs de lecture d'image (32A, 32B) qui lisent des images d'une lumière objet qui arrive en incidence sur un objectif de prise 5 d'image et qui sont agencés en des positions de différentes longueurs de chemin lumineux; un dispositif de génération de valeur d'évaluation de mise au point (70) qui génère une valeur d'évaluation de mise au point indiquant un degré de netteté de l'image qui est prise par chacun des dispositifs de lecture d'image (32A, 32B); un correcteur (40) qui réalise une correction en termes de sensibilité de la valeur d'évaluation de mise au point qui est obtenue à partir de chacun des dispositifs de lecture d'image (32A, 32B) de telle sorte que les sensibilités soient en correspondance; et un dispositif de commande de mise au point (40) qui déplace un foyer de 15 I'objectif de prise d'image jusqu'à une position de mise au point conformément
aux valeurs d'évaluation de mise au point.
2. Système de mise au point automatique selon la revendication 1, caractérisé en ce que: une valeur obtenue, pour chaque valeur d'évaluation de mise au point qui 20 est obtenue à partir de chacun des dispositifs de lecture d'image (32A, 32B), en multipliant une variation de la valeur d'évaluation de mise au point par rapport à une valeur de référence prédéterminée par un gain prédéterminé est la valeur d'évaluation de mise au point qui est utilisée pour commander le foyer/la mise au point de l'objectif de prise d'image; et le correcteur (40) réalise une correction en ce qui concerne la sensibilité en établissant la valeur de référence et le gain à des valeurs appropriées, et comprenant en outre: un dispositif d'établissement de valeur de référence qui établit en tant que valeur de référence la valeur d'évaluation de mise au point qui est obtenue à 30 partir de chacun des dispositifs de lecture d'image (32A, 32B) dans un cas dans lequel une image ne présentant pas de contraste est prise; et un dispositif d'établissement de gain qui établit le gain de telle sorte qu'une valeur maximum de la valeur d'évaluation de mise au point qui est obtenue à partir de chacun des dispositifs de lecture d'image (32A, 32B) soit en correspondance dans un cas dans lequel la mise au point de l'objectif de prise
d'image est déplacée.
3. Système de mise au point automatique selon la revendication 1 ou 2, caractérisé en ce que le correcteur (40) réalise de manière automatique une 5 correction concernant la sensibilité à au moins un instant pris parmi un instant d'activation d'un commutateur prédéterminé (74), un instant de mise en route et
un instant d'initialisation avant expédition.
4. Système de mise au point automatique selon la revendication 2, caractérisé en ce que le correcteur (40) stocke la valeur de référence et le gain 10 qui sont établis par le dispositif d'établissement de valeur de référence et par le dispositif d'établissement de gain en tant que données de correction dans une
mémoire (72).
5. Système de mise au point automatique selon la revendication 2, caractérisé en ce que le dispositif d'établissement de valeur de référence a 15 I'image qui ne présente pas de contraste qui est lue par chacun des dispositifs de lecture d'image (32A, 32B) en fermant un diaphragme (20) de l'objectif de prise d'image.
6. Système de mise au point automatique selon la revendication 2, caractérisé en ce que, à l'instant de la mise à disposition du gain établi par le 20 dispositif d'établissement de gain, le correcteur (40) déplace la mise au point dans un état dans lequel un zoom de l'objectif de prise d'image est établi en une
position prédéterminée.
7. Système de mise au point automatique selon la revendication 2, caractérisé en ce que le dispositif d'établissement de gain déplace la mise au 25 point de l'objectif de prise d'image à une vitesse élevée pour vérifier l'existence de la valeur maximum de la valeur d'évaluation de mise au point qui est obtenue à partir de chacun des dispositifs de lecture d'image (32A, 32B) puis déplace la mise au point à une vitesse faible afin de déterminer de façon précise la valeur maximum.
8. Système de mise au point automatique selon la revendication 1 ou 2, caractérisé en ce que le système comporte un indicateur (76) qui indique que le correcteur (40) est juste en train de réaliser une correction en ce qui concerne
la sensibilité.
9. Système de mise au point automatique, caractérisé en ce qu'il 35 comprend: une pluralité de dispositifs de lecture d'image (A, B, C) qui lisent des images d'une lumière objet qui arrive en incidence sur un objectif de prise d'image et qui sont agencés en des positions de différentes longueurs de chemin lumineux; un contrôleur de mise au point (128) qui commande une mise au point de l'objectif de prise d'image conformément à un signal d'image qui est obtenu par 5 chacun des dispositifs de lecture d'image (A, B, C) afin de réaliser une mise au point automatique; et une unique partie de traitement (182) pour, en ce qui concerne chaque
signal d'image en provenance de chacun des dispositifs de lecture d'image (A, B, C), réaliser la totalité ou une partie du même processus réalisé pour chaque 10 signal d'image en temps partagé.
10. Système de mise au point automatique selon la revendication 9, caractérise en ce que: une trame AF est établie en tant que trame pour identifier une plage sur laquelle est réalisée une mise au point selon un angle de vue de l'objectif de 15 prise d'image; et la partie de traitement (182) commute les signaux d'image à traiter selon
les signaux d'image en provenance d'un autre dispositif de lecture d'image chaque fois que la partie de traitement termine au moins le traitement des signaux d'image dans la trame AF, des signaux d'image en provenance d'un 20 dispositif de lecture d'image.
11. Système de mise au point automatique selon la revendication 9, caractérisé en ce que: une image AF est établie en tant qu'image pour identifier une plage sur laquelle est réalisée une mise au point selon un angle de vue de l'objectif de 25 prise d'image; et la partie de traitement (182) commute les signaux d'image à traiter selon
les signaux d'image en provenance d'un autre dispositif de lecture d'image chaque fois que la partie de traitement termine le traitement d'une partie des signaux d'image, des signaux d'image dans la trame AF en provenance d'un 30 dispositif de lecture d'image.
12. Système de mise au point automatique selon la revendication 10 ou 11, caractérisé en ce qu'il comprend en outre: un dispositif de stockage (184) qui stocke les signaux d'image en provenance de chacun des dispositifs de lecture d'image (A, B, C), et en ce que 35 la partie de traitement (182) réalise une lecture à partir du dispositif de stockage (184) et traite les signaux d'image qui sont émis en sortie à partir des
dispositifs de lecture d'image (A, B, C) en même temps.
13. Système de mise au point automatique selon la revendication 11, caractérisé en ce que les signaux d'image destinés à être traités sont commutés
par référence à un signal de synchronisation horizontale.
14. Système de mise au point automatique selon la revendication 13, 5 caractérisé en ce qu'un signal de synchronisation verticale des signaux d'image en provenance de chacun des dispositifs de lecture d'image (A, B, C) est dévié
pendant une certaine période temporelle.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002243360A JP4032877B2 (ja) | 2002-08-23 | 2002-08-23 | オートフォーカスシステム |
JP2002277041A JP2004117492A (ja) | 2002-09-24 | 2002-09-24 | オートフォーカスシステム |
Publications (2)
Publication Number | Publication Date |
---|---|
FR2843809A1 true FR2843809A1 (fr) | 2004-02-27 |
FR2843809B1 FR2843809B1 (fr) | 2006-01-06 |
Family
ID=31497670
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
FR0310096A Expired - Fee Related FR2843809B1 (fr) | 2002-08-23 | 2003-08-22 | Systeme de mise au point automatique avec correction de sensibilite |
Country Status (3)
Country | Link |
---|---|
US (1) | US7345706B2 (fr) |
DE (1) | DE10338246A1 (fr) |
FR (1) | FR2843809B1 (fr) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4576852B2 (ja) * | 2004-03-04 | 2010-11-10 | 富士フイルム株式会社 | ピント状態検出装置 |
EP1601189A2 (fr) * | 2004-05-26 | 2005-11-30 | Fujinon Corporation | Système de focalisation automatique |
JP4865284B2 (ja) * | 2005-09-13 | 2012-02-01 | キヤノン株式会社 | 合焦結像光学系 |
JP5023478B2 (ja) * | 2005-11-30 | 2012-09-12 | 富士通株式会社 | 移動式無線通信装置 |
KR100781273B1 (ko) * | 2006-02-20 | 2007-11-30 | 엘지전자 주식회사 | 카메라 모듈의 오차 보정 장치 및 그 방법 |
JP2008009340A (ja) * | 2006-06-30 | 2008-01-17 | Sony Corp | オートフォーカス装置、撮像装置及びオートフォーカス方法 |
JP2008046415A (ja) * | 2006-08-17 | 2008-02-28 | Fujinon Corp | レンズ装置 |
JP4922768B2 (ja) * | 2007-01-09 | 2012-04-25 | 株式会社エルモ社 | 撮像装置、焦点自動調節方法 |
JP5031475B2 (ja) * | 2007-07-31 | 2012-09-19 | キヤノン株式会社 | ズームレンズ及びそれを有する撮影システム |
JP5409028B2 (ja) * | 2009-01-30 | 2014-02-05 | キヤノン株式会社 | 分割光学系及びそれを用いた撮像光学系、撮像装置 |
KR20130005882A (ko) * | 2011-07-07 | 2013-01-16 | 삼성전자주식회사 | 디지털 촬영 장치, 그 제어방법, 및 오토포커싱 방법 |
US9288379B2 (en) * | 2014-03-12 | 2016-03-15 | Omnivision Technologies, Inc. | System and method for continuous auto focus within camera module |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE2836428A1 (de) * | 1978-08-19 | 1980-03-06 | Battelle Institut E V | Verfahren und vorrichtung zur automatischen scharfeinstellung von objektiven |
US4414575A (en) * | 1980-11-21 | 1983-11-08 | Hitachi Denshi Kabushiki Kaisha | Autofocus system |
JPH08152550A (ja) * | 1994-11-28 | 1996-06-11 | Nec Corp | 顕微鏡自動焦点装置 |
Family Cites Families (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4352545A (en) * | 1979-02-13 | 1982-10-05 | Asahi Kogaku Kogyo Kabushiki Kaisha | Camera focus detecting device |
JPS5674208A (en) | 1979-11-21 | 1981-06-19 | Nippon Kogaku Kk <Nikon> | Automatic focus adjusting device |
JPS5737336A (en) | 1980-08-19 | 1982-03-01 | Asahi Optical Co Ltd | Automatic focus detector for camera |
JPS5764711A (en) | 1980-10-09 | 1982-04-20 | Asahi Optical Co Ltd | Automatic focus detector for camera |
JPS5772115A (en) | 1980-10-23 | 1982-05-06 | Canon Inc | Output stablizing circuit for focus detector |
JPS5772111A (en) | 1980-10-23 | 1982-05-06 | Canon Inc | Camera |
JPS57158820A (en) * | 1981-03-27 | 1982-09-30 | Olympus Optical Co Ltd | Method for focusing detection |
JPS57161838A (en) | 1981-03-31 | 1982-10-05 | Canon Inc | Focus detector of camera |
JPS59184110A (ja) | 1983-04-04 | 1984-10-19 | Sumitomo Chem Co Ltd | 農園芸用殺菌組成物 |
JPS59204807A (ja) | 1983-05-09 | 1984-11-20 | Asahi Optical Co Ltd | 自動焦点レンズの駆動方法および駆動装置 |
JPS6163812A (ja) | 1985-07-29 | 1986-04-02 | Canon Inc | カメラの焦合状態検出素子構体 |
JPH0399589A (ja) * | 1989-09-13 | 1991-04-24 | Toshiba Corp | 固体カメラ |
EP0439357B1 (fr) * | 1990-01-25 | 1997-07-23 | Hewlett-Packard Company | Procédé et appareil pour la provision de compensation du détecteur dans un balayeur de documents |
JP3065699B2 (ja) | 1991-04-10 | 2000-07-17 | オリンパス光学工業株式会社 | 合焦位置検出装置 |
JPH05232370A (ja) | 1992-02-19 | 1993-09-10 | Olympus Optical Co Ltd | 顕微鏡の合焦検出装置 |
KR100275185B1 (ko) * | 1993-06-17 | 2000-12-15 | 다카노 야스아키 | 영상 신호에 응답하여 촛점의 자동 정합을 행하는 오토 포커스 장치 |
US5541656A (en) * | 1994-07-29 | 1996-07-30 | Logitech, Inc. | Digital camera with separate function and option icons and control switches |
JPH08248302A (ja) | 1995-03-14 | 1996-09-27 | Nikon Corp | 自動焦点検出装置 |
JPH08320430A (ja) | 1995-05-23 | 1996-12-03 | Nikon Corp | 自動焦点検出装置 |
JP3709238B2 (ja) | 1996-04-30 | 2005-10-26 | オリンパス株式会社 | 自動焦点検出装置及びそれを適用した顕微鏡 |
JPH10122813A (ja) | 1996-10-23 | 1998-05-15 | Ricoh Co Ltd | 光学式変位センサ |
JP3265212B2 (ja) | 1997-01-22 | 2002-03-11 | 隆司 松山 | 多重フォーカス測距装置 |
JP2002023044A (ja) * | 2000-07-12 | 2002-01-23 | Canon Inc | 焦点検出装置、測距装置及びカメラ |
JP2002196247A (ja) | 2000-12-26 | 2002-07-12 | Nikon Corp | 自動焦点合わせ可能な顕微鏡 |
JP2002296493A (ja) * | 2001-03-30 | 2002-10-09 | Fuji Photo Optical Co Ltd | ピント状態検出装置 |
-
2003
- 2003-08-18 US US10/642,143 patent/US7345706B2/en not_active Expired - Fee Related
- 2003-08-20 DE DE10338246A patent/DE10338246A1/de not_active Ceased
- 2003-08-22 FR FR0310096A patent/FR2843809B1/fr not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE2836428A1 (de) * | 1978-08-19 | 1980-03-06 | Battelle Institut E V | Verfahren und vorrichtung zur automatischen scharfeinstellung von objektiven |
US4414575A (en) * | 1980-11-21 | 1983-11-08 | Hitachi Denshi Kabushiki Kaisha | Autofocus system |
JPH08152550A (ja) * | 1994-11-28 | 1996-06-11 | Nec Corp | 顕微鏡自動焦点装置 |
Non-Patent Citations (1)
Title |
---|
PATENT ABSTRACTS OF JAPAN vol. 1996, no. 10 31 October 1996 (1996-10-31) * |
Also Published As
Publication number | Publication date |
---|---|
US20040036794A1 (en) | 2004-02-26 |
DE10338246A1 (de) | 2004-04-01 |
FR2843809B1 (fr) | 2006-01-06 |
US7345706B2 (en) | 2008-03-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2007025595A (ja) | オートフォーカス装置 | |
FR2843809A1 (fr) | Systeme de mise au point automatique avec correction de sensibilite | |
US7437065B2 (en) | Imaging apparatus | |
FR2843808A1 (fr) | Systeme de mise au point automatique avec deplacement de foyer | |
US7633545B2 (en) | Focus detecting system | |
JPH01106006A (ja) | ズームレンズ | |
JP6849438B2 (ja) | 撮像装置及び撮像装置の制御方法 | |
JP6398250B2 (ja) | 焦点検出装置 | |
JP4032877B2 (ja) | オートフォーカスシステム | |
JP2009109792A (ja) | オートフォーカス装置及びこれを用いるカメラ | |
JP4692425B2 (ja) | オートフォーカスシステム | |
JPH1123944A (ja) | フオーカス調整方法 | |
KR20130005882A (ko) | 디지털 촬영 장치, 그 제어방법, 및 오토포커싱 방법 | |
JPH09274130A (ja) | レンズ鏡筒及びカメラ | |
JP2004354714A (ja) | 可視光・赤外光撮影用レンズシステム | |
JP2004258085A (ja) | オートフォーカスシステム | |
JP2004212458A (ja) | オートフォーカスシステム | |
JP6014977B2 (ja) | 焦点検出装置、カメラボディ、およびカメラ | |
JP5475417B2 (ja) | 撮像素子の特性調整方法及び特性調整装置 | |
JPH03280005A (ja) | オートフォーカス装置 | |
JP2006215284A (ja) | オートフォーカスシステム | |
JP2007140305A5 (fr) | ||
JP2004151608A (ja) | オートフォーカスシステム | |
JP2005062237A (ja) | オートフォーカスシステム | |
JP2013190569A (ja) | 撮像装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
CD | Change of name or company name | ||
PLFP | Fee payment |
Year of fee payment: 14 |
|
ST | Notification of lapse |
Effective date: 20180430 |