JP2000009430A - Optical device - Google Patents

Optical device

Info

Publication number
JP2000009430A
JP2000009430A JP18811198A JP18811198A JP2000009430A JP 2000009430 A JP2000009430 A JP 2000009430A JP 18811198 A JP18811198 A JP 18811198A JP 18811198 A JP18811198 A JP 18811198A JP 2000009430 A JP2000009430 A JP 2000009430A
Authority
JP
Japan
Prior art keywords
defocus
optical system
defocus distribution
distribution
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP18811198A
Other languages
Japanese (ja)
Inventor
Hitoshi Oonoda
仁 大野田
Terutake Kadohara
輝岳 門原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP18811198A priority Critical patent/JP2000009430A/en
Publication of JP2000009430A publication Critical patent/JP2000009430A/en
Pending legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

PROBLEM TO BE SOLVED: To obtain the distance information of an optical system from a defocus distribution information, even if no distance information of the optical system is directly obtained. SOLUTION: A defocus distribution measuring means for measuring 2-dimensional defocus distribution in the outside world; a storage means where a plurality of defocus distribution information at each outside world position conjugate with each focal point of an optical system is held as data in advance; and outside world position estimating means 301-311 which estimate outside world position conjugate with the focal point of a current optical system, through comparison between the defocus distribution measured by the defocus distribution measuring means and the plurality of defocus distribution information stored in the storage means; are provided.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、外界中の2次元の
デフォーカス分布を測定するデフォーカス分布測定手段
を有する光学装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an optical device having a defocus distribution measuring means for measuring a two-dimensional defocus distribution in the outside world.

【0002】[0002]

【従来の技術】複数の方向に存在する物体までの距離を
光学的に測定する技術が、本出願人による特公平4−6
78607号にて開示されている。これは、被写界に存
在する物体の距離分布情報を得、その後に前記物体の距
離分布情報に基づき被写界中の主被写体の存在領域を推
測するといった技術である。
2. Description of the Related Art A technique for optically measuring a distance to an object existing in a plurality of directions is disclosed in Japanese Patent Publication No. 4-6 / 1994.
No. 78607. This is a technique of obtaining distance distribution information of an object existing in an object scene, and then estimating the existence area of a main subject in the object scene based on the distance distribution information of the object.

【0003】ここで、従来行われていた典型的な主被写
体領域の推測方法について、図15を用いて説明する。
Here, a typical method of estimating a main subject area, which has been conventionally performed, will be described with reference to FIG.

【0004】図15(a)のシーンをCCDなどを用い
たステレオカメラなどで撮影する。ステレオカメラで得
られる互いに視差を伴った二つの画像を、それぞれm×
n個のブロックに分割する。そして、一方の画像のある
ブロック内の信号と、他方のカメラで撮影した対応する
ブロック内の信号の間で公知の相関演算を行うと、三角
測量の原理により、前ブロック内の物体までの距離を測
定することができる。この測定をすべてのブロックに対
して行うことにより、図15(b)のようなm×nブロ
ックからなる距離分布情報が得られる。
The scene of FIG. 15A is photographed by a stereo camera using a CCD or the like. Two images with parallax obtained by a stereo camera are each mx
Divide into n blocks. Then, when a known correlation operation is performed between a signal in a certain block of one image and a signal in a corresponding block captured by the other camera, a distance to an object in a previous block is obtained according to the principle of triangulation. Can be measured. By performing this measurement for all blocks, distance distribution information including m × n blocks as shown in FIG. 15B is obtained.

【0005】次に、被写界を構成する各物体を画面上で
分離するために領域分割(以下、グルーピングとも記
す)を行う。このグルーピングが行われると前述のm×
nブロックからなる被写界空間は、図15(c)のよう
に物体毎に領域分割される。(図中の斜線部分は像信号
のコントラスト不足などで、相関演算結果の信頼性が低
いと判断された領域である。) グルーピングの手法として、被写界空間を構成するブロ
ックと、これに隣接するブロックに関する二つのパラメ
ータの類似度を比較して、類似度が高ければ同一物体、
類似度が低ければ別の物体と判断する方法が存在する。
前記パラメータとして用いられる情報は、緻密な距離分
布データが得られる場合には面の法線ベクトルであるこ
とが多く、この従来例のように比較的荒い距離分布デー
タの場合には単純に距離値などが用いられる。
Next, in order to separate the objects constituting the object scene on the screen, area division (hereinafter also referred to as grouping) is performed. When this grouping is performed, the aforementioned mx
The object space composed of n blocks is divided into regions for each object as shown in FIG. (The shaded area in the figure is the area where the reliability of the correlation operation result is judged to be low due to lack of contrast of the image signal, etc.) As a grouping method, a block constituting the object space and an adjacent block Comparing the similarity of two parameters related to the block to be performed, if the similarity is high, the same object,
If the degree of similarity is low, there is a method of determining another object.
The information used as the parameter is often a normal vector of the surface when dense distance distribution data is obtained, and is simply a distance value in the case of relatively rough distance distribution data as in this conventional example. Are used.

【0006】例えば、図15(b)の各ブロックの距離
情報に対して、隣接する二つのブロックの距離情報を比
較してこの距離の差が所定のしきい値以内であれば、
「二つのブロックを構成する物体は同一物体を形成す
る」と判定し、また距離の差が所定のしきい値より大き
ければ、「二つのブロックを構成する物体は別物体であ
る」と判定する。すべてのブロックとその隣接関係にあ
るブロックとの間で、前述の判定を行うことで、画面全
体を物体毎に領域分けすることができ、分割された各領
域は一つの物体を表わすグループとして扱うことができ
る。
For example, the distance information of each block shown in FIG. 15B is compared with the distance information of two adjacent blocks, and if the difference between the distances is within a predetermined threshold value,
It is determined that "objects forming two blocks form the same object", and if the difference in distance is greater than a predetermined threshold, it is determined that "objects forming two blocks are different objects". . By performing the above-described determination between all blocks and blocks adjacent thereto, the entire screen can be divided into regions for each object, and each divided region is treated as a group representing one object be able to.

【0007】次に、撮影空間を構成する各領域(各グル
ープ)の特性を評価して、すべてのグループの中から主
被写体を表わすグループを決定する。
Next, the characteristics of each region (each group) constituting the photographing space are evaluated, and a group representing the main subject is determined from all the groups.

【0008】例えば図15(c)の場合、図示の1〜7
の各グループすべてについて、平均的な距離や、領域の
幅、高さ、画面上の位置などの特性をそれぞれ演算し
て、それらを総合評価して主被写体と考えられる領域を
判定する。
For example, in the case of FIG.
For each of the groups, characteristics such as an average distance, a width, a height of the area, and a position on the screen are calculated, and a comprehensive evaluation is performed to determine an area considered as a main subject.

【0009】次に、主被写体として判定した領域に焦点
が合うように、主被写体領域内の距離情報に基づき一つ
の焦点調節距離を決定した後、レンズを駆動して焦点を
合わせる。
Next, one focus adjustment distance is determined based on the distance information in the main subject area so that the area determined as the main subject is focused, and then the lens is driven to focus.

【0010】以上のような主被写体領域の推測方法に関
して、グループ化の精度を高めるための提案が、本出願
人によりなされている(特願平8−325327号)。
これによれば、グループ化に際して用いるしきい値を注
目ブロックのデフォーカス量に対して非線型特性を持っ
たものとし、更にこの非線型特性を撮影レンズの距離情
報(現在の被写界でピントの合っている位置、即ち、現
在の撮影光学系の焦点位置と共役な被写界での位置情
報)により切り換えるものとしている。
With respect to the above method of estimating the main subject region, a proposal for improving the accuracy of grouping has been made by the present applicant (Japanese Patent Application No. 8-325327).
According to this, the threshold value used for grouping is assumed to have a non-linear characteristic with respect to the defocus amount of the block of interest, and this non-linear characteristic is further converted to distance information of the photographing lens (focus on the current object field) (I.e., position information in the field of view conjugate with the current focus position of the photographing optical system).

【0011】[0011]

【発明が解決しようとする課題】ところで、システム
上、上記撮影レンズの距離情報が得られなくとも、デフ
ォーカス量のみ検出可能ならば自動焦点調節機能は実現
できる。しかしこの種の装置においては、前記撮影レン
ズの距離情報を直接得ることができないため、上記の様
なグルーピングを行い、画面内における主被写体を認識
するといったことが困難であった。
By the way, even if the distance information of the photographing lens cannot be obtained in the system, if only the defocus amount can be detected, the automatic focusing function can be realized. However, in this type of apparatus, since the distance information of the photographing lens cannot be directly obtained, it is difficult to perform the above-described grouping and to recognize the main subject in the screen.

【0012】(発明の目的)本発明の第1の目的は、光
学系の距離情報を直接得ることができなくとも、デフォ
ーカス分布の情報より光学系の距離情報を得ることので
きる光学装置を提供しようとするものである。
(Object of the Invention) A first object of the present invention is to provide an optical device capable of obtaining distance information of an optical system from information of a defocus distribution even if distance information of the optical system cannot be directly obtained. It is something to offer.

【0013】本発明の第2の目的は、デフォーカス分布
の情報より光学系の距離情報を得る野に要する時間を、
短縮することのできる光学装置を提供しようとするもの
である。
A second object of the present invention is to reduce the time required for obtaining the distance information of the optical system from the information on the defocus distribution.
An object is to provide an optical device that can be shortened.

【0014】[0014]

【課題を解決するための手段】上記第1の目的を達成す
るために、請求項1〜6記載の本発明は、外界中の2次
元のデフォーカス分布を測定するデフォーカス分布測定
手段を有する光学装置において、光学系のそれぞれ焦点
位置と共役な各外界位置における複数のデフォーカス分
布情報をデータとして予め保持している記憶手段と、前
記デフォーカス分布測定手段により測定されたデフォー
カス分布と前記記憶手段に記憶された複数のデフォーカ
ス分布情報との比較により、現在の光学系の焦点位置と
共役な外界位置を推測する外界位置推測手段とを有した
光学装置とするものである。
In order to achieve the first object, the present invention has a defocus distribution measuring means for measuring a two-dimensional defocus distribution in the outside world. In the optical device, a storage unit that previously holds a plurality of pieces of defocus distribution information as data at each external position conjugate to the focal position of the optical system, and a defocus distribution measured by the defocus distribution measurement unit, and The present invention is an optical device having an external position estimating means for estimating an external position conjugate to the current focal position of the optical system by comparing with a plurality of pieces of defocus distribution information stored in the storage means.

【0015】また、上記第2の目的を達成するために、
請求項2記載の本発明は、前記デフォーカス分布測定手
段により測定されたデフォーカス分布から現在の光学系
の焦点位置と共役な外界位置を推測する際に用いる、前
記記憶手段内のデフォーカス分布情報の範囲を、外部よ
り指示する操作部材を有した光学装置とするものであ
る。
Further, in order to achieve the second object,
The present invention according to claim 2, wherein the defocus distribution in the storage means is used for estimating an external world position conjugate with the current focus position of the optical system from the defocus distribution measured by the defocus distribution measurement means. The range of information is an optical device having an operation member for designating from outside.

【0016】[0016]

【発明の実施の形態】以下、本発明を図示の実施の形態
に基づいて詳細に説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, the present invention will be described in detail based on illustrated embodiments.

【0017】カメラの自動焦点調節機能を例に、被写界
中のデフォーカス分布情報から現在の撮影レンズの距離
情報を得る実施の形態について説明する。
An embodiment of obtaining the current distance information of the photographing lens from the defocus distribution information in the object field will be described with reference to the automatic focusing function of the camera as an example.

【0018】図1は本発明の実施の一形態に係るカメラ
の基本構成要素のブロック図であり、図中、51は被写
界中の任意の場所のデフォーカス量を測定するデフォー
カス分布測定回路、52はデフォーカス分布情報から撮
影レンズの距離情報を得る距離情報検出回路、53はデ
フォーカス分布情報から得た距離情報を用いて撮影画面
内から主被写体が存在する領域を検出する主被写体領域
検出回路、54は撮影光学系、55はレンズを駆動して
焦点を調節するレンズ駆動装置、56は焦点調節距離決
定回路である。57は制御装置であり、実際にはマイク
ロコンピュータのCPUやRAMとROM等で構成され
る。この中で、51のデフォーカス分布測定回路はコン
ピュータと測定用光学系から具現化されることから、点
線を跨いだ表現となっている。
FIG. 1 is a block diagram of basic components of a camera according to an embodiment of the present invention. In FIG. 1, reference numeral 51 denotes a defocus distribution measurement for measuring a defocus amount at an arbitrary position in an object scene. A reference numeral 52 denotes a distance information detecting circuit for obtaining distance information of the photographing lens from the defocus distribution information; a reference numeral 53 denotes a main subject for detecting an area where the main subject exists from the photographing screen using the distance information obtained from the defocus distribution information. An area detection circuit, 54 is a photographing optical system, 55 is a lens driving device that drives a lens to adjust the focus, and 56 is a focus adjustment distance determination circuit. Reference numeral 57 denotes a control device, which is actually composed of a microcomputer CPU, RAM, ROM, and the like. Among them, the defocus distribution measuring circuit 51 is embodied by a computer and an optical system for measurement, and thus is represented by straddling a dotted line.

【0019】図2〜図5は、図1に示す上記カメラの具
体的な構成を示す図である。
FIG. 2 to FIG. 5 are diagrams showing a specific configuration of the camera shown in FIG.

【0020】図2は、被写界の距離を検出する為のカメ
ラの光学構成要素の配置図であり、図中、1は撮影レン
ズ、8はフィールドレンズ、9は二次結像レンズ、10
はエリアセンサである。
FIG. 2 is an arrangement view of optical components of a camera for detecting the distance of the object field. In FIG. 2, 1 is a photographing lens, 8 is a field lens, 9 is a secondary imaging lens,
Is an area sensor.

【0021】前記エリアセンサ10の二つの撮影画面1
0a,10b上には各々撮影レンズ1のお互いに異なる
瞳位置からの光束が導かれ、フィールドレンズ8、二次
結像レンズ9により定まる結像倍率で再結像される。こ
のエリアセンサ10は撮影レンズ1に対して撮影フィル
ム面と光学的に等価な位置にあり、撮影画面10a,1
0bは各々撮影画面の一部または撮影画面に等しい視野
を有している。
Two photographing screens 1 of the area sensor 10
Light beams from different pupil positions of the photographing lens 1 are respectively guided onto 0a and 10b, and are re-imaged at an imaging magnification determined by the field lens 8 and the secondary imaging lens 9. The area sensor 10 is located at a position optically equivalent to the photographic film surface with respect to the photographic lens 1, and has a photographic screen 10a
0b has a field of view equal to a part of the photographing screen or the photographing screen.

【0022】図3は、図2に示した検出光学系をカメラ
に適した場合のレイアウトを示したもので、図中、6は
クイックリターンミラー、18はペンタプリズム、19
は分割プリズム、20は反射ミラーであり、他は図3と
同様である。又図4は、図3のレイアウトをカメラ上部
方向より見た図である。
FIG. 3 shows a layout when the detection optical system shown in FIG. 2 is suitable for a camera. In FIG. 3, reference numeral 6 denotes a quick return mirror, 18 denotes a pentaprism, and 19 denotes a pentaprism.
Is a split prism, 20 is a reflection mirror, and the other is the same as FIG. FIG. 4 is a view of the layout of FIG. 3 as viewed from above the camera.

【0023】以上の様な構成により、所定の視差を持っ
た撮影画像10a,10bが得られる。
With the above-described configuration, captured images 10a and 10b having a predetermined parallax can be obtained.

【0024】尚、前述の構成を有するカメラについて
は、特願平5−278433等で詳細に開示されてい
る。
The camera having the above configuration is disclosed in detail in Japanese Patent Application No. 5-278433.

【0025】図5は、上記の図2の如き各部品を備えた
カメラの回路構成を示すブロック図であり、先ずその構
成について説明する。
FIG. 5 is a block diagram showing a circuit configuration of a camera provided with the respective components as shown in FIG. 2, and the configuration will be described first.

【0026】図5において、PRSは図1の制御装置5
7に相当するカメラの制御装置で、例えば、内部にCP
U(中央処理装置),ROM,RAM,A/D変換機能
を有する1チップのマイクロコンピュータである。この
カメラの制御装置(以下、マイコンと記す)PRSはR
OMに格納されたカメラのシーケンス・プログラムに従
って、自動露出制御機能,自動焦点調節機能,フィルム
の巻上げ・巻戻し等のカメラの一連の動作を行ってい
る。その為にマイコンPRSは、通信用信号SO,S
I,SCLK、通信選択信号CKCM,CDDR,CI
CCを用いて、カメラ本体内の周辺回路及びレンズ内制
御装置と通信を行って、各々の回路やレンズを制御す
る。
In FIG. 5, PRS is the control unit 5 of FIG.
7. A camera control device corresponding to, for example, a CP
It is a one-chip microcomputer having a U (central processing unit), a ROM, a RAM, and an A / D conversion function. The control device (hereinafter referred to as a microcomputer) PRS of this camera is R
In accordance with a camera sequence program stored in the OM, a series of camera operations such as an automatic exposure control function, an automatic focus adjustment function, and film winding / rewinding are performed. Therefore, the microcomputer PRS uses the communication signals SO, S
I, SCLK, communication selection signals CKCM, CDDR, CI
Using the CC, communication is performed with a peripheral circuit in the camera body and a control device in the lens to control each circuit and lens.

【0027】SOはマイコンPRSから出力されるデー
タ信号、SIはマイコンPRSに入力されるデータ信
号、SCLKは信号SO,SIの同期クロックである。
SO is a data signal output from the microcomputer PRS, SI is a data signal input to the microcomputer PRS, and SCLK is a synchronous clock of the signals SO and SI.

【0028】LCMはレンズ通信バッファ回路であり、
カメラが動作中のときにはレンズ用電源端子VLに電力
を供給するとともに、マイコンPRSからの選択信号C
LCMが高電位レベル(以下、‘H’と記し、低電位レ
ベルは‘L’と記す)のときには、カメラとレンズ間の
通信バッファトなる。
LCM is a lens communication buffer circuit,
When the camera is in operation, power is supplied to the lens power supply terminal VL and a selection signal C from the microcomputer PRS is supplied.
When the LCM is at a high potential level (hereinafter, described as “H”, and a low potential level is described as “L”), communication between the camera and the lens is buffered.

【0029】マイコンPRSがCLCMを‘H’にし
て、SCLKに同期して所定のデータをSOから送出す
ると、レンズ通信バッファ回路LCMはカメラ・レンズ
間通信接点を介して、SCLK,SOの各々のバッファ
信号LCK,DCLをレンズへ出力する。それと同時に
レンズからの信号DLCのバッファ信号をSIに出力
し、マイコンPRSは同期してSIからレンズのデータ
を入力する。
When the microcomputer PRS sets CLCM to "H" and sends out predetermined data from the SO in synchronization with SCLK, the lens communication buffer circuit LCM transmits each of SCLK and SO via the camera-lens communication contact. The buffer signals LCK and DCL are output to the lens. At the same time, a buffer signal of the signal DLC from the lens is output to the SI, and the microcomputer PRS synchronously inputs lens data from the SI.

【0030】DDRは各種のスイッチSWSの検知及び
表示回路であり、信号CDDRが‘H’のとき選択さ
れ、SO,SI,SCLKを用いてマイコンPRSから
制御される。即ち、マイコンPRSから送られてくるデ
ータに基づいてカメラの表示部材DSPの表示を切り換
えたり、カメラの各種操作部材のオン・オフ状態を通信
によってマイコンPRSに報知する。OLCはカメラ上
部に位置する外部液晶表示装置であり、ILCはファイ
ンダ内部液晶表示装置である。
DDR is a detection and display circuit for various switches SWS, which is selected when the signal CDDR is "H", and is controlled by the microcomputer PRS using SO, SI and SCLK. That is, based on data sent from the microcomputer PRS, the display of the display member DSP of the camera is switched, and the on / off state of various operation members of the camera is notified to the microcomputer PRS by communication. OLC is an external liquid crystal display device located above the camera, and ILC is a viewfinder internal liquid crystal display device.

【0031】SW1,SW2は不図示のレリーズボタン
に連動したスイッチで、レリーズボタンの第1階段の押
下によりスイッチSW1がオンし、引き続いて第2段階
の押下でスイッチSW2がオンする。マイコンPRSは
スイッチSW1のオンで測光,自動焦点調節を行い、ス
イッチSW2のオンをトリガとして露出制御とその後の
フィルムの巻上げを行う。
SW1 and SW2 are switches linked to a release button (not shown). The switch SW1 is turned on by pressing the first step of the release button, and subsequently the switch SW2 is turned on by pressing the second step. The microcomputer PRS performs photometry and automatic focus adjustment when the switch SW1 is turned on, and performs exposure control and subsequent film winding with the switch SW2 turned on as a trigger.

【0032】尚、スイッチSW2はマイコンPRSの
「割り込み入力端子」に接続され、スイッチSW1のオ
ン時のプログラム実行中でも、該スイッチSW2のオン
によって割り込みがかかり、直ちに所定の割り込むプロ
グラムへ制御を移すことができる。
The switch SW2 is connected to the "interrupt input terminal" of the microcomputer PRS. Even when the switch SW1 is turned on, an interrupt is generated by turning on the switch SW2, and the control is immediately transferred to a predetermined interrupting program. Can be.

【0033】MTR1はフィルム給送用の、MTR2は
ミラーアップ・ダウン及びシャッタばねチャージ用の、
それぞれモータであり、各々の駆動回路MDR1,MD
R2により正転、逆転の制御が行われる。マイコンPR
Sから駆動回路MDR1,MDR2に入力されている信
号M1F,M1R、M2F,M2Rはモータ制御用の信
号である。
MTR1 is for film feeding, MTR2 is for mirror up / down and shutter spring charging,
Each is a motor, and each drive circuit MDR1, MD
R2 controls normal rotation and reverse rotation. Microcomputer PR
Signals M1F, M1R, M2F, and M2R input from S to the drive circuits MDR1 and MDR2 are motor control signals.

【0034】MG1,MG2は各々シャッタ先幕・後幕
走行開始用マグネットで、信号SMG1,SMG2、増
幅トランジスタTR1,TR2で通電され、マイコンP
RSによりシャッタ制御が行われる。
MG1, MG2 are magnets for starting the movement of the first and second curtains of the shutter, respectively, and are energized by signals SMG1, SMG2 and amplification transistors TR1, TR2.
Shutter control is performed by RS.

【0035】尚、モータ駆動回路MDR1,MDR2、
シャッタ制御は、本発明と直接関りがないので、詳しい
説明は省略する。
The motor drive circuits MDR1, MDR2,
Since the shutter control does not directly relate to the present invention, a detailed description is omitted.

【0036】レンズ内制御回路LPRSにLCKと同期
して入力される信号DCLは、カメラからレンズLNS
に対する命令のデータであり、命令に対するレンズの動
作は予め決められている。このレンズ内制御回路LPR
Sは、所定の手続きに従ってその命令を解析し、焦点調
節や絞り制御の動作や、出力DLCからレンズの各部動
作状況(焦点調節光学系の駆動状況や、絞りの駆動状態
等)や、各種パラメータ(開放Fナンバー,焦点距離,
デフォーカス量対焦点調節光学系の移動量の係数,各種
ピント補正量等、距離情報)の出力を行う。
A signal DCL input to the in-lens control circuit LPRS in synchronization with LCK is transmitted from the camera to the lens LNS.
, And the operation of the lens in response to the command is determined in advance. This in-lens control circuit LPR
S analyzes the command in accordance with a predetermined procedure, and performs operations of focus adjustment and aperture control, the operation status of each part of the lens (driving status of focus adjustment optical system, driving status of aperture, etc.) from output DLC, and various parameters. (Open F-number, focal length,
It outputs distance information such as the defocus amount versus the coefficient of the movement amount of the focus adjustment optical system, various focus correction amounts, and the like.

【0037】この実施の形態では、ズームレンズを例を
示しており、カメラから焦点調節の命令が送られた場合
には、同時に送られてくる駆動量・方向に従って焦点調
節用モータLTMRを信号KMF,LMRによって駆動
して、光学系を光軸方向に移動させて焦点調節を行う。
光学系の移動量は光学系に連動して回動するパルス板の
パターンをフォトカプラにて検出し、移動量に応じた数
のパルスを出力するエンコーダ回路ENCFのパルス信
号SENCFでモニタし、レンズ内制御回路LPRS内
のカウンタで係数しており、所定の移動が完了した時点
でLPRS自身が信号LMF、LMRを‘L’にしてモ
ータLMTRを制動する。
In this embodiment, a zoom lens is shown as an example. When a focus adjustment command is sent from a camera, a focus adjustment motor LTMR is sent to a signal KMF in accordance with the simultaneously transmitted drive amount and direction. , LMR to adjust the focus by moving the optical system in the direction of the optical axis.
The amount of movement of the optical system is monitored by a pulse signal SENCF of an encoder circuit ENCF that detects a pattern of a pulse plate that rotates in conjunction with the optical system with a photocoupler and outputs a number of pulses corresponding to the amount of movement. The coefficient is calculated by a counter in the internal control circuit LPRS, and when the predetermined movement is completed, the LPRS itself sets the signals LMF and LMR to 'L' to brake the motor LMTR.

【0038】このため、一旦カメラ焦点調節の命令が送
られた後は、マイコンPRSはレンズの駆動が終了する
まで、レンズ駆動に関して全く関与する必要がない。ま
た、カメラから要求が合った場合には、上記カウンタの
内容をカメラに送出することも可能な構成になってい
る。
For this reason, once the camera focus adjustment command is sent, the microcomputer PRS does not need to be involved in driving the lens at all until the driving of the lens is completed. Further, when a request from the camera is met, the contents of the counter can be sent to the camera.

【0039】カメラから絞り制御の命令が送られた場合
には、同時に送られてくる絞り段数に従って、絞り駆動
用としては公知のステッピング・モータDMTRを駆動
する。尚、ステッピング・モータはオープン制御が可能
なため、動作をモニタするためのエンコーダを必要とし
ない。
When an aperture control command is sent from the camera, a well-known stepping motor DMTR for driving the aperture is driven in accordance with the number of aperture stages sent at the same time. Since the stepping motor can perform open control, it does not require an encoder for monitoring the operation.

【0040】ENCZはズーム光学系に付随したエンコ
ーダ回路であり、レンズ内制御回路LPRSはこのエン
コーダ回路ENCZからの信号SENCZを入力してズ
ーム位置を検出する。レンズ内制御回路LPRS内には
各ズーム位置におけるレンズ・パラメータが格納されて
おり、カメラ側のマイコンPRSから要求が合った場合
には、現在のズーム位置に対応したパラメータをカメラ
に送出する。
ENCZ is an encoder circuit associated with the zoom optical system, and the in-lens control circuit LPRS receives the signal SENCZ from the encoder circuit ENCZ to detect the zoom position. Lens parameters at each zoom position are stored in the in-lens control circuit LPRS, and when a request is received from the microcomputer PRS on the camera side, a parameter corresponding to the current zoom position is sent to the camera.

【0041】ICCは、CCD等から構成される焦点検
出と露出制御用測光エリアセンサ及びその駆動回路であ
り、信号CICCが‘H’のとき選択されて、SO,S
I,SCLKを用いてマイコンPRSから制御される。
The ICC is a photometric area sensor for focus detection and exposure control composed of a CCD or the like, and its driving circuit. The ICC is selected when the signal CICC is "H",
It is controlled by the microcomputer PRS using I and SCLK.

【0042】φV,φH,φRはエリアセンサ出力の読
み出し、リセット信号であり、マイコンPRSから信号
に基づいてICC内の駆動回路によりセンサ制御信号が
生成される。センサ出力はセンサ部からの読み出し後増
幅され、出力信号IMAGEとしてマイコンPRSのア
ナログ入力端子に入力され、マイコンPRSは同信号を
A/D変換後、そのデジタル値をRAM上の所定アドレ
スへ順次格納して行く。これらデジタル変換された信号
を用いて被写界の距離分布測定と焦点調節あるいは測光
を行う。
ΦV, φH and φR are read signals of the area sensor output and reset signals, and a sensor control signal is generated by a drive circuit in the ICC based on the signal from the microcomputer PRS. The sensor output is amplified after reading from the sensor unit, and is input as an output signal IMAGE to an analog input terminal of the microcomputer PRS. The microcomputer PRS converts the signal into an analog signal, and sequentially stores the digital value in a predetermined address on the RAM. Go. Using these digitally converted signals, distance distribution measurement and focus adjustment or photometry of the object scene are performed.

【0043】尚、上記図5ではカメラとレンズが別体
(レンズ交換が可能)となるもので表現されているが、
本発明はカメラ・レンズ一体なるものでも何等問題な
く、これ等に限定されるものではない。
In FIG. 5, the camera and the lens are shown as being separate (lens can be replaced).
The present invention has no problem even if the camera and lens are integrated, and the present invention is not limited to these.

【0044】次に、上記マイコンPRSによる一連の動
作について説明する。
Next, a series of operations by the microcomputer PRS will be described.

【0045】図6は全体の処理の流れを示すフローチャ
ートであり、以下これにしたがって説明する。
FIG. 6 is a flowchart showing the flow of the entire processing, and the description will be made in accordance with the flowchart.

【0046】撮影者が不図示のシャッタボタンなどを押
すことにより、ステップ(100)を経由して撮影処理
が開始される。
When the photographer presses a shutter button (not shown) or the like, the photographing process is started via step (100).

【0047】ステップ(101)においては、被写界の
デフォーカス分布を測定するサブルーチンを呼び出す。
このデフォーカス分布測定について、図7のフローチャ
ートにしたがって説明する。なお、このデフォーカス分
布の測定は、マイコンPRS内の図1に示したデフォー
カス分布測定回路51に相当する部分が行うことにな
る。
In step (101), a subroutine for measuring the defocus distribution of the scene is called.
This defocus distribution measurement will be described with reference to the flowchart of FIG. The measurement of the defocus distribution is performed by a portion of the microcomputer PRS corresponding to the defocus distribution measurement circuit 51 shown in FIG.

【0048】ステップ(201)においては、センサ画
像の取り込みを行う。センサ画像の取り込みは次のよう
に実施される。
In step (201), a sensor image is captured. The capture of the sensor image is performed as follows.

【0049】まず、センサのリセットを行う。具体的に
は、制御信号φV,φH,φRをマイコンPRSにて同
時に一定時間‘H’にすることで、ICC内部でリセッ
ト動作が行われる。次にマイコンPRSから蓄積開始命
令を送り蓄積を開始し、後に蓄積終了を検知する。そし
て、制御信号φV,φHを駆動してセンサ出力IMAG
Eを順次読み出し、マイコンPRSにてA/D変換して
RAMに格納し、ステップ(201)のセンサの出力信
号の取り込みが完了する。
First, the sensor is reset. More specifically, the reset operation is performed inside the ICC by setting the control signals φV, φH, and φR to “H” at the same time by the microcomputer PRS for a certain period of time. Next, an accumulation start command is sent from the microcomputer PRS to start accumulation, and later the end of accumulation is detected. Then, the control signals φV and φH are driven to output the sensor output IMAG.
E are sequentially read out, A / D converted by the microcomputer PRS and stored in the RAM, and the capture of the output signal of the sensor in step (201) is completed.

【0050】二つのセンサの出力信号データは、RAM
上の所定領域IMG1,IMG2に格納される。
The output signal data of the two sensors is stored in RAM
They are stored in the upper predetermined areas IMG1 and IMG2.

【0051】次のステップ(202)以降では、「m×
n」ブロック(m,nは1以上の正数)で構成されるデ
フォーカス分布情報(デフォーカスマップ)の作成を行
う。
From the next step (202) onwards, "mx
Defocus distribution information (defocus map) composed of "n" blocks (m and n are positive numbers equal to or more than 1) is created.

【0052】ステップ(202)においては、ブロック
の座標を指示する変数х,уの初期化を行い、次のステ
ップ(203)において、ブロック(х,у)のデフォ
ーカス演算に必要な信号をRAM上の画像データIMG
1の中より抽出して、RAM上の所定アドレスAにコピ
ーする。続くステップ(204)においては、ブロック
(х,у)のデフォーカス演算に必要なもう一方の信号
を画像データIMG2の中より抽出して、RAM上の所
定アドレスBにコピーする。
In step (202), variables х and у indicating the coordinates of the block are initialized, and in the next step (203), a signal necessary for the defocus calculation of the block (х, у) is stored in the RAM. Image data IMG above
1 and is copied to a predetermined address A on the RAM. In the following step (204), another signal necessary for the defocus calculation of the block ($, у) is extracted from the image data IMG2 and copied to a predetermined address B on the RAM.

【0053】次のステップ(205)においては、アド
レスAとアドレスBに記憶された輝度分布信号に対して
公知の相関演算COR(A,B)を実施し、二つの像信
号のずれ量δを算出する。続くステップ(206)にお
いては、像ずれ量δからデフォーカス値の算出を公知の
関数f(δ)により実施し、RAM上のデフォーカス分
布記録用に確保された所定のアドレスD(х,у)にデ
フォーカス値を格納する。そして、ステップ(207)
において、хの値を一つ増加して、処理対象を隣接ブロ
ックに移す。
In the next step (205), a known correlation operation COR (A, B) is performed on the luminance distribution signals stored at the address A and the address B, and the shift amount δ between the two image signals is calculated. calculate. In the subsequent step (206), the defocus value is calculated from the image shift amount δ using a known function f (δ), and a predetermined address D (х, у) reserved for recording the defocus distribution on the RAM. ) Stores the defocus value. Then, step (207)
In, the value of х is increased by one, and the processing target is moved to an adjacent block.

【0054】次のステップ(208)においては、xと
デフォーカスマップのx方向の解像度mとの比較を行
い、ここで「x<m」が真と判定した場合はステップ
(203)へ戻り、x方向の隣のブロックに対して前述
と同様にデフォーカス値の演算と格納を行う。また、
「x<m」が偽と判定した場合はステップ(209)へ
移り、xを初期化し、yを1増加する。
In the next step (208), x is compared with the resolution m in the x direction of the defocus map. If "x <m" is determined to be true, the process returns to step (203). The calculation and storage of the defocus value are performed on the adjacent block in the x direction in the same manner as described above. Also,
When it is determined that “x <m” is false, the process proceeds to step (209), where x is initialized and y is increased by one.

【0055】続くステップ(210)においては、yの
値を評価し、「y<n」が真と判定したときは再びステ
ップ(203)へ戻り、次のブロック列に対す演算を開
始する。また、「y<n」が偽と判定したときは、すべ
てのブロックに対するデフォーカス算出を完了し、この
デフォーカス分布作成サブルーチン(図6のステップ
(101)での動作)を終了する。
In the following step (210), the value of y is evaluated, and when it is determined that "y <n" is true, the process returns to step (203) again to start the operation for the next block sequence. When it is determined that “y <n” is false, the defocus calculation for all the blocks is completed, and the defocus distribution creating subroutine (the operation in step (101) in FIG. 6) ends.

【0056】図6に戻って、ステップ(102)におい
ては、被写界中のデフォーカス分布情報から現在の撮影
レンズの距離情報を得る距離情報検出サブルーチンを呼
び出す。この距離情報検出サブルーチンの内容を、図
8,図9,図10を用いて説明する。なお、この距離情
報の検出は、マイコンPRS内の図1の距離情報検出回
路52に相当する部分が行うことになる。
Returning to FIG. 6, in step (102), a distance information detection subroutine for obtaining the current distance information of the photographing lens from the defocus distribution information in the object scene is called. The contents of this distance information detection subroutine will be described with reference to FIGS. 8, 9, and 10. FIG. The detection of the distance information is performed by a portion of the microcomputer PRS corresponding to the distance information detection circuit 52 of FIG.

【0057】図8の〜は、距離情報検出、実際には
検出デフォーカスのヒストグラムパターンの分散,分布
状態から撮影シーンを推測、現在の撮影光学系の焦点位
置と共役な被写界位置、即ち撮影レンズの距離情報を推
定するまでの大まかな流れである。
8A to 8D show distance information detection, in fact, a photographic scene is estimated from the variance and distribution of the histogram pattern of the detected defocus, and an object field position conjugate to the current focus position of the photographic optical system, ie, This is a rough flow until the distance information of the taking lens is estimated.

【0058】まず、の様に被写界のデフォーカスを検
出する。通常、カメラのレリーズスイッチの第1段階が
押された状態で自動焦点検出機能が作用するようになっ
ている。次に、の様なデフォーカスマップを作成す
る。これは検出した各デフォーカスを2次元の状態、即
ちファインダから被写界を覗いた状態での分布そのまま
に配置したものである。
First, the defocus of the object scene is detected as described above. Normally, the automatic focus detection function operates when the first step of the release switch of the camera is pressed. Next, the following defocus map is created. This is one in which the detected defocus is arranged in a two-dimensional state, that is, the distribution as it is when the object field is viewed from the finder.

【0059】続いて、で検出デフォーカス量のヒスト
グラムを作成する。これは、先に2次元マップ状に配置
された各デフォーカス値について、デフォーカス量のみ
に着目し、検出結果の分布状態を表わしたものとなる。
そして、次のにおいては、上記にて作成したヒスト
グラムの分散状態,分布中心,検出デフォーカスの限界
値等から検出時点での撮影光学系の焦点位置と共役な被
写界位置、即ち撮影レンズの距離情報を推測するための
解析を行う。この解析の基となるヒストグラムパターン
の典型例を図9に示している。
Subsequently, a histogram of the detected defocus amount is created in step. This represents the distribution state of the detection result for each defocus value previously arranged in a two-dimensional map, focusing on only the defocus amount.
Then, in the following, from the dispersion state, distribution center, detection defocus limit value, and the like of the histogram created above, the field position conjugate to the focal position of the photographing optical system at the time of detection, that is, the position of the photographing lens. Perform analysis to estimate distance information. FIG. 9 shows a typical example of a histogram pattern on which this analysis is based.

【0060】図9から分かるように、想定した被写界条
件(シーン)である接写,近景,中景,遠景と撮影レン
ズの距離環の位置(フォーカス位置)でそれぞれ特徴的
なヒストグラム分布となっている。
As can be seen from FIG. 9, a characteristic histogram distribution is obtained for each of the assumed scene conditions (scene), that is, close-up shot, near view, middle view, and distant view, and the position of the distance ring (focus position) of the photographing lens. ing.

【0061】これと上記のヒストグラムとの比較よ
り、にて現時点の撮影レンズの距離情報の推定を行
う。
By comparing this with the above-described histogram, the current distance information of the photographing lens is estimated.

【0062】以上説明してきたような距離情報の推定に
ついて、図10のフローチャートにしたがって説明す
る。
The estimation of the distance information as described above will be described with reference to the flowchart of FIG.

【0063】まず、ステップ(301)において、先述
したように検出デフォーカスのヒストグラムの作成を行
う。
First, in step (301), a histogram of detected defocus is created as described above.

【0064】以下のステップ(302)以降において
は、M×N通り(Mは図9のフォーカス位置(4通り)
を、Nは図9の各撮影シーン(4通り)を、それぞれ示
し、ここでは計16通り)の典型的なヒストグラムパタ
ーンを参照する。
From the following step (302), M × N ways (M is the focus position (four ways) in FIG. 9)
N indicates each of the photographing scenes (four patterns) in FIG. 9, and here, a typical histogram pattern of 16 patterns is referred to.

【0065】ステップ(302)においては、パターン
を指示する変数x,yを初期化する。次のステップ(3
03)においては、典型ヒストグラムパターンHIS
(x,y)の分布信号を信号列AとしてRAM上にコピ
ーする(例えば、最初は図9の「接写」で「∞」の典型
的なヒストグラムパターンをコピーする)。続くステッ
プ(304)においては、検出したデフォーカス量のヒ
ストグラム分布信号を信号列Bとする。次のステップ
(305)において、信号列Aと信号列Bに対して一般
的な相関演算COR(A,B)を実施し、二つの信号列
の相関度Δ(x,y)を算出する。ステップ(306)
においては、距離ゾーン変数であるxの値を一つ増加し
て、相関演算対象信号列を次の典型ヒストグラムパター
ン(例えば、図9の「接写」で「数m」の典型的なヒス
トグラムパターン)に移す。
In step (302), variables x and y indicating a pattern are initialized. Next step (3)
03), a typical histogram pattern HIS
The (x, y) distribution signal is copied on the RAM as a signal sequence A (for example, first, a typical histogram pattern of “∞” in “close-up” in FIG. 9 is copied). In the following step (304), a histogram distribution signal of the detected defocus amount is set as a signal sequence B. In the next step (305), a general correlation operation COR (A, B) is performed on the signal sequence A and the signal sequence B, and the degree of correlation Δ (x, y) between the two signal sequences is calculated. Step (306)
In, the value of x which is a distance zone variable is increased by one, and the signal sequence to be subjected to the correlation operation is represented by the following typical histogram pattern (for example, a typical histogram pattern of “several m” in “close-up” in FIG. 9). Transfer to

【0066】次のステップ(307)においては、xと
ヒストグラムパターンの距離ゾーン分解数Mとの比較を
行う。この結果、「x<M」が真と判定した場合はステ
ップ(303)へ戻り、次の距離ゾーンの典型ヒストグ
ラムパターンに対して前述と同様に検出デフォーカス量
のヒストグラム分布信号との演算を行う。また、「x<
M」が偽と判定した場合(例えば、図9の「接写」で
「0.5 m」の典型的なヒストグラムパターンの相関を終
了している時)はステップ(308)へ移り、xを初期
化し、yを一つ増加して、図9における次の想定撮影シ
ーンへと移行する。
In the next step (307), x is compared with the distance zone decomposition number M of the histogram pattern. As a result, when it is determined that “x <M” is true, the process returns to step (303), and the calculation with the histogram distribution signal of the detected defocus amount is performed on the typical histogram pattern of the next distance zone in the same manner as described above. . Also, "x <
If “M” is determined to be false (for example, when the correlation of a typical histogram pattern of “0.5 m” in “close-up photography” in FIG. 9 has been completed), the process proceeds to step (308), where x is initialized, y is incremented by one, and the process proceeds to the next assumed shooting scene in FIG.

【0067】ステップ(309)においては、yの値、
つまり想定撮影シーン変数を評価し、「y<N」が真と
判定したときは再びステップ(303)に戻り、次の典
型ヒストグラムパターンに対する演算を開始する。ま
た、「y<N」が偽と判定したときは(例えば、図9の
「遠景」で「0.5 m」の典型的なヒストグラムパターン
の相関を終了している時)、すべての典型ヒストグラム
パターンに対する相関演算を完了する。そして、すべて
の相関演算が終了した後にステップ(310)におい
て、相関度Δ(x,y)の最大値Max(Δ(x,y))
を検出する。次のステップ(311)においては、最大
となる相関度Δ(x,y)の距離ゾーン変数xの意味す
る距離情報を現時点の撮影レンズの距離情報として、距
離情報検出サブルーチン、つまり図6のステップ(10
2)の動作を終了する。
In step (309), the value of y
In other words, the assumed shooting scene variables are evaluated, and when it is determined that “y <N” is true, the process returns to step (303) again, and the calculation for the next typical histogram pattern is started. When “y <N” is determined to be false (for example, when correlation of a typical histogram pattern of “0.5 m” in “distant view” in FIG. 9 has been completed), all the typical histogram patterns are compared. Complete the correlation operation. Then, after all the correlation operations are completed, in step (310), the maximum value Max (Δ (x, y)) of the correlation degree Δ (x, y)
Is detected. In the next step (311), the distance information detection subroutine, that is, the step of FIG. 6, is performed by using the distance information meaning the distance zone variable x of the maximum correlation degree Δ (x, y) as the current distance information of the photographing lens. (10
The operation of 2) ends.

【0068】従って、上記の図8のの様なヒストグラ
ムが得られている場合には、距離情報として、図9の
「遠景」で「数m」あることが推測されることになる。
Therefore, when the histogram as shown in FIG. 8 is obtained, it is estimated that “distance view” in FIG. 9 has “several meters” as the distance information.

【0069】再び図6に戻って、ステップ(103)に
おいては、主被写体領域の検出サブルーチンを呼び出
す。この主被写体領域検出サブルーチンの内容を、図1
1のフローチャートにしたがって説明する。なお、この
主被写体領域の検出は、マイコンPRS内の図1の主被
写体領域検回路53に相当する部分が行うことになる。
Returning to FIG. 6, in step (103), a main object area detection subroutine is called. The contents of this main subject area detection subroutine are shown in FIG.
1 will be described. The detection of the main subject area is performed by a portion of the microcomputer PRS corresponding to the main subject area detection circuit 53 in FIG.

【0070】図11のステップ(401)において、被
写界を構成する各物体(グループ)毎に番号付けを行
う。例えば図12の様に、画面の左上のブロックから図
中の矢印のようにラスタ・スキャンしながら分割処理を
行う場合、注目ブロックG(x,y)の上のブロックG
(x,y−1)と、左ブロックG(x−1,y)との間
で、同じグループかどうかの判定を行えば、結果的にす
べての隣接ブロック間で同一ブロックかどうかの判定を
行うことができる。このとき、画面の上辺(y=0)と
左辺(x=0)のブロックは、それぞれ上のブロックと
左のブロックが存在しないので、それらに対する処理は
行わない。また、判定の結果はRAM上のメモリG
(0,0)〜G(m−1,n−1)に記録する。
In step (401) of FIG. 11, numbering is performed for each object (group) constituting the scene. For example, as shown in FIG. 12, when performing division processing while performing raster scanning from the upper left block of the screen as indicated by the arrow in the figure, the block G above the block of interest G (x, y)
If it is determined whether (x, y−1) and the left block G (x−1, y) are in the same group, as a result, it is determined whether all adjacent blocks are the same block. It can be carried out. At this time, the blocks on the upper side (y = 0) and the left side (x = 0) of the screen do not have the upper block and the left block, respectively, so that no processing is performed on them. Also, the result of the determination is stored in the memory G on the RAM.
Record in (0,0) to G (m-1, n-1).

【0071】まず、(x,y)=(0,0)のブロック
はグループ番号「g=1」として登録して、領域が異な
るグループが検出されればgの数を一つ増やしてそのブ
ロックのグループ番号とする。この処理により、例えば
図13(a)のような撮影シーンは、図13(b)のよ
うに各グループ毎に番号が与えられる。こうした、番号
付けの処理自体は「ラベリング法」と呼ばれる公知技術
であるので、領域分け全体のフローチャートは省略す
る。
First, the block of (x, y) = (0, 0) is registered as a group number “g = 1”, and if a group having a different area is detected, the number of g is increased by one to increase the block number. Group number. By this processing, for example, a shooting scene as shown in FIG. 13A is given a number for each group as shown in FIG. 13B. Since the numbering process itself is a known technique called “labeling method”, a flowchart of the entire area division is omitted.

【0072】また、各ブロック間で同一ブロックかどう
かの判定方法に関しては、本出願人から開示されている
特願平8−325327号に詳述されており、ここでは
詳しい説明は省略するが、以下に簡単に先に推定した撮
影光学系の現在の「距離情報」をどのように用いるかを
説明する。
A method of determining whether each block is the same block is described in detail in Japanese Patent Application No. 8-325327 disclosed by the present applicant, and the detailed description is omitted here. Hereinafter, how to use the current “distance information” of the imaging optical system estimated earlier will be briefly described.

【0073】ここでは、注目ブロックと比較ブロックと
が同一物体であるかの判定を二つのブロックと共役な位
置で構成される物体面と光軸の成す角が一定の角度以上
かどうかで判定するとし、この角度の絶対値が所定のし
きい角より大きければ物体は光軸に対して垂直に近い面
を構成していることから同一物体と考え、しきい角より
小さければ別物体と判定する。
Here, the determination as to whether the target block and the comparison block are the same object is made by determining whether or not the angle between the object plane formed by the conjugate position of the two blocks and the optical axis is equal to or larger than a predetermined angle. If the absolute value of this angle is larger than a predetermined threshold angle, the object is considered to be the same object because it constitutes a surface nearly perpendicular to the optical axis, and if smaller than the threshold angle, it is determined to be another object. .

【0074】しかし、角度が一定でも物体までの絶対距
離が大きければ二つのブロックと共役な位置どうしの間
の絶対距離差は大きくなる。したがって、距離の差から
一定の角度以下かどうかを判定する基準のしきい値は物
体までの距離に比例した値とすれば良い。
However, even if the angle is constant, if the absolute distance to the object is large, the absolute distance difference between the two blocks and the conjugate position will be large. Therefore, the reference threshold value for determining whether the angle is equal to or smaller than the predetermined angle based on the difference in distance may be a value proportional to the distance to the object.

【0075】ところが、この基準となるしきい値を物体
までの絶対距離を用いずに、注目ブロックでの検出デフ
ォーカス量の関数として求める必要がある。
However, it is necessary to obtain the reference threshold value as a function of the detected defocus amount in the target block without using the absolute distance to the object.

【0076】そこで、物体までの絶対距離と検出デーフ
ォーカス量及び現在の撮影光学系の焦点距離、そして現
在の撮影光学系の焦点位置、即ち現在の「距離情報」の
関係からしきい値の関数を求めれば良く、これにより、
近距離と遠距離の物体に対しても領域分割の不均衡性を
抑えることが可能となる。
Therefore, the function of the threshold value is determined based on the relationship between the absolute distance to the object, the detected data focus amount, the current focal length of the photographing optical system, and the current focal position of the photographing optical system, ie, the current “distance information”. Should be obtained.
It is possible to suppress the imbalance of region division even for objects at a short distance and a long distance.

【0077】次に、ステップ(402)において、上記
ステップ(401)にて検出された被写体の数を変数G
num に設定する。ステップ(403)以降においては、
撮影空間を構成する各グループの特性を評価して、この
特性からすべてのグループの中から主被写体を表わすグ
ループを決定する。
Next, in step (402), the number of subjects detected in step (401) is
Set to num. After step (403),
The characteristics of each group constituting the shooting space are evaluated, and from these characteristics, a group representing the main subject is determined from all the groups.

【0078】ステップ(403)においては、演算対象
のグループを表わす変数Gcur に1を設定する。次のス
テップ(404)においては、グループ番号Gcur の被
写体領域の主被写体度S(Gcur )を演算する。この主
被写体度は平均的な距離や、領域の幅、高さ、画面上の
位置などの特性をそれぞれ演算して、それらを総合評価
して主被写体と考えられる領域を判定する。例えば、主
被写体度評価関数S(Gcur )としては、以下の式が考
えられる。
In step (403), 1 is set to a variable Gcur representing the group to be operated. In the next step (404), the main subject degree S (Gcur) of the subject area of the group number Gcur is calculated. The main subject degree calculates characteristics such as an average distance, an area width, a height, and a position on a screen, and evaluates them comprehensively to determine an area considered as a main subject. For example, the following expression can be considered as the main subject degree evaluation function S (Gcur).

【0079】S(Gcur )=W1 × (幅)×(高さ)+W
2 /(画面中心からの距離)+W3 /(平均距離) 上記式において、W1 ,W2 ,W3 は重み付けの定数、
画面中心からの距離は画面中心と領域の重心位置との距
離であり、また、平均距離は領域内の全ブロックの平均
距離を表わしている。この主被写体度をすべての領域に
対して演算して、この主被写体度が最も大きい被写体を
主要被写体として判定する。
S (Gcur) = W 1 × (width) × (height) + W
2 / (distance from screen center) + W 3 / (average distance) In the above equation, W 1 , W 2 , and W 3 are weighting constants,
The distance from the center of the screen is the distance between the center of the screen and the position of the center of gravity of the area, and the average distance represents the average distance of all blocks in the area. The main subject degree is calculated for all areas, and the subject having the highest main subject degree is determined as the main subject.

【0080】次のステップ(405)においては、Gcu
r の値を一つ増やし、演算対象を次のグループに移す。
続くステップ(406)においては、Gcur とGnum の
値を比較し、全てのグループに対して演算が終了したか
どうかチェックする。この結果、「Gcur ≦Gnum 」で
あれば、全てのグループに対する演算が終了していない
のでステップ(404)に戻り、同様の動作を行う。
In the next step (405), Gcu
Increase the value of r by one and move the operation target to the next group.
In the following step (406), the values of Gcur and Gnum are compared to check whether the operation has been completed for all groups. As a result, if “Gcur ≦ Gnum”, the calculation for all the groups has not been completed, so the flow returns to step (404) and the same operation is performed.

【0081】一方、「Gcur >Gnum 」であればステッ
プ(407)へ移り、ここでは演算した全ての主被写体
度S(1)〜S(Gnum )の中で最も大きい値となるグ
ループ番号を求める関数MAXにより、最も主被写体度
が高いグループの番号を変数Gmainに代入する。Gmain
の表わす番号と一致する領域が主被写体領域を表わす。
そして、次のステップ(408)において、主被写体領
域検出のサブルーチン、つまり図6のステップ (10
3)の動作を終了する。
On the other hand, if "Gcur>Gnum", the process proceeds to step (407), where the group number having the largest value among all the calculated main subject degrees S (1) to S (Gnum) is obtained. The number of the group having the highest degree of main subject is assigned to the variable Gmain by the function MAX. Gmain
The area corresponding to the number represented by represents the main subject area.
Then, in the next step (408), a sub-routine of main subject area detection, that is, step (10) in FIG.
The operation of 3) ends.

【0082】再び図6に戻って、ステップ(104)に
おいては、焦点調節距離決定サブルーチンを実行する。
これは、マイコンPRS内の図1の焦点調節距離決定回
路56に相当する部分が行うことになる。
Referring back to FIG. 6, in step (104), a focus adjustment distance determination subroutine is executed.
This is performed by a portion of the microcomputer PRS corresponding to the focus adjustment distance determination circuit 56 of FIG.

【0083】ここにおいては、現在の主被写体領域から
焦点調節すべき距離、実際には現時点の距離と調節すべ
き距離との差なるデフォーカス量を決定するサブルーチ
ンを実行する。これについて、図14のフローチャート
にしたがって説明する。
Here, a subroutine for determining a distance to be adjusted from the current main subject area, that is, a defocus amount which is actually the difference between the current distance and the adjusted distance is executed. This will be described with reference to the flowchart of FIG.

【0084】ステップ(501)においては、現在主被
写体領域として設定されているグループ番号に従って、
被写界内での対象領域を設定する。まず最初は、先の主
被写体領域検出サブルーチンの結果に従った領域設定が
行われる事になる。次のステップ(502)において
は、先に設定した領域内での情報から、焦点調節のため
の距離情報を算出する。ここにおいては、同一被写体領
域内では至近優先とするアルゴリズムを採用したため、
領域内の最至近距離を求めている。即ち、最至近を示す
デフォーカス量を求める事となる。続くステップ(50
3)においては、上記最至近距離を最終的な焦点調節距
離として設定し、この焦点調節距離決定サブルーチンを
終了する。
In step (501), according to the group number currently set as the main subject area,
Set the target area in the scene. First, an area is set according to the result of the main subject area detection subroutine. In the next step (502), distance information for focus adjustment is calculated from information in the previously set area. Here, since the algorithm that gives priority to the closest subject in the same subject area was adopted,
Finding the closest distance within the area. That is, the defocus amount indicating the closest distance is obtained. The following steps (50
In 3), the shortest distance is set as the final focus adjustment distance, and the focus adjustment distance determination subroutine ends.

【0085】以上の様な、図6のステップ(101)〜
(104)での演算を経て、図6のステップ (105)
へ進み、先のステップ(104)にて決定した距離に焦
点が合うように、マイコンPRSは図1のレンズ駆動装
置55を具備したレンズLNSに対して焦点調節の命令
を行い、この命令に従ってレンズ内制御回路LPRSが
モータLMTRを制御して、現在設定されている主被写
体への焦点調節が完了する。そして、ステップ(10
6)において、マイコンPRSよりシャッタ先幕・後幕
走行開始用のマグネットMG1,MG2に対して、信号
SMG1,SMG2が適切な時間間隔で発生し露光動作
が行われ、撮影が終了することとなる。
As described above, steps (101) to (101) in FIG.
After the calculation in (104), the step (105) in FIG.
The microcomputer PRS issues a focus adjustment command to the lens LNS including the lens driving device 55 shown in FIG. 1 so that the lens is focused on the distance determined in the previous step (104). The internal control circuit LPRS controls the motor LMTR to complete the currently set focus adjustment for the main subject. Then, step (10)
In 6), the signals SMG1 and SMG2 are generated at appropriate time intervals from the microcomputer PRS to the magnets MG1 and MG2 for starting the front and rear curtains of the shutter, the exposure operation is performed, and the shooting ends. .

【0086】上記の実施の形態によれば、撮影レンズの
距離情報を直接得ることができないシステムであって
も、予め記憶されている図9に示した様なデフォーカス
分布のヒストグラム情報と現在得られたデフォーカス分
布の比較することにより、容易に撮影レンズの距離情
報、つまり現在の撮影レンズの焦点位置と共役な被写界
位置を求める事が可能となる。
According to the above-described embodiment, even in a system in which distance information of the photographing lens cannot be directly obtained, the histogram information of the defocus distribution previously stored as shown in FIG. By comparing the obtained defocus distributions, it is possible to easily obtain distance information of the photographing lens, that is, a field position conjugate with the current focal position of the photographing lens.

【0087】更に、上記の様にデフォーカス分布のヒス
トグラム情報から現在の撮影レンズの距離情報を推定す
る事で、デフォーカス値のグループ化のしきい値を撮影
レンズの距離情報で最適化することが可能となる。
Further, by estimating the current distance information of the photographing lens from the histogram information of the defocus distribution as described above, the threshold value for grouping the defocus values is optimized by the distance information of the photographing lens. Becomes possible.

【0088】(発明と実施の形態の対応)上記実施の形
態においては、デフォーカス分布測定回路51が本発明
のデフォーカス分布測定手段に相当し、距離情報検出回
路52が本発明の外界位置推測手段に相当し、制御回路
57に相当するマイコンPRS内のROMが本発明の記
憶手段に相当する。
(Correspondence between Invention and Embodiment) In the above embodiment, the defocus distribution measuring circuit 51 corresponds to the defocus distribution measuring means of the present invention, and the distance information detecting circuit 52 corresponds to the external position estimating of the present invention. The ROM in the microcomputer PRS corresponding to the means and the control circuit 57 corresponds to the storage means of the present invention.

【0089】(変形例)上記実施の形態においては、現
在の撮影レンズの焦点位置と共役な被写界位置を求める
のに、図9の例では「4×4」の16通りの相関演算を
必ず行う必要があったが、例えば使用者が外部の操作部
材により、「接写」の撮影シーンである事を入力可能な
構成にすれば、「接写」の撮影シーンのみの4通りの相
関演算を行うのみで上記距離情報の推測を行う事が可能
となり、カメラであれば、速写性に優れたものにするこ
とができる。
(Modification) In the above embodiment, in order to obtain a field position conjugate with the current focal point of the photographing lens, in the example of FIG. 9, 16 correlation operations of “4 × 4” are performed. Although it was necessary to always perform it, if, for example, the user can input the fact that the shooting scene is “close-up” using an external operation member, four types of correlation calculations for only the shooting scene of “close-up” can be performed. It is possible to estimate the distance information only by performing the operation, and if the camera is used, it is possible to make the camera excellent in quick shooting.

【0090】また、カメラに適用した例を述べている
が、その他の光学装置への適用も可能である。
Further, an example in which the invention is applied to a camera is described, but application to other optical devices is also possible.

【0091】[0091]

【発明の効果】以上説明したように、本発明によれば、
光学系の距離情報を直接得ることができなくとも、デフ
ォーカス分布の情報より光学系の距離情報を得ることが
できる光学装置を提供できるものである。
As described above, according to the present invention,
An object of the present invention is to provide an optical device that can obtain the distance information of the optical system from the information of the defocus distribution even if the distance information of the optical system cannot be directly obtained.

【0092】また、本発明によれば、デフォーカス分布
の情報より光学系の距離情報を得る野に要する時間を、
短縮することができる光学装置を提供できるものであ
る。
Further, according to the present invention, the time required for obtaining the distance information of the optical system from the information of the defocus distribution is reduced.
An optical device that can be shortened can be provided.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施の一形態に係るカメラの基本構成
を示すブロック図である。
FIG. 1 is a block diagram illustrating a basic configuration of a camera according to an embodiment of the present invention.

【図2】本発明の実施の一形態に係るカメラの光学系の
配置図である。
FIG. 2 is an arrangement diagram of an optical system of the camera according to the embodiment of the present invention.

【図3】本発明の実施の一形態に係るカメラの光学系の
配置を示す斜視図である。
FIG. 3 is a perspective view showing an arrangement of an optical system of the camera according to the embodiment of the present invention.

【図4】図3の光学系を上面より見た図である。FIG. 4 is a view of the optical system of FIG. 3 as viewed from above.

【図5】本発明の実施の一形態に係るカメラの内部構成
を示すブロック図である。
FIG. 5 is a block diagram showing an internal configuration of a camera according to one embodiment of the present invention.

【図6】本発明の実施の一形態に係るカメラの一連の動
作を示すフローチャートである。
FIG. 6 is a flowchart showing a series of operations of the camera according to the embodiment of the present invention.

【図7】本発明の実施の一形態に係るデフォーカス分布
測定動作を示すフローチャートである。
FIG. 7 is a flowchart illustrating a defocus distribution measurement operation according to an embodiment of the present invention.

【図8】本発明の実施の一形態に係る距離情報推定まで
の説明図である。
FIG. 8 is an explanatory diagram up to distance information estimation according to an embodiment of the present invention.

【図9】典型的なヒストグラム情報の一例を示す図であ
る。
FIG. 9 is a diagram illustrating an example of typical histogram information.

【図10】本発明の実施の一形態に係る距離情報検出動
作を示すフローチャートである。
FIG. 10 is a flowchart illustrating a distance information detecting operation according to the embodiment of the present invention.

【図11】本発明の実施の一形態に係る主被写体領域検
出動作を示すフローチャートである。
FIG. 11 is a flowchart showing a main subject area detection operation according to one embodiment of the present invention.

【図12】本発明の実施の一形態に係る領域分割方法に
ついての説明図である。
FIG. 12 is an explanatory diagram illustrating a region dividing method according to an embodiment of the present invention.

【図13】本発明の実施の一形態においてラベリングの
結果例である。
FIG. 13 is an example of a result of labeling according to the embodiment of the present invention.

【図14】本発明の実施の一形態に係る焦点調節距離決
定動作を示すフローチャートである。
FIG. 14 is a flowchart illustrating a focus adjustment distance determining operation according to an embodiment of the present invention.

【図15】ある撮影シーンとそのデフォーカス分布結果
とこの結果から各領域の特性毎にグプープ分けした状態
を示す図である。
FIG. 15 is a diagram showing a certain shooting scene, its defocus distribution result, and a state in which groups are grouped from the result for each region characteristic.

【符号の説明】[Explanation of symbols]

51 デフォーカス分布測定回路 52 距離情報検出回路 53 主被写体領域検出回路 55 レンズ駆動回路 56 焦点検出距離決定回路 57 制御回路 PRS マイコン LPRS レンズ内制御回路 LNS レンズ Reference Signs List 51 Defocus distribution measurement circuit 52 Distance information detection circuit 53 Main subject area detection circuit 55 Lens drive circuit 56 Focus detection distance determination circuit 57 Control circuit PRS microcomputer LPRS In-lens control circuit LNS lens

フロントページの続き Fターム(参考) 2F065 AA06 DD06 FF04 FF05 FF09 JJ03 JJ05 LL04 MM22 QQ31 QQ41 RR06 UU05 2H011 AA01 BA23 BB00 BB03 2H051 AA06 BA04 CE27 DA07 DA26 GB12 GB20 Continued on front page F term (reference) 2F065 AA06 DD06 FF04 FF05 FF09 JJ03 JJ05 LL04 MM22 QQ31 QQ41 RR06 UU05 2H011 AA01 BA23 BB00 BB03 2H051 AA06 BA04 CE27 DA07 DA26 GB12 GB20

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 外界中の2次元のデフォーカス分布を測
定するデフォーカス分布測定手段を有する光学装置にお
いて、光学系のそれぞれ焦点位置と共役な各外界位置に
おける複数のデフォーカス分布情報をデータとして予め
保持している記憶手段と、前記デフォーカス分布測定手
段により測定されたデフォーカス分布と前記記憶手段に
記憶された複数のデフォーカス分布情報との比較によ
り、現在の光学系の焦点位置と共役な外界位置を推測す
る外界位置推測手段とを有したことを特徴とする光学装
置。
1. An optical apparatus having a defocus distribution measuring means for measuring a two-dimensional defocus distribution in the outside world, wherein a plurality of pieces of defocus distribution information at each outside world position conjugate to the focal position of the optical system are used as data. The storage means held in advance, and the comparison between the defocus distribution measured by the defocus distribution measurement means and a plurality of pieces of defocus distribution information stored in the storage means, the current focus position of the optical system and the conjugate An optical position estimating means for estimating an external position.
【請求項2】 前記デフォーカス分布測定手段により測
定されたデフォーカス分布から現在の光学系の焦点位置
と共役な外界位置を推測する際に用いる、前記記憶手段
内のデフォーカス分布情報の範囲を、外部より指示する
操作部材を有したことを特徴とする請求項1記載の光学
装置。
2. A defocus distribution information range in said storage means, which is used when estimating an external position conjugate with a current focus position of an optical system from a defocus distribution measured by said defocus distribution measurement means. 2. The optical device according to claim 1, further comprising an operation member for instructing from outside.
【請求項3】 前記外界位置推測手段は、前記測定され
たデフォーカス分布の情報からヒストグラムを作成し、
このヒストグラムの分散状態、分布状態と前記記憶手段
に記憶されている複数のデフォーカス分布情報との比較
より、現在の光学系の焦点位置と共役な外界位置を推測
することを特徴とする請求項1記載の光学装置。
3. The external world position estimating means creates a histogram from the information on the measured defocus distribution,
A method of estimating an external world position conjugate with a current focus position of the optical system by comparing the distribution state and distribution state of the histogram with a plurality of pieces of defocus distribution information stored in the storage unit. 2. The optical device according to 1.
【請求項4】 前記外界位置推測手段にて推測された、
現在の光学系の焦点位置と共役な外界位置の情報と前記
デフォーカス分布測定手段により測定されたデフォーカ
ス分布とを用いて、観察面内を物体毎に領域分割し、環
境を認識する環境認識手段を有したことを特徴とする請
求項1記載の光学装置。
4. The method according to claim 1, wherein said external position estimating means estimates the position.
Environment recognition for recognizing the environment by dividing the observation plane into regions for each object using information on the external position conjugate to the current focal position of the optical system and the defocus distribution measured by the defocus distribution measuring means. 2. The optical device according to claim 1, further comprising means.
【請求項5】 前記環境認識手段は、観察面内における
主要物体が存在する領域を認識するものであることを特
徴とする請求項4記載の光学装置。
5. The optical device according to claim 4, wherein the environment recognizing means recognizes an area where the main object exists in the observation plane.
【請求項6】 前記光学系の焦点位置と共役な外界位置
とは、光学系の距離情報であることを特徴とする請求項
1記載の光学装置。
6. The optical device according to claim 1, wherein the external position conjugate to the focal position of the optical system is distance information of the optical system.
JP18811198A 1998-06-19 1998-06-19 Optical device Pending JP2000009430A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP18811198A JP2000009430A (en) 1998-06-19 1998-06-19 Optical device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP18811198A JP2000009430A (en) 1998-06-19 1998-06-19 Optical device

Publications (1)

Publication Number Publication Date
JP2000009430A true JP2000009430A (en) 2000-01-14

Family

ID=16217903

Family Applications (1)

Application Number Title Priority Date Filing Date
JP18811198A Pending JP2000009430A (en) 1998-06-19 1998-06-19 Optical device

Country Status (1)

Country Link
JP (1) JP2000009430A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011039213A (en) * 2009-08-10 2011-02-24 Canon Inc Photographing system and lens apparatus
JP2016161721A (en) * 2015-02-27 2016-09-05 富士通株式会社 In-focus position detection device, in-focus position detection method, and in-focus position detection computer program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011039213A (en) * 2009-08-10 2011-02-24 Canon Inc Photographing system and lens apparatus
US8436933B2 (en) 2009-08-10 2013-05-07 Canon Kabushiki Kaisha Image pickup system and lens apparatus
JP2016161721A (en) * 2015-02-27 2016-09-05 富士通株式会社 In-focus position detection device, in-focus position detection method, and in-focus position detection computer program
US9635245B2 (en) 2015-02-27 2017-04-25 Fujitsu Limited Focus position detection device and focus position detection method

Similar Documents

Publication Publication Date Title
JP4018218B2 (en) Optical apparatus and distance measuring point selection method
JPH10161013A (en) Environment recognition device and camera provided therewith
JP2597961B2 (en) Automatic focusing device
US5091742A (en) Camera having an auto focusing device
JPH1125263A (en) Object feature point detector, focus adjusting device, exposure controller and camera
JPH10142490A (en) Environment recognition device and camera
JP2003029135A (en) Camera, camera system and photographic lens device
JPH0629895B2 (en) Focus state determination device
JP2000180709A (en) Range-finding device
JPH1138313A (en) Optical device and camera
JP3335419B2 (en) Camera ranging device
US6636699B2 (en) Focus detection device and distance measurement device
JP3630965B2 (en) Focus detection apparatus, camera, and focus detection method
JP4011738B2 (en) Optical device
JP3806489B2 (en) Ranging device
JP2000009430A (en) Optical device
JP2974637B2 (en) Automatic focusing device
JPH06138378A (en) Camera provided with focus detecting means and line-of-sight detecting means
JP5789937B2 (en) Image tracking device and imaging device
JP4262034B2 (en) Optical device and camera
EP0653655A2 (en) Focus detection apparatus
JPH085905A (en) Camera with focus detecting device
JP2832054B2 (en) Focus detection device
JP3117793B2 (en) Focus adjustment device
JPS63266434A (en) Automatic focusing device