JP2001154087A - Range finder - Google Patents

Range finder

Info

Publication number
JP2001154087A
JP2001154087A JP33629299A JP33629299A JP2001154087A JP 2001154087 A JP2001154087 A JP 2001154087A JP 33629299 A JP33629299 A JP 33629299A JP 33629299 A JP33629299 A JP 33629299A JP 2001154087 A JP2001154087 A JP 2001154087A
Authority
JP
Japan
Prior art keywords
light
subject
distance
distance measuring
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP33629299A
Other languages
Japanese (ja)
Inventor
Takashi Kindaichi
剛史 金田一
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optical Co Ltd filed Critical Olympus Optical Co Ltd
Priority to JP33629299A priority Critical patent/JP2001154087A/en
Publication of JP2001154087A publication Critical patent/JP2001154087A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Automatic Focus Adjustment (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Focusing (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a range finder for obtaining a difference signal between a pair of image signals using a normal light removing means, and then deciding a range finding area based on this. SOLUTION: This range finder is provided with photodetecting elements 4a and 4b for separately photodetecting a pair of field images formed by an optical system having parallax, and then outputting a pair of field signals, a light projecting source 14 for projecting range finding pulse light to plural range finding areas, normal light removing parts 17a and 17b for detecting normal light component of one of the pair of field image signals when the light source 14 is actuated, and then removing the normal light component of the other field image signal so as to select the active/non-active state of a function of removing the normal light component from the output of the photodetecting means, SW1 to SW4 for switching the operative/inoperative state of the normal light removing parts 17a and 17b, and a photocurrent integration part 5 for setting a range finding area, based on the output signals of the normal light removing parts 17a and 17b.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、例えば、銀塩カメ
ラやデジタルカメラ、ビデオカメラ等の撮像装置に用い
られる測距装置に係り、特に撮影画面内の複数箇所の被
写体距離を測距する所謂マルチオートフォーカス(以
下、マルチAFと称する)を実現する測距装置に係り、
特に全画面AF等のマルチAFの中でも広範囲の測距領
域を有することを特徴とした測距装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a distance measuring apparatus used for an image pickup apparatus such as a silver halide camera, a digital camera, and a video camera. In connection with a distance measuring device that realizes multi-auto focus (hereinafter, referred to as multi-AF),
In particular, the present invention relates to a distance measuring device characterized by having a wide ranging area in multi AF such as full screen AF.

【0002】[0002]

【従来の技術】今日、カメラ等の撮像装置では、測距装
置でマルチAFを実施するものが一般的になってきてい
る。また、撮影画面内の3点又は5点、7点の被写体距
離を測距する測距装置を搭載したカメラは、低価格機種
でも製品化されている。
2. Description of the Related Art At present, in an image pickup apparatus such as a camera, a multi-AF using a distance measuring apparatus has been generally used. Further, cameras equipped with a distance measuring device for measuring the object distance at three, five, or seven points in a photographing screen have been commercialized even at low-cost models.

【0003】上記マルチAFは、測距エリアを直線上に
配置した一次元マルチAFであるが、最近は二次元マル
チAF、エリアAFの製品化の兆しが見えている。
The multi-AF is a one-dimensional multi-AF in which distance measurement areas are arranged on a straight line. Recently, signs of commercialization of a two-dimensional multi-AF and an area AF have been observed.

【0004】その一例を挙げると、例えば図22に示さ
れるように、ファインダ視野16に対して45点もの測
距エリア17を設けたエリアAF機能を有する測距装置
を搭載したカメラが製品化され、市場にも出回っている
のが実状である。
As an example, as shown in FIG. 22, for example, a camera equipped with a distance measuring device having an area AF function in which as many as 45 distance measuring areas 17 are provided for a finder field of view 16 has been commercialized. The fact is that it is also available on the market.

【0005】このような従来技術に係るマルチAFで
は、測距エリア数が増加した分だけ測距演算の如き複雑
な演算を繰り返し実行しなければならないことに鑑み、
そのようなタイムラグを改善する為の種々の発明が提案
されている。
[0005] In such a multi-AF according to the prior art, in view of the fact that a complicated calculation such as a distance measurement operation must be repeatedly executed for the increased number of distance measurement areas,
Various inventions for improving such a time lag have been proposed.

【0006】例えば、特開平2−158705号公報で
は、先ず被写体の複数箇所を高精度ではなく粗く測距す
る第1測距モードで複数の被写体距離情報を取得し、そ
の中から最至近距離に相当する被写体距離を示す被写体
を選択し、この選択した被写体のみ高精度の第2測距モ
ードで測距することで、上述したようなタイムラグを改
善することを特徴とした技術が開示されている。
For example, in Japanese Patent Application Laid-Open No. 2-158705, first, a plurality of subject distance information is acquired in a first ranging mode in which a plurality of locations of a subject are roughly measured without high accuracy, and the closest distance is obtained from the information. A technique is disclosed in which a subject showing an equivalent subject distance is selected, and only the selected subject is measured in the second distance measurement mode with high accuracy, thereby improving the time lag as described above. .

【0007】さらに、特開昭63−131019号公報
では、アクティブ方式のAFで、投光光線の反射光量が
最も多いところに最至近の主要被写体が存在すると推定
することを基本概念とし、反射光量の少ない部分に関し
ては測距演算を省くことで、上述したようなタイムラグ
を改善する技術が開示されている。
Further, Japanese Patent Application Laid-Open No. 63-131019 has a basic concept that, in an active AF, it is assumed that the closest main subject is present at a position where the amount of reflected light of a projected light beam is the largest. There is disclosed a technology for improving the time lag as described above by omitting distance measurement calculation for a portion having a small number.

【0008】しかしながら、上記従来技術に係るAF方
式は、いずれもアクティブ方式を採用している為、タイ
ムラグ対策において高い効果をあげることができるが、
全画面AF等を実施しようとすると、投光素子の集りや
受光素子の集りは巨大化を避けられず、実用化に向けて
は高い障壁があった。
[0008] However, the AF method according to the prior art employs an active method, so that a high effect can be obtained in measures against time lag.
When performing full-screen AF or the like, the gathering of light projecting elements and the gathering of light receiving elements cannot be avoided, and there is a high barrier to practical use.

【0009】これに対して、パッシブ方式であれば、受
光素子の微細化は、アクティブ方式の投受光素子の微細
化よりも、遙かに進歩しており、上記実用化に向けての
障壁はないので、どちらかと言えば、全画面AF等の広
範囲マルチAFには、パッシブ方式が好都合であるとい
える。
On the other hand, in the case of the passive system, the miniaturization of the light receiving element has progressed far more than the miniaturization of the active type light emitting and receiving element. Since there is no such method, it can be said that the passive method is more convenient for wide-area multi-AF such as full-screen AF.

【0010】かかる点に鑑みて、特開昭62−1036
15号公報では、複数の測距エリアに対して粗く相関演
算を行い、その結果に基づき測距エリアを1つ選択し、
この選択した測距エリアのみ高精度の相関演算を行い、
パッシブ方式下でタイムラグを改善することを特徴とす
る技術が開示されている。
In view of the above, Japanese Patent Application Laid-Open No. 62-1036
In the gazette of No. 15, the correlation calculation is roughly performed on a plurality of ranging areas, and one ranging area is selected based on the result.
Performs high-precision correlation calculation only for this selected ranging area,
There is disclosed a technique characterized by improving a time lag under a passive method.

【0011】しかしながら、粗い相関演算といっても、
演算に用いるセンサデータを1つおきとする等、その手
段はセンサデータを間引くことであり、相関演算が省略
できるわけではない。従って、タイムラグ対策の効率は
アクティブ方式の方がパッシブ方式よりも高いか、同等
であるといえる。
[0011] However, even if a rough correlation operation is performed,
For example, every other sensor data used in the calculation is used to thin out the sensor data, and the correlation calculation cannot be omitted. Therefore, it can be said that the efficiency of the countermeasure against the time lag is higher or equal in the active method than in the passive method.

【0012】[0012]

【発明が解決しようとする課題】全画面AF等の広範囲
マルチAFを実施しようとすると、タイムラグ対策は必
須条件となるが、従来技術では、現在のところ有効な測
距方式とタイムラグ対策を備えたものは存在しない。
To implement a wide-area multi-AF such as a full-screen AF, measures against time lag are indispensable conditions. However, in the prior art, a distance measuring method and a time lag measure effective at present are provided. There is nothing.

【0013】コストを犠牲にして高速動作する高価なC
PUやマイコンを搭載したタイムラグ対策がなされてい
るのみである。
Expensive C operating at high speed at the expense of cost
Only a countermeasure against time lag with a PU or microcomputer is taken.

【0014】従って、従来技術の測距装置は、タイムラ
グ対策が不十分であり、タイムラグが大きいことが欠点
であり、課題であった。
Therefore, the conventional distance measuring apparatus has a problem that the measures against time lag are insufficient and the time lag is large.

【0015】本発明は、上記問題に鑑みてなされたもの
で、その目的とするところは、タイムラグが少なく、迅
速で、測距結果の信頼性も高く、高精度且つ安価な測距
装置を提供することにある。更に、定常光除去手段を用
いて、一対の像信号の差信号を求め、これにより測距エ
リアを決定することができる測距装置を提供することに
ある。
SUMMARY OF THE INVENTION The present invention has been made in view of the above problems, and has as its object to provide a highly accurate and inexpensive distance measuring apparatus which has a small time lag, is quick, has a high reliability of a distance measurement result, and has a high accuracy. Is to do. It is still another object of the present invention to provide a distance measuring device that can obtain a difference signal between a pair of image signals by using a stationary light removing unit and thereby determine a distance measuring area.

【0016】[0016]

【課題を解決するための手段】上記目的を達成するため
に、本発明の第1の態様では、被写界内部に複数の測距
可能エリアを有するカメラの測距装置であって、視差を
有する光学系によって結像される対の被写界像をそれぞ
れ受光して、対の被写界信号を出力する受光手段と、上
記複数の測距エリアに向けて測距用パルス光を投射する
投光手段と、上記投光手段を作動させた際の上記一対の
被写界像信号のうち一方の定常光成分を検知して、これ
により他方の定常光成分を除去することにより上記受光
手段の出力から定常光成分を除去する機能の作動/不作
動が選択可能な定常光除去手段と、上記定常光除去手段
に作動/不作動の切り換えを行う積分モード設定手段
と、上記定常光除去手段を作動させた際の定常光除去手
段の出力信号に基づいて、測距エリアの設定を行う測距
エリア設定手段と、を具備し、上記測距エリア設定手段
により設定された測距領域において上記受光手段の出力
に基づいて測距演算を行うようにしたことを特徴とする
測距装置が提供される。
In order to achieve the above object, according to a first aspect of the present invention, there is provided a distance measuring apparatus for a camera having a plurality of distance measuring areas inside an object scene, wherein a parallax is detected. Light receiving means for receiving a pair of field images formed by the optical system and outputting a pair of field signals, and projecting distance measuring pulse light toward the plurality of distance measuring areas. A light projecting means, and detecting the one steady light component of the pair of object image signals when the light projecting means is operated, thereby removing the other steady light component, thereby detecting the light receiving means. Stationary light removing means capable of selecting operation / non-operation of a function of removing a stationary light component from the output of the light source; integration mode setting means for switching the operation / non-operation of the stationary light removing means; Based on the output signal of the steady light removal means when the And a distance measurement area setting means for setting a distance measurement area, wherein the distance measurement calculation is performed based on the output of the light receiving means in the distance measurement area set by the distance measurement area setting means. A distance measuring device is provided.

【0017】第2の態様では、上記第1の態様におい
て、上記受光手段は、定常光レベルを記憶する定常光記
憶部と、定常光記憶部に記憶された定常光レベルを差引
くことにより定常光成分を除去する定常光除去部と、を
具備して成ることを特徴とする測距装置が提供される。
In a second aspect, in the first aspect, the light receiving means includes a stationary light storage section for storing a stationary light level, and a stationary light level stored in the stationary light storage section, the difference being subtracted from the stationary light level. And a stationary light removing unit for removing a light component.

【0018】上記第1及び第2の態様によれば以下の作
用が奏される。
According to the first and second aspects, the following operations are provided.

【0019】即ち、本発明の第1の態様では、被写界内
部に複数の測距可能エリアを有するカメラの測距装置で
あって、受光手段により視差を有する光学系によって結
像される対の被写界像がそれぞれ受光されて、対の被写
界信号が出力され、投光手段により上記複数の測距エリ
アに向けて測距用パルス光が投射され、定常光除去手段
により上記投光手段を作動させた際の上記一対の被写界
像信号のうち一方の定常光成分が検知されて、これによ
り他方の定常光成分が除去され、上記受光手段の出力か
ら定常光成分が除去される機能の作動/不作動が選択さ
れ、積分モード設定手段により、記定常光除去手段に作
動/不作動の切り換えが行われ、測距エリア設定手段に
より、上記定常光除去手段を作動させた際の定常光除去
手段の出力信号に基づいて、測距エリアの設定が行わ
れ、上記測距エリア設定手段により設定された測距領域
において上記受光手段の出力に基づいて測距演算が行わ
れる。
That is, according to a first aspect of the present invention, there is provided a distance measuring apparatus for a camera having a plurality of distance measuring areas inside a field, and a pair of images formed by an optical system having parallax by light receiving means. Are respectively received, a pair of field signals are output, a distance measuring pulse light is projected toward the plurality of distance measuring areas by the light projecting means, and the distance measuring pulse light is projected by the stationary light removing means. One stationary light component of the pair of field image signals when the light means is operated is detected, whereby the other stationary light component is removed, and the steady light component is removed from the output of the light receiving means. The operation / non-operation of the function to be performed is selected, the integration mode setting means switches the operation / non-operation of the stationary light removing means, and the distance measuring area setting means activates the stationary light removing means. The output signal of the steady light removal means And Zui, setting ranging areas is performed, the ranging operation on the basis of the output of said light receiving means in a distance measuring area set by the ranging area setting means is performed.

【0020】第2の態様では、上記第1の態様におい
て、上記受光手段において、定常光記憶部ににより定常
光レベルが記憶され、定常光除去部により定常光記憶部
に記憶された定常光レベルが差引かれることで定常光成
分が除去される。
According to a second aspect, in the first aspect, the stationary light level stored in the stationary light storage unit by the stationary light storage unit and the stationary light level stored in the stationary light storage unit by the stationary light removal unit in the light receiving means. Is subtracted, thereby removing the stationary light component.

【0021】[0021]

【発明の実施の形態】以下、図面を参照して、本発明の
実施の形態について説明する。
Embodiments of the present invention will be described below with reference to the drawings.

【0022】この発明は、定常光除去手段を用いて、一
対の像信号の差信号を求め、これにより測距エリアを決
定することを特徴とするものである。
The present invention is characterized in that a difference signal between a pair of image signals is obtained by using a stationary light removing means, and a distance measuring area is determined based on the difference signal.

【0023】図1は本発明の第1の実施の形態に係る測
距装置の構成を示す図である。
FIG. 1 is a diagram showing a configuration of a distance measuring apparatus according to a first embodiment of the present invention.

【0024】同図に於いて、測距装置の所定位置には、
被写体光、及び補助光の被写体での反射光を集光するた
めの受光レンズ1a,1bが設けられている。
In the figure, at a predetermined position of the distance measuring device,
Light receiving lenses 1a and 1b for condensing the subject light and the auxiliary light reflected by the subject are provided.

【0025】さらに、上記受光レンズ1a,1bの光路
を確保、分割し、また、不要な外光の光路への進入を防
ぐために筐体2が設けられている。この筐体2は、上述
の目的から、通常は黒色等の濃色で遮光性に優れた材料
で形成されている。
Further, a housing 2 is provided to secure and divide the optical paths of the light receiving lenses 1a and 1b, and to prevent unnecessary outside light from entering the optical paths. For the above-mentioned purpose, the housing 2 is usually formed of a material having a good light-shielding property and a dark color such as black.

【0026】尚、上記筐体2としては、上述した材料で
形成されたものの他、内部で光の乱反射が生じないよう
に筐体内部に斜勾線を設けたものや、シボ打ち加工が施
されたもの等を採用することができることは勿論であ
る。
The casing 2 may be formed of the above-mentioned materials, may be provided with an oblique line inside the casing to prevent irregular reflection of light inside, or may be subjected to embossing. Needless to say, it is possible to adopt the one that has been done.

【0027】図中、符号3は、オートフォーカス用集積
回路(以下、AFICと称する)である。以下、当該A
FIC3の構成について詳細に説明する。
In the drawing, reference numeral 3 denotes an autofocus integrated circuit (hereinafter, referred to as AFIC). Hereinafter, the relevant A
The configuration of the FIC 3 will be described in detail.

【0028】このAFIC3の内部には、上記受光レン
ズ1a,1bによって集光された光を受光し、光電変換
する受光素子4a,4bの集合体が設けられている。さ
らに、この受光素子4a,4bで素子毎に光電変換され
た光電流を素子毎に積分するための光電流積分部5が設
けられている。また、AFIC3の内部の各部をリセッ
トするためのリセット部7が設けられている。
Inside the AFIC 3, an aggregate of light receiving elements 4a and 4b for receiving the light condensed by the light receiving lenses 1a and 1b and performing photoelectric conversion is provided. Further, a photocurrent integration unit 5 for integrating the photocurrent photoelectrically converted by the light receiving elements 4a and 4b for each element is provided. Further, a reset section 7 for resetting each section inside the AFIC 3 is provided.

【0029】また、図中の符号8は、上記光電流積分部
5に任意の領域を設定し、設定された領域内の光電流の
最大積分量を検出し、最大積分量を一時的にサンプルホ
ールドして、光電流の積分を制御するためのモニタ信号
を出力するためのモニタ信号検出範囲設定とモニタ信号
出力部である。
Reference numeral 8 in the figure designates an arbitrary area in the photocurrent integrator 5, detects the maximum integration amount of the photocurrent in the set area, and temporarily samples the maximum integration amount. A monitor signal detection range setting and monitor signal output unit for holding and outputting a monitor signal for controlling integration of a photocurrent.

【0030】この他、AFIC3には、上記光電流積分
部5の積分結果である複数積分量を記憶保持する記憶部
9や、当該モニタ信号検出範囲設定とモニタ信号出力部
8及び記憶部9の内容を外部へ出力する出力部10も設
けられている。
In addition, the AFIC 3 has a storage unit 9 for storing and storing a plurality of integration amounts which are integration results of the photocurrent integration unit 5 and a monitor signal detection range setting and monitor signal output unit 8 and a storage unit 9. An output unit 10 for outputting contents to the outside is also provided.

【0031】この出力部10は、その内部に信号を増幅
するための増幅手段を内蔵したものであってもよいこと
は勿論である。尚、上記外部からの制御信号に基づきA
FIC3の内部を制御する役目は制御部11が担い、電
圧源、電流源等の集まりあるバイアス部12より各部に
電源が供給されている。
The output unit 10 may of course have a built-in amplification means for amplifying a signal inside. It should be noted that, based on the external control signal, A
The control section 11 plays a role of controlling the inside of the FIC 3, and power is supplied to each section from a bias section 12 having a group of voltage sources, current sources, and the like.

【0032】一方、被写体に光を照射するための投光光
源14と、当該投光光源14の投光を集光するための投
光レンズ1cも設けられている。この投光光源14は、
ドライバ部15により駆動制御されることになる。
On the other hand, a light projecting light source 14 for irradiating the subject with light and a light projecting lens 1c for condensing the light emitted from the light projecting light source 14 are also provided. This projection light source 14
The driving is controlled by the driver unit 15.

【0033】図中、符号13は、中央演算処理装置(以
下、CPUと称する)である。このCPU13は、上記
各部の制御を行う第1の実施の形態に係る測距装置の中
枢機関に相当する。そして、このCPU13は、測距装
置の制御以外のカメラの諸動作の制御を行うことは勿論
である。このCPU13の機能を測距装置関係に限定す
れば、その概要は、被写体の情報入手と測距演算が主と
なる。なお、この被写体の情報入手、測距演算等の測距
関係の機能は、必ずしもCPU13に属する必要はな
く、AFIC3に内蔵されてもよいことは勿論である。
In the figure, reference numeral 13 denotes a central processing unit (hereinafter, referred to as a CPU). The CPU 13 corresponds to a central mechanism of the distance measuring apparatus according to the first embodiment that controls the above-described units. And, of course, the CPU 13 controls various operations of the camera other than the control of the distance measuring device. If the functions of the CPU 13 are limited to those related to a distance measuring device, the outline thereof mainly includes obtaining information on a subject and calculating distances. Note that the functions related to distance measurement, such as information acquisition of a subject and distance measurement calculation, do not necessarily belong to the CPU 13 and may be built in the AFIC 3.

【0034】以上説明した構成の他、同図においては不
図示ではあるが、測距に必要なデータ、即ち例えば調整
データ等を記憶しておく為の不揮発性メモリたるEEP
ROM等を内蔵させることも可能である。
In addition to the configuration described above, although not shown in the figure, EEP is a non-volatile memory for storing data necessary for distance measurement, for example, adjustment data.
It is also possible to incorporate a ROM or the like.

【0035】以下、図2のフローチャートを参照して、
上記前述した図1の構成の実施の形態に係る測距装置の
動作を詳細に説明する。尚、以下の説明では、図1の構
成を同一符号をもって適宜参照しつつ説明を進める。
Hereinafter, referring to the flowchart of FIG.
The operation of the distance measuring apparatus according to the embodiment having the configuration shown in FIG. 1 will be described in detail. In the following description, the description will proceed with reference to the configuration of FIG.

【0036】先ず、CPU13は、測距装置初期設定を
行う(ステップS1)。
First, the CPU 13 performs an initial setting of the distance measuring device (step S1).

【0037】即ち、初めにCPU13自体が測距を開始
する為の準備動作を行い、当該準備完了後、測距動作に
入る。CPU13が、制御部11に制御信号を送ると、
当該制御部11がリセット部7を起動する。この起動に
伴って、リセット部7は、光電流積分部5、及びモニタ
信号検出範囲設定とモニタ信号出力部8、記憶部9を、
それぞれリセットする。
That is, first, the CPU 13 itself performs a preparatory operation for starting distance measurement, and after the completion of the preparation, enters a distance measuring operation. When the CPU 13 sends a control signal to the control unit 11,
The control unit 11 activates the reset unit 7. With this activation, the reset unit 7 causes the photocurrent integrator 5, the monitor signal detection range setting and monitor signal output unit 8, and the storage unit 9 to
Reset each one.

【0038】続いて、CPU13は、積分を実行する
(ステップS2)。
Subsequently, the CPU 13 executes integration (step S2).

【0039】即ち、CPU13は、モニタ信号検出範囲
を設定するための信号を制御部11へ送る。この信号を
受けると、制御部11は、モニタ信号検出範囲を設定す
る。次いで、CPU13は、必要に応じてドライバ部1
5に対し、投光部14を発光させるための信号を送り、
当該投光部14を発光させる。続いて、CPU13は、
制御部11に対して光電流積分を開始するための信号を
出力する。この信号を受けると、制御部11は、光電流
積分部5による光電流積分を開始させる。そして、所定
の動作を実行した後、CPU13は、光電流の積分を終
了させる。
That is, the CPU 13 sends a signal for setting the monitor signal detection range to the control unit 11. Upon receiving this signal, the control unit 11 sets a monitor signal detection range. Next, the CPU 13 executes the driver unit 1 as necessary.
5, a signal for causing the light emitting unit 14 to emit light is sent,
The light emitting unit 14 emits light. Subsequently, the CPU 13
A signal for starting photocurrent integration is output to the control unit 11. Upon receiving this signal, the control unit 11 causes the photocurrent integration unit 5 to start photocurrent integration. Then, after executing the predetermined operation, the CPU 13 ends the integration of the photocurrent.

【0040】次いで、センサデータ(左/右)L(m)
及びR(m)を取得する(ステップS3)。
Next, sensor data (left / right) L (m)
And R (m) (step S3).

【0041】即ち、CPU13は、上記積分終了後に、
光電流積分部5により積分された複数の光電変換素子毎
の積分量の全てを記憶部9に記憶させる。この記憶部9
に記憶された積分量は、被写体の像信号である。CPU
13は、この像信号を出力部10を介して取得する。C
PU13は、取得したセンサデータの差分データを求
め、また、差分データの最大値と最大値のセンサ上の位
置を検出する。このとき、差分データはΔLR(m)=
L(m)−R(m)であり、ΔLR(m)は、絶対値や
負数の場合、0に丸める等の演算を実施してもよい。
That is, after the completion of the integration, the CPU 13
The storage unit 9 stores all the integration amounts of the plurality of photoelectric conversion elements integrated by the photocurrent integration unit 5. This storage unit 9
Is the image signal of the subject. CPU
13 acquires this image signal via the output unit 10. C
The PU 13 obtains difference data of the acquired sensor data, and detects the maximum value of the difference data and the position of the maximum value on the sensor. At this time, the difference data is ΔLR (m) =
L (m) −R (m), and ΔLR (m) may be calculated by rounding to zero if it is an absolute value or a negative number.

【0042】続いて、CPU13は、上記ステップS3
で検出した最大値と所定値とを大小比較する(ステップ
S4)。ここで、最大値が所定値よりも大きいときは、
主要被写体が有限距離に存在すると推定される場合であ
ると判断し、後述するステップS5に移行する。一方、
最大値が所定値よりも小さい場合は、主要被写体が遠方
に存在し、主要被写体位置を推定不可能な場合であると
判断し、ステップS6に移行する。
Subsequently, the CPU 13 proceeds to step S3
A comparison is made between the maximum value detected in step (1) and the predetermined value (step S4). Here, when the maximum value is larger than the predetermined value,
It is determined that this is the case where the main subject is estimated to be at a finite distance, and the process proceeds to step S5 described later. on the other hand,
If the maximum value is smaller than the predetermined value, it is determined that the main subject is distant and the main subject position cannot be estimated, and the process proceeds to step S6.

【0043】ステップS5では、CPU13は、最大値
のポイントを中心とした所定の領域に測距エリアを設定
する。即ち、図3に示すシーンでは、積分によりセンサ
データが得られ(図4(a),(b)参照)、差分デー
タ(図4(c)参照)とその最大値に基づき、測距エリ
アが設定され(図4(a),(b)参照)、積分結果と
設定された測距エリアとで被写体距離が求められる。
尚、測距エリアは検出又設定してもよい。
In step S5, the CPU 13 sets a distance measurement area in a predetermined area centered on the point of the maximum value. That is, in the scene shown in FIG. 3, sensor data is obtained by integration (see FIGS. 4A and 4B), and the distance measurement area is determined based on the difference data (see FIG. 4C) and its maximum value. The distance is set (see FIGS. 4A and 4B), and the subject distance is obtained from the integration result and the set distance measurement area.
Note that the distance measurement area may be detected or set.

【0044】ステップS6では、予め用意してある所定
の領域(デフォルト位置)に測距エリアを設定する。例
えば、図5に示すシーンでは、差分データ(図6(c)
参照)では所要被写体位置を推定できない。このとき
は、デフォルト位置に測距エリアを設定すればよい。即
ち、図6(a),(b)に示されるように、測距エリア
をオーバーラップさせても良いし、測距エリアをオーバ
ーラップさせることなく複数設定しても良いことは勿論
である。
In step S6, a distance measurement area is set in a predetermined area (default position) prepared in advance. For example, in the scene shown in FIG. 5, the difference data (FIG. 6C)
) Cannot estimate the required subject position. In this case, the distance measurement area may be set at the default position. That is, as shown in FIGS. 6A and 6B, the distance measurement areas may be overlapped, or a plurality of distance measurement areas may be set without overlapping.

【0045】続いて、CPU13は、相関演算と最至近
選択を実行する(ステップS8)。
Subsequently, the CPU 13 executes the correlation calculation and the closest selection (step S8).

【0046】即ち、CPU13は、積分を終了させる
と、被写体の像信号である光電変換素子毎の積分量を記
憶部9に記憶させる。続いて、出力部10により被写体
の像信号を出力させ取得する。このとき、CPU13
は、被写体の像信号の全てを取得してもよいが、上記ス
テップS5又はS6で設定した測距エリアのみの像信号
を取得する方が効率的である。
That is, when the integration is completed, the CPU 13 causes the storage unit 9 to store the integration amount of each photoelectric conversion element, which is the image signal of the subject. Subsequently, the output unit 10 outputs and acquires an image signal of the subject. At this time, the CPU 13
May acquire all the image signals of the subject, but it is more efficient to acquire an image signal of only the ranging area set in step S5 or S6.

【0047】CPU13は、取得した被写体の像信号に
基づき、測距エリア毎に相関演算を行い、測距エリア毎
の被写体像の位相差を求める。かかる位相差は、被写体
の距離に相当する。そして、複数の測距エリアから得ら
れた複数の被写体距離より最至近選択を行い、最至近の
被写体距離を最終測距結果とする。
The CPU 13 performs a correlation operation for each distance measurement area based on the acquired image signal of the object, and obtains a phase difference of the object image for each distance measurement area. Such a phase difference corresponds to the distance of the subject. Then, the closest distance is selected from a plurality of object distances obtained from a plurality of distance measurement areas, and the closest object distance is set as a final distance measurement result.

【0048】以上の処理の後、CPU13は、AFIC
3の電源をOFFにする動作を含む後処理を実行し、こ
うして一連の測距動作を終了する(ステップS9)。
After the above processing, the CPU 13
A post-processing including an operation of turning off the power of the power supply 3 is executed, and a series of distance measurement operations is completed (step S9).

【0049】ここで、前述した通り、CPU13の実行
する動作は、AFIC3の制御の下で実行しても構わな
いことは勿論である。
Here, as described above, the operation executed by the CPU 13 may of course be executed under the control of the AFIC 3.

【0050】例えば、前述した従来技術のように、一次
元又は二次元のセンサにて非常に広範囲を測距する場
合、設定される測距エリアの数も非常に多数となり、相
関演算等の複雑な演算を非常に多数回繰り返さねばなら
ず、タイムラグが大きくなるか、或いは高速で高価なC
PUの使用によりコストアップが生じる。
For example, when a very wide range is measured by a one-dimensional or two-dimensional sensor as in the above-described prior art, the number of distance measurement areas to be set is very large, and a complicated calculation such as a correlation operation is required. Operations must be repeated very many times, resulting in a large time lag or a high-speed and expensive C
Use of a PU increases costs.

【0051】これに対して、本発明の実施の形態によれ
ば、被写体像を積分し取得した被写体像、センサデータ
とその差分データの最大値を取得することで、主要被写
体の位置を推定することが可能となる。
On the other hand, according to the embodiment of the present invention, the position of the main subject is estimated by acquiring the subject image obtained by integrating the subject image and the maximum value of the sensor data and the difference data thereof. It becomes possible.

【0052】従って、この実施の形態では、推定した主
要被写体の距離を高精度に検出するのに必要な最低限の
測距エリアを設定することができるため、不要な演算を
する必要はなくなる。つまり、高速で高価なCPU13
は不要となり、タイムラグも大幅に増加しないといった
効果を奏する。
Therefore, in this embodiment, the minimum distance measurement area necessary for detecting the estimated distance of the main subject with high accuracy can be set, so that there is no need to perform unnecessary calculations. That is, the high-speed and expensive CPU 13
Is unnecessary, and the effect that the time lag does not increase significantly is exhibited.

【0053】以上、本発明の実施の形態の構成、作用、
効果を概説した。
As described above, the configuration, operation, and operation of the embodiment of the present invention
The effects were outlined.

【0054】次に図7のフローチャートを参照して、実
施の形態に係る測距装置の測距動作を説明する。尚、以
下の説明では、各種フローチャートや撮影シーンとその
時の積分のセンサデータ等に係る図を、適宜参照しつつ
説明を進める。
Next, the distance measuring operation of the distance measuring apparatus according to the embodiment will be described with reference to the flowchart of FIG. In the following description, the description will be made with reference to various flowcharts and figures relating to the shooting scene and sensor data of the integration at that time, as appropriate.

【0055】先ず、CPU13は、測距装置の初期設定
を行う(ステップS11)。
First, the CPU 13 performs an initial setting of the distance measuring device (step S11).

【0056】このステップS11は、上記図2のステッ
プS1と同様の処理であり、CPU13自身や光電流積
分部5、モニタ信号検出範囲設定とモニタ信号出力部
8、記憶部9のリセット動作を行う。
This step S11 is the same processing as step S1 in FIG. 2 described above. The CPU 13 itself, the photocurrent integrator 5, the monitor signal detection range setting and the reset operation of the monitor signal output unit 8 and the storage unit 9 are performed. .

【0057】続いて、CPU13は、プリ積分1を行う
(ステップS12)。
Subsequently, the CPU 13 performs pre-integration 1 (step S12).

【0058】このプリ積分は、上記図2では行っていな
かったが、ここでは、本積分の積分条件の内のいくつか
を予め決定しておくために行うこととしている。不図示
ではあるが光電変換素子のセンサ感度を設定・切り換え
る手段があり、センサ感度を高感度に設定する。センサ
感度切換えは、光電流の増幅率を切換えたり、積分容量
の容量を切換える等の方法を採用することができる。投
光光源14は消灯し、被写体からの光を積分する。積分
制御は、予め決められた所定の短時間のみ積分動作する
ようにする。
Although the pre-integration was not performed in FIG. 2, it is performed here in order to determine some of the integration conditions of the main integration in advance. Although not shown, there is a means for setting / switching the sensor sensitivity of the photoelectric conversion element, and sets the sensor sensitivity to high sensitivity. For the sensor sensitivity switching, a method of switching the amplification rate of the photocurrent, switching the capacity of the integration capacity, or the like can be adopted. The light source 14 is turned off and integrates light from the subject. In the integral control, the integral operation is performed only for a predetermined short time.

【0059】次いで、CPU13は、プリ積分の最大積
分量を検出する(ステップS13)。 これは、被写体
の最も明るい部分の輝度と関連し、本積分でのセンサ感
度や補助光の有無を決定するのに用いる。この最大積分
量の検出は、積分終了後モニタ信号を出力して、これを
最大積分量とすることもできる。
Next, the CPU 13 detects the maximum integration amount of the pre-integration (step S13). This is related to the brightness of the brightest part of the subject, and is used to determine the sensor sensitivity in the main integration and the presence / absence of auxiliary light. For detection of the maximum integration amount, a monitor signal may be output after the integration is completed, and this may be used as the maximum integration amount.

【0060】続いて、CPU13は、本積分の積分条件
の一部を決定する(ステップS14)。 主条件は、セ
ンサ感度と補助光の有無の設定である。
Subsequently, the CPU 13 determines a part of the integration conditions for the main integration (step S14). The main conditions are the setting of the sensor sensitivity and the presence or absence of the auxiliary light.

【0061】次いで、CPU13は、本積分1を実行す
る(ステップS15)。
Next, the CPU 13 executes the main integration 1 (step S15).

【0062】これは、先に示した図2のフローチャート
のステップS2の積分と同様である。 続いて、CPU
13は、上記積分の左のセンサデータから右のセンサデ
ータの差を求め、この差分信号の最大値とそのセンサ上
の位置を検出する(ステップS16)。ここでは、最大
差分信号の位置に主要被写体が存在すると推定する。こ
の最大差分信号は、被写体からの反射光の像信号の差
分、つまり位相差で差分信号が大きい程、位相差も大き
く、被写体が最至近にあるものである可能性が高く、同
時に主要被写体である可能性も高い。
This is the same as the integration in step S2 in the flowchart of FIG. 2 described above. Then, CPU
In step S16, the difference between the left sensor data and the right sensor data is obtained, and the maximum value of the difference signal and the position on the sensor are detected. Here, it is estimated that the main subject exists at the position of the maximum difference signal. The maximum difference signal is the difference between the image signals of the reflected light from the subject, that is, the larger the difference signal is in the phase difference, the larger the phase difference is, and the higher the possibility that the subject is closest to the subject is. It is highly possible.

【0063】ここで、図8のフローチャートを参照し
て、図7の上記ステップS15,S16の主要被写体サ
ーチについて更に詳細に説明する。
Here, the main subject search in steps S15 and S16 in FIG. 7 will be described in more detail with reference to the flowchart in FIG.

【0064】先ず、CPU13は、カメラのAFモード
がノーマルモードかスポットモードか判断する(ステッ
プS31)。ここで、「スポットモード」とは、画面中
央に関してのみ測距するAFモードであり、当該スポッ
トモードのときは、主要被写体サーチは何も実行せずに
リターンする。
First, the CPU 13 determines whether the AF mode of the camera is a normal mode or a spot mode (step S31). Here, the "spot mode" is an AF mode in which distance measurement is performed only for the center of the screen. In the spot mode, the main subject search is returned without performing any operation.

【0065】一方、スポットモードでない場合は、図7
のステップS15と同様、本積分1を実行する(ステッ
プS32)。続いて、CPU13は、AFIC3より本
積分1のセンサデータ、つまり、被写体の像信号を取得
する(ステップS33)。
On the other hand, when the mode is not the spot mode, FIG.
As in step S15, the main integration 1 is executed (step S32). Subsequently, the CPU 13 acquires the sensor data of the main integration 1, that is, the image signal of the subject from the AFIC 3 (step S33).

【0066】そして、CPU13は、上記ステップS3
3で取得した左右の像信号の差分信号の極大値を検索
し、その極大値が所定範囲内の値(Pmax 〜Pmin )の
ものだけを抽出する(ステップS34)。
Then, the CPU 13 proceeds to step S3
The maximum value of the difference signal between the left and right image signals acquired in step 3 is searched, and only those having a maximum value within a predetermined range (Pmax to Pmin) are extracted (step S34).

【0067】例えば、図9に示すシーンのようにショー
ウインド内のマネキン等が被写体で、ガラスに太陽光の
反射による輝点が存在する場合には、積分すると、図1
0(a)(b)に示されるような像信号が得られる。そ
して、かかる左右の像信号の差信号(図10(c)参
照)において、極大値を検索すると、3つの極大値が抽
出される。各極大値は、左からの順に右側マネキンの像
信号、ガラスの正反対による像信号、左側マネキンの像
信号である。
For example, when a mannequin or the like in a show window is a subject as in the scene shown in FIG. 9 and there is a bright spot due to the reflection of sunlight on the glass, integration is performed as shown in FIG.
Image signals as shown in FIGS. 0 (a) and (b) are obtained. Then, when the local maximum value is searched for in the difference signal between the left and right image signals (see FIG. 10C), three local maximum values are extracted. The respective maximum values are, in order from the left, an image signal of the right mannequin, an image signal of the opposite direction of the glass, and an image signal of the left mannequin.

【0068】これらの極大値から、図10(a),
(b)に示されるように、所定範囲内の値(Pmax 〜P
min )のものだけを抽出すれば、ガラスの正反対による
像信号を除外することが可能で、主要被写体の推定の誤
りを防止できる。
From these local maxima, FIG.
As shown in (b), values within a predetermined range (Pmax to Pmax)
By extracting only the image of min), it is possible to exclude the image signal due to the opposite of the glass, and it is possible to prevent the estimation of the main subject from being erroneous.

【0069】図8の説明に戻り、続くステップS35で
は、CPU13は、積分の左右の像信号の差分信号から
有効な極大値が検出されなかったことを示すフラグf−
searcherrを1に設定する。このフラグ「f−
searcherr」は、有効な極大値が残ったところ
で0に設定されるものとする。
Returning to the description of FIG. 8, in the subsequent step S35, the CPU 13 sets the flag f− indicating that no valid maximum value was detected from the difference signal between the left and right image signals of the integration.
Set searcherr to 1. This flag "f-
“searcherr” is set to 0 when a valid maximum value remains.

【0070】続いて、CPU13は、有効極大値の有無
を判断し(ステップS36)、有効極大値が無い場合に
はリターンし、有効極大値が有る場合には、次のステッ
プ39を実行する。このステップS39では、極大値に
補正関数を加味して、その演算結果が0になるものを除
外する。
Subsequently, the CPU 13 determines whether there is an effective maximum value (step S36), and returns if there is no effective maximum value, and executes the next step 39 if there is an effective maximum value. In step S39, a value whose calculation result is 0 is excluded by adding a correction function to the local maximum value.

【0071】ここで、上記補正関数は、センサ上の位置
とカメラの撮影光学系の焦点距離、カメラの撮影画面モ
ード(標準、パノラマ、ハイビジョン)の関数であり、
その例は図13に示される。以下、補正関数の意味を説
明する。
Here, the correction function is a function of the position on the sensor, the focal length of the photographing optical system of the camera, and the photographing screen mode of the camera (standard, panorama, high-vision).
An example is shown in FIG. Hereinafter, the meaning of the correction function will be described.

【0072】先ず、カメラの撮影光学系の焦点距離とカ
メラの撮影画面モードの入力情報により、カメラの撮影
画角(範囲)が決まる。このカメラの撮影画角に対する
それぞれの位置毎の主要被写体の存在確率が、補正関数
の一例である。尚、同図では、撮影種類毎に焦点距離に
対応した撮影画角を示している。
First, the photographing view angle (range) of the camera is determined by the focal length of the photographing optical system of the camera and the input information of the photographing screen mode of the camera. The existence probability of the main subject at each position with respect to the shooting angle of view of the camera is an example of the correction function. Note that FIG. 3 shows the shooting angle of view corresponding to the focal length for each shooting type.

【0073】この図13に示されるように、画面中央の
主要被写体存在確率が高く、周辺へ行く程、存在確率は
低くなり、画面の外周部付近では存在確率がほとんどゼ
ロとなる。そして、カメラの撮影画角とセンサ上の位置
を対応付けると極大値に補正関数を加味して、極大値の
重み付け抽出又は除外が可能になる。
As shown in FIG. 13, the existence probability of the main subject at the center of the screen is high, and the existence probability becomes lower toward the periphery, and the existence probability becomes almost zero near the outer periphery of the screen. When the angle of view of the camera and the position on the sensor are associated with each other, it is possible to extract or exclude the weight of the local maximum value by adding the correction function to the local maximum value.

【0074】例えば、図11に示すシーンの場合を例に
挙げて説明する。
For example, the case of the scene shown in FIG. 11 will be described.

【0075】この図11のシーンの様に中央付近に主要
被写体が存在し、左右端に雑被写体が存在するような場
合、積分すると、その左右の像信号の差信号は図12に
示されるようになる。左の極大値から順に画面左側の雑
被写体による差信号、主要被写体による差信号、画面右
側の雑被写体による差信号である。
In the case where a main subject exists near the center and a rough subject exists at the left and right ends as in the scene of FIG. 11, when integration is performed, the difference signal between the left and right image signals is as shown in FIG. become. The difference signal is a difference signal due to a rough subject on the left side of the screen, a difference signal due to a main subject, and a difference signal due to a rough subject on the right side of the screen in order from the left maximum value.

【0076】ところで、積分の差信号の極大値は3つ存
在するが、これに上記補正関数を加味すると、即ち、例
えば、極大値に補正関数を乗算すると、画面外周部分に
存在する極大値を除外することが可能となり、周辺の雑
被写体を除外することができることとなる。
By the way, there are three local maximum values of the difference signal of the integral. When the above-mentioned correction function is added to this, that is, for example, when the local maximum value is multiplied by the correction function, the local maximum value existing on the outer peripheral portion of the screen is calculated. It is possible to exclude, and it is possible to exclude surrounding rough subjects.

【0077】ここで、図8の説明に戻る。上記処理の
後、CPU13は、再び有効極大値の有無を判断し(ス
テップS40)、当該有効極大値が無い場合はリターン
し、当該有効極大値が有る場合は、この時点で最低でも
1つの有効極大値が残るので、フラグf−search
errを0とする(ステップS41)。
Here, the description returns to FIG. After the above processing, the CPU 13 determines again whether or not there is an effective maximum value (step S40), returns if there is no effective maximum value, and if there is such an effective maximum value, at least one effective value at this time. Since the maximum value remains, the flag f-search
err is set to 0 (step S41).

【0078】このフラグ「f−searcherr」が
0である事は、有効極大値が見つかったことを意味す
る。続いて、CPU13は、極大値を更に絞り、残った
極大値の中の最大極大値(Pmax )を含む所定範囲(P
max 〜Pmax −Po )以外の極大値を除外する(ステッ
プS42)。
When the flag “f-searchcherr” is 0, it means that an effective maximum value has been found. Subsequently, the CPU 13 further narrows the maximum value, and determines a predetermined range (Pmax) including the maximum maximum value (Pmax) among the remaining maximum values.
The maximum values other than max to Pmax-Po) are excluded (step S42).

【0079】先に示した図9のシーンでは、2体のマネ
キンがあり、着ている服が白のものと黒のものである。
このように、被写体には色があり、色の違いは反射率の
違いを生じる。そして、最至近にある主要被写体を推定
する場合においては、かかる被写体の反射率は無視する
ことができない。本実施の形態では、Po の範囲内に含
まれる極大値の取り扱いを同等にすることで、被写体反
射率に起因する主要被写体位置推定ミスによる誤測距を
防止することとしている。
In the scene of FIG. 9 described above, there are two mannequins, and the clothes worn are white and black.
As described above, the subject has a color, and the difference in color causes a difference in reflectance. When estimating the closest main subject, the reflectance of the subject cannot be ignored. In this embodiment, erroneous distance measurement due to an erroneous estimation of the main subject position caused by the reflectance of the subject is prevented by treating the maximum values included in the range of Po equally.

【0080】以上のようにステップS32〜S42を実
行すれば、ガラスの正反射や周辺の雑被写体、被写体の
反射率の影響を受けずに、少なくとも主要被写体による
極大値を含んだ、積分の左右の像信号の差分信号の極大
値を抽出することが可能である。
By executing steps S32 to S42 as described above, the right and left of the integration including at least the maximum value of the main subject is not affected by the specular reflection of the glass, the peripheral rough subject, and the reflectance of the subject. It is possible to extract the maximum value of the difference signal of the image signal.

【0081】次いで、CPU13は、残った有効極大値
数が所定数であるareamax より大きいか小さいかを
判断し(ステップS43)、大きい場合は極大値を更に
絞り込み、極大値を大きい方からareamax 個にする
(ステップS44)。
Next, the CPU 13 determines whether or not the number of remaining effective maxima is larger or smaller than a predetermined number areamax (step S43). If it is larger, the local maxima are further narrowed down, and the maximum maxima are increased from the area max. (Step S44).

【0082】このステップS43,S44は、本発明の
目的の1つである必要最低限の測距エリアを設定して測
距することで、タイムラグの増大なくして、広範囲のマ
ルチAFを実現しようとすることに反して、必要以上に
測距エリアを設定するのを防止するために実行する処理
である。
In steps S43 and S44, one of the objects of the present invention is to set a minimum necessary distance measurement area and measure the distance, thereby realizing multi-AF over a wide area without increasing the time lag. On the contrary, this is a process executed in order to prevent the distance measurement area from being set more than necessary.

【0083】前述したような図8のステップS43,S
44は、測距エリア数を制限する機能に相当する。続い
て、図14のフローチャートを参照して、この測距エリ
ア数制限について更に詳細に説明する。
Steps S43 and S43 in FIG.
44 corresponds to a function of limiting the number of distance measurement areas. Subsequently, the limitation on the number of distance measurement areas will be described in more detail with reference to the flowchart in FIG.

【0084】先ず、設定可能測距エリア数の上限値ar
eamax =k0にする(ステップS50)。これは、カ
メラのモードがオート(ノーマル)モードの場合であ
り、k0はデフォルト値である。
First, the upper limit ar of the number of settable distance measuring areas ar
eamax = k0 (step S50). This is a case where the mode of the camera is the auto (normal) mode, and k0 is a default value.

【0085】続いて、カメラのAFモードがスポットモ
ードか否かを判断し(ステップS51)、スポットモー
ドの場合、areamax =1又はk1として(ステップ
S52)、スポットモードでない場合、次ステップS5
3を実行する。
Subsequently, it is determined whether the AF mode of the camera is the spot mode (step S51). If the AF mode is the spot mode, areamax = 1 or k1 is set (step S52). If the AF mode is not the spot mode, the next step S5 is performed.
Execute 3.

【0086】次いで、カメラのAFモードが動体モード
か否かを判断し(ステップS53)、動体モードの場
合、areamax =1又はk2として(ステップS5
4)、動体モードでない場合、次ステップS55を実行
する。
Next, it is determined whether or not the AF mode of the camera is the moving body mode (step S53). If the AF mode is the moving body mode, areamax = 1 or k2 is set (step S5).
4) If not in the moving object mode, the next step S55 is executed.

【0087】続いて、カメラのAFモードがリモコンモ
ードか否かを判断し(ステップS55)、リモコンモー
ドの場合、areamax はk3として(ステップS5
6)、リモコンモードでない場合、次ステップS57を
実行する。
Subsequently, it is determined whether or not the AF mode of the camera is the remote control mode (step S55). In the case of the remote control mode, areamax is set to k3 (step S5).
6) If not in the remote control mode, execute the next step S57.

【0088】次いで、カメラのAFモードがセルフモー
ドか否かを判断し(ステップS57)、セルフモードの
場合、areamax =k4として(ステップS58)、
セルフモードでない場合、次ステップS59を実行す
る。
Next, it is determined whether or not the AF mode of the camera is the self mode (step S57). In the case of the self mode, areamax = k4 is set (step S58).
If not in the self mode, the next step S59 is executed.

【0089】上記定数の大小関係は以下のとおりであ
る。
The magnitude relation of the above constants is as follows.

【0090】 1≦k1 ≦k2 <k0 <k3 ≦k4 …(1) この実施の形態では、測距エリアを中央に限定する意味
のスポットモードや大きなタイムラグが許されない動作
モードでは、測距エリアを少なくし、逆に大きなタイム
ラグが許されるリモコンモードやセルフモード等は、測
距エリアを増やすことが狙となっている。
1 ≦ k1 ≦ k2 <k0 <k3 ≦ k4 (1) In this embodiment, in the spot mode meaning that the ranging area is limited to the center or in the operation mode in which a large time lag is not allowed, the ranging area is set to In remote control mode, self mode, and the like, in which a large time lag is allowed, the aim is to increase the distance measurement area.

【0091】続いて、有効極大値数とareamax の大
小関係を比較して(ステップS59)、有効極大値数が
大きい場合、有効極大値の数をareamax まで減らす
(ステップS60)。有効極大値の減らし方の例として
は、極大値を大きい方からareamax個にしてもよ
い。また、補正関数を加味していなければ加味しても良
いし、補正関数にか関わらず極大値を画面中央側からa
reamax 個を抽出するといったものでもよいことは勿
論である。
Subsequently, the magnitude relation between the number of effective maxima and areamax is compared (step S59). If the number of effective maxima is large, the number of effective maxima is reduced to areamax (step S60). As an example of how to reduce the effective maximum value, the maximum value may be areamax from the largest value. If the correction function is not taken into account, the value may be taken into account.
Of course, it is also possible to extract reamax pieces.

【0092】以上のように、図7のフローチャートを外
れて、図8、図14のフローチャートと、その他の図を
用いて、主要被写体サーチと測距エリア数制限の説明し
たが、これによれば、必要最低限の数で、且つ少なくと
も主要被写体を含む測距エリアを設定するのに必要な情
報が、ここまでで得られたことになる。
As described above, the main subject search and the limitation of the number of distance measurement areas have been described with reference to the flowcharts of FIGS. 8 and 14 and the other drawings except for the flowchart of FIG. That is, the information necessary for setting the necessary minimum number of distance measurement areas including at least the main subject has been obtained.

【0093】次は、図7のフローチャートのステップS
17以降の処理につき説明する。図7のステップS17
では、ステップS16を受けて、最大差分信号と所定値
の大小関係を判断しているが、これは、上記図8、図1
4のような詳細なレベルに内容を合わせて有効極大値の
有無を判断するということを意味する。
Next, step S in the flowchart of FIG.
The processing after 17 will be described. Step S17 in FIG.
In step S16, the magnitude relationship between the maximum difference signal and the predetermined value is determined in step S16.
This means that the presence or absence of an effective maximum value is determined according to the content at a detailed level such as 4.

【0094】上記最大差分信号が所定値より大きい又は
有効極大値がある場合は、最大差分信号のポイント、又
は有効極大値のポイントに基づき、測距エリアを設定す
ることとしている(ステップS18)。これに対して、
上記最大差分信号が所定値以下、又は有効極大値がない
場合は、予め用意してある領域(デフォルト領域)に測
距エリアを設定することとしている(ステップS1
9)。
If the maximum difference signal is larger than a predetermined value or has an effective maximum value, a distance measurement area is set based on the point of the maximum difference signal or the point of the effective maximum value (step S18). On the contrary,
If the maximum difference signal is equal to or less than a predetermined value or there is no effective maximum value, a ranging area is set in a previously prepared region (default region) (step S1).
9).

【0095】上記ステップS17〜S19は、測距エリ
ア設定機能である。
Steps S17 to S19 are a distance measuring area setting function.

【0096】以下、図15のフローチャートを参照し
て、当該測距エリア設定機能を更に詳細に説明する。
Hereinafter, the distance measuring area setting function will be described in more detail with reference to the flowchart of FIG.

【0097】先ず、CPU13は、f−searche
rrの値を判断する(ステップS61)。ここでは、f
−searcherr=0の場合、有効極大値有、つま
り主要被写体位置を推定可能と判断し、一方、f−se
archerr=1の場合、有効極大値無、つまり主要
被写体位置を推定不能と判断する。続いて、カメラのA
Fモードがスポットモードか否かを判断する(ステップ
S62)。
First, the CPU 13 executes the f-search
The value of rr is determined (step S61). Here, f
If −searcherr = 0, it is determined that the effective maximum value is present, that is, the main subject position can be estimated.
When archerr = 1, it is determined that there is no effective maximum value, that is, the main subject position cannot be estimated. Next, the camera A
It is determined whether or not the F mode is the spot mode (step S62).

【0098】通常は、測距エリアを設定する(ステップ
S63)。即ち、有効極大値のセンサアドレスを中心に
1エリア又は複数エリアの測距エリアを設定する。
Normally, a distance measurement area is set (step S63). That is, one or more distance measurement areas are set around the sensor address of the effective maximum value.

【0099】次いで、測距エリアの設定がされていない
有効極大値の残りがなくなるまで、上記ステップS20
2を繰り返し実行し、有効極大値毎に測距エリアを設定
する(ステップS64)。
Then, the above-mentioned step S20 is repeated until there is no remaining effective maximum value for which no distance measurement area has been set.
2 is repeatedly executed to set a distance measurement area for each effective maximum value (step S64).

【0100】上記ステップS62にてカメラのAFモー
ドがスポットモードの場合は、予め用意してある所定の
領域(デフォルト領域)に測距エリアを設定する(ステ
ップS66)。より具体的には、センサ上の中心付近に
1エリア又は複数エリアを設定する。このセンサ上の中
心付近というのは、換言すれば、撮影画面の中心付近で
もある。また、複数エリアを設定する場合、エリア同志
は一部重複してもよいし、一部重複しなくてもよい。
If the AF mode of the camera is the spot mode in step S62, a distance measuring area is set in a predetermined area (default area) prepared in advance (step S66). More specifically, one or more areas are set near the center on the sensor. In other words, the vicinity of the center on the sensor is also near the center of the photographing screen. When a plurality of areas are set, the areas may partially overlap or may not partially overlap.

【0101】上記主要被写体位置が推定不能な場合は、
測距エリアを設定する(ステップS65,S66)。こ
のステップS66は、上述の通り、撮影画面中心付近に
測距エリアを設定し、ステップS65は、その周辺に測
距エリアを設定する。この設定するエリア数は、スポッ
トエリアの周辺両側に1つづつ又は複数である。上記ス
テップS65で設定した測距エリアは、エリア同志が一
部重複してもよいし、一部重複しなくてもよい。また、
上記ステップS65,S66で設定した各エリアは一部
重複しても、一部重複しなくてもよい。
When the main subject position cannot be estimated,
A distance measurement area is set (steps S65 and S66). In this step S66, as described above, a distance measurement area is set near the center of the shooting screen, and in step S65, a distance measurement area is set around the center. The number of areas to be set is one or more on both sides around the spot area. In the ranging area set in step S65, the areas may or may not partially overlap. Also,
The areas set in steps S65 and S66 may or may not partially overlap.

【0102】ここで、図11に示したシーンの状況で
は、スポットモードを用いて撮影するテクニックがあ
る。この場合は、図示の様に推定した主要被写体の位置
に関わらず、所定の領域に測距エリアが設定されること
になる。
Here, in the situation of the scene shown in FIG. 11, there is a technique for photographing using the spot mode. In this case, the distance measurement area is set in a predetermined area regardless of the position of the main subject estimated as illustrated.

【0103】また、図5に示したシーンの状況では、主
要被写体位置の推定は不能で、所定の領域に測距エリア
が設定される。このとき、中心の1エリアをステップS
66にて設定し、周辺の4エリアはステップS65が設
定することが考えられるが、中心の3エリアをステップ
S66が設定し、周辺の2エリアをステップS65が設
定することも可能であり、このようにバリエーションは
多数考えられる。
In the situation of the scene shown in FIG. 5, the position of the main subject cannot be estimated, and the distance measurement area is set in a predetermined area. At this time, one area at the center is
It is conceivable that step S65 sets the peripheral four areas at step S65, but step S66 sets the central three areas and step S65 sets the two peripheral areas. Many variations are conceivable.

【0104】このバリエーションの一例として、図15
の上記ステップS63を、図16のフローチャートを参
照して、更に詳細に説明する。
As an example of this variation, FIG.
The above step S63 will be described in more detail with reference to the flowchart of FIG.

【0105】図16の概念は、一つの有効極大値に対し
て3つの測距エリアを設定し、且つ3つの測距エリア
は、1つの測距エリアと残り2つのエリアの内どちらか
一方と一部重複するような位置関係にしようとするもの
である。
The concept of FIG. 16 is that three distance measurement areas are set for one effective local maximum value, and the three distance measurement areas are one of the one distance measurement area and the remaining two areas. It is intended to have a positional relationship that partially overlaps.

【0106】即ち、先ず極大値のその値により設定する
測距エリアのエリア内センサ数を決定し、記憶する(ス
テップS70)。これは、パッシブ方式AFの苦手被写
体である遠近混在の防止が目的である。極大値が小さけ
れば被写体は遠く(但し、被写体の明るさにより、この
限りではないが)、遠い被写体に対してはエリア内セン
サ数を少なくする。一方、極大値が大きければ被写体は
近く(但し、被写体の明るさにより、この限りではない
が)、近い被写体に対してはエリア内センサ数を多くす
る。ここで、差信号の極大値の大きさと、被写体距離の
関係が被写体輝度(背景とのコントラスト)に依存する
ことを無視することはできないが、以下の対策をすれば
よい。差分信号を求める被写体の像信号(センサデー
タ)を最大センサデータ値を基準に正規化した後に差分
信号を求めればよい。つまり、正規化されたセンサデー
タの差分信号には、コントラスト情報は残らずに、位相
差情報だけが残ることになる。従って、正規化後のセン
サデータの差分信号の極大値の大きさで概ねの被写体距
離を推測することが可能である。
That is, first, the number of sensors in the area of the distance measuring area to be set is determined based on the maximum value, and stored (step S70). This is for the purpose of preventing the near-far mixture which is a weak subject of the passive AF. If the maximum value is small, the subject is far (however, this is not limited depending on the brightness of the subject), and the number of sensors in the area is reduced for a far subject. On the other hand, if the maximum value is large, the subject is closer (however, this is not a limitation depending on the brightness of the subject), and the number of sensors in the area is increased for a closer subject. Here, it cannot be ignored that the relationship between the maximum value of the difference signal and the subject distance depends on the subject luminance (contrast with the background), but the following measures may be taken. The difference signal may be obtained after normalizing the image signal (sensor data) of the subject for which the difference signal is to be obtained based on the maximum sensor data value. That is, only the phase difference information remains in the normalized difference signal of the sensor data without the contrast information. Therefore, it is possible to estimate the approximate subject distance from the maximum value of the difference signal of the normalized sensor data.

【0107】実際に正規化後のセンサデータの差分信号
の極大値よりエリア内センサ数を決定するには、図17
に示されるようなテーブルを参照し、該エリア内センサ
数を決定する。
In order to determine the number of sensors in the area from the maximum value of the difference signal of the sensor data after the normalization, FIG.
The number of sensors in the area is determined with reference to a table as shown in FIG.

【0108】ここで、図18(b)は、正規化後の左右
センサデータの差信号を示す図である。図示のとおり、
極大値に応じて測距エリアのエリア内センサ数を決定
し、測距エリアを設定する。
FIG. 18B is a diagram showing the difference signal between the left and right sensor data after the normalization. As shown,
The number of sensors in the ranging area is determined according to the maximum value, and the ranging area is set.

【0109】近距離被写体の像信号ほど像の位相差は大
きく、遠距離被写体の位相差は逆に小さい。この点にお
いて、この実施の形態では、近距離被写体には広い測距
エリアを、遠距離被写体には狭い測距エリアを設定しよ
うとしているので利に適っている。
The phase difference of an image is larger for an image signal of a short-distance object, and is smaller for a long-distance object. In this regard, the present embodiment is advantageous because a wide ranging area is set for a short-distance subject and a narrow ranging area is set for a long-distance subject.

【0110】例えば図18(a)に示されるシーンで
は、後方の人物と鳥居が遠近混在している。しかしなが
ら、被写体の像信号では遠近混在を察知する手段は無
く、被写体の遠近が推定できるのみである。そこで、図
19に示されるように、遠い被写体と推定した場合は、
測距エリアを狭く設定すれば、図示のように遠近混在に
よる誤測距は防止可能となる。前述したように、正規化
した左右のセンサデータの差分信号に基づいて測距エリ
アの設定を行うが、正規化の方法を補足する。センサデ
ータが高周波になる一つの原因に遠近混在が含まれ、図
18(a)のシーンもこれに該当する。後方の人物と鳥
居から成るセンサデータは高周波成分を含むことにな
る。この場合、後方の人物と鳥居のセンサデータを別々
に正規化するのではなく、一括にまとめて正規化を行っ
てもよい。高周波成分は一山にまとめて正規化するほう
が正規化の効率がよい。以上がステップS70の説明で
あるが、次にステップS71では有効極大値に対する1
つ目の測距エリアを設定する。
For example, in the scene shown in FIG. 18 (a), a person behind and a torii gate are mixed in perspective. However, there is no means for detecting mixed perspective in the image signal of the subject, and only the perspective of the subject can be estimated. Therefore, as shown in FIG. 19, when it is estimated that the subject is far,
If the distance measurement area is set to be narrow, it is possible to prevent erroneous distance measurement due to mixed distance as shown in the figure. As described above, the distance measurement area is set based on the normalized difference signal between the left and right sensor data, but the normalization method is supplemented. One cause of the sensor data having a high frequency includes a mixed perspective, and the scene in FIG. 18A also corresponds to this. The sensor data composed of the person behind and the torii will include high frequency components. In this case, the sensor data of the rear person and the torii gate may not be separately normalized, but may be collectively normalized. It is more efficient to normalize the high-frequency components collectively as a whole. The above is the description of step S70. Next, in step S71, 1 to the effective maximum value is set.
Set the second ranging area.

【0111】この測距エリアの開始アドレスは、 ((極大値のセンサアドレス)−(エリア内センサ数))/2 …(2) である。そして、この測距エリアは、エリアの開始アド
レスとエリア内センサ数の2つで設定される。
The start address of this distance measurement area is ((maximum sensor address) − (number of sensors in area)) / 2 (2). This distance measurement area is set by two, that is, the start address of the area and the number of sensors in the area.

【0112】続いて、2つ目のエリアの設定で、開始ア
ドレスは、 ((極大値のセンサアドレス)−(エリア内センサ数))×3/2 +(オーバーラップセンサ数) …(3) ステップS403は3つ目のエリアの設定で、開始アド
レスは、 ((極大値のセンサアドレス)+(エリア内センサ数))/2 −(オーバーラップセンサ数) …(4) であり、2つ目、3つ目のエリアを設定するには、新た
に、オーバーラップセンサ数という定数も必要になる
(ステップS72,S73)。
Subsequently, in the setting of the second area, the start address is ((sensor address of local maximum value) − (number of sensors in area)) × 3/2 + (number of overlap sensors) (3) In step S403, a third area is set. The start address is ((local maximum sensor address) + (number of sensors in area)) / 2− (number of overlap sensors) (4). In order to set the first and third areas, a new constant called the number of overlap sensors is also required (steps S72 and S73).

【0113】さて、図16の説明に戻り、ステップS7
5で有効極大値が残っているか否かを判断し、残りがな
ければリターン、残りがあればステップS76でare
amax をデクリメントする。そして、ステップS77で
areamax が0でなければ、有効極大値が確実に残っ
ているので、先頭のステップS70へ戻り、測距エリア
を設定し続ける。areamax が0であればリターンす
る。
Returning to the description of FIG. 16, step S7
In step S5, it is determined whether or not the effective maximum value remains. If there is no remaining value, the routine returns.
Decrement amax. Then, if areamax is not 0 in step S77, since the effective maximum value remains without fail, the process returns to step S70 at the head and continues to set the distance measurement area. If areamax is 0, the routine returns.

【0114】以上の処理で、積分とその処理が終了した
ことになる。測距演算等に必要な全ての条件が揃った事
になり、いよいよ相関演算を実行する。
With the above processing, the integration and the processing are completed. Since all the conditions necessary for the distance measurement calculation and the like are completed, the correlation calculation is finally performed.

【0115】再度、図7のフローチャートへ戻り、ステ
ップS22から説明する。
Returning to the flowchart of FIG. 7, the description will be continued from step S22.

【0116】ステップS22では、各測距エリア毎に相
関演算を行い、各測距エリア毎の被写体距離情報を算出
する。更に求められた被写体距離情報のうち最至近のも
のを選択する最至近選択を実行する。最至近選択の際、
被写体距離情報の信頼性判定を行い、信頼性の低い情報
に関しては選択候補から予め除外するといった機能も実
施の形態では用いている(不図示)。信頼性判定は公知
の手段で、最も簡単な判定は、コントラストによる判定
であり、この他にも様々な判定が知られており、1つ又
は複数の判定が用いられる。
In step S22, a correlation operation is performed for each of the distance measurement areas, and subject distance information for each of the distance measurement areas is calculated. Further, a closest selection is performed to select the closest one of the obtained subject distance information. When selecting the closest,
In the embodiment, a function of determining the reliability of the subject distance information and excluding low reliability information from selection candidates in advance is used (not shown). The reliability determination is a known means, and the simplest determination is a determination based on contrast, and other various determinations are known, and one or a plurality of determinations are used.

【0117】上記最至近選択の際、信頼性の低い被写体
距離情報ばかりで、有効な被写体距離情報を選択できな
いかいなか、即ち、測距不能か否かを判定する(ステッ
プS23)。ここで、有効な被写体距離情報が得られた
場合は、ステップS28へ移行する。これに対して、測
距不能でかつ本積分1が補助光消灯だった場合、本積分
2を実行する(ステップS24)。
At the time of the above-described closest selection, it is determined whether effective subject distance information cannot be selected only with subject information having low reliability, that is, whether or not distance measurement is impossible (step S23). Here, when effective subject distance information is obtained, the process proceeds to step S28. On the other hand, when the distance measurement is impossible and the main integration 1 is the auxiliary light is turned off, the main integration 2 is executed (step S24).

【0118】続いて、ステップS27は、光量測距であ
り、アクティブ方式のAFでは公知である。上記ステッ
プS15またはS24の本積分1または本積分2の結果
の特に最大積分量に基づいて被写体距離情報を算出す
る。ここで、最大積分量というのは、概念的に、最至近
被写体による補助光(投光光源14)が発する光の反射
光量である。
Subsequently, step S27 is a light amount distance measurement, which is known in active type AF. Subject distance information is calculated based on the result of the main integration 1 or the main integration 2 in step S15 or S24, particularly, the maximum integration amount. Here, the maximum integration amount is conceptually a reflected light amount of light emitted from the auxiliary light (light projection light source 14) by the closest subject.

【0119】こうして、測距装置のAFIC3の電源供
給を停止する等の後処理を実行し、測距終了となる(ス
テップS28)。
In this way, post-processing such as stopping the power supply to the AFIC 3 of the distance measuring device is executed, and the distance measurement is completed (step S28).

【0120】次に第2の実施の形態について説明する。Next, a second embodiment will be described.

【0121】第1の実施の形態の概要を記すと、被写体
からの光を受光手段で受光し、得られた被写体の像信号
に基づいて測距するものである。更には、被写体の像信
号の差信号又は正規化した被写体の像信号の差信号に基
づいて測距エリアを設定した後、設定した測距エリアに
対してのみ測距を行うものである。
The outline of the first embodiment is that light from a subject is received by a light receiving means, and the distance is measured based on the obtained image signal of the subject. Further, a distance measurement area is set based on the difference signal between the image signal of the subject or the normalized difference signal of the image signal of the subject, and then the distance measurement is performed only on the set distance measurement area.

【0122】このような第1の実施の形態と対比して、
第2の実施の形態の概要を記すと、第1の実施の形態で
は、差信号の検出をソフトウェアにより実施しているの
に対して、この第2の実施の形態では、ハードウェアで
実施しようとするものである。以下、図面を参照しつ
つ、第2の実施の形態を詳述する。
In contrast to the first embodiment,
The outline of the second embodiment is as follows. In the first embodiment, the detection of the difference signal is performed by software. On the other hand, in the second embodiment, the detection of the difference signal is performed by hardware. It is assumed that. Hereinafter, the second embodiment will be described in detail with reference to the drawings.

【0123】先ず、図20の説明をするが、この図20
は図1と略等しく、違う点は差分演算部15とスイッチ
SWが追加された点にある。以下、図1と同一構成につ
いては説明を省略し、差分演算部15とスイッチSWの
動作を中心に説明する。
First, FIG. 20 will be described.
1 is substantially the same as that of FIG. 1, except that a difference calculation unit 15 and a switch SW are added. Hereinafter, the description of the same configuration as that of FIG. 1 will be omitted, and the description will focus on the operation of the difference calculation unit 15 and the switch SW.

【0124】測距全体の流れに沿って説明すると、記憶
部9に被写体の像信号が記憶、格納されている。そし
て、被写体の像信号が出力部10を経て差分演算部15
へと出力される。スイッチSWは、差分演算部15側に
接続が選択されて、被写体の像信号の差分信号をCPU
13へと出力する。被写体の像信号の差信号を得たCP
U13は、これに基づき被写体の測距エリアを決定す
る。
In the following, the image signal of the subject is stored and stored in the storage unit 9. Then, the image signal of the subject passes through the output unit 10 and the difference calculation unit 15
Is output to. The switch SW is connected to the difference calculation unit 15 side, and outputs the difference signal of the image signal of the subject to the CPU.
13 is output. CP that obtained the difference signal of the image signal of the subject
U13 determines the distance measurement area of the subject based on this.

【0125】この決定に基づき、CPU13は、AFI
C3の制御部11へ所定範囲の被写体の像信号を出力す
るように制御信号を送る。スイッチSWは、出力部10
側に選択され接続され、記憶部9に記憶、格納されてい
る被写体の像信号の所定の範囲がCPU13へと出力さ
れる。被写体の測距エリアに対応した被写体の像信号を
CPU13が取得すると、相関演算等の測距演算を実行
し、測距が終了する。その詳細は第1の実施の形態と同
様であるので、説明は省略する。
On the basis of this determination, the CPU 13
A control signal is sent to the control unit 11 of C3 so as to output an image signal of a subject in a predetermined range. The switch SW is connected to the output unit 10
The predetermined range of the image signal of the subject, which is selected and connected to the side and stored and stored in the storage unit 9, is output to the CPU 13. When the CPU 13 acquires an image signal of the subject corresponding to the subject's ranging area, the CPU 13 executes a ranging calculation such as a correlation calculation and ends the ranging. The details are the same as in the first embodiment, and a description thereof will be omitted.

【0126】次に、第3の実施の形態について説明す
る。
Next, a third embodiment will be described.

【0127】この第3の実施の形態も第2の実施の形態
と同様、ハードウェアで被写体像の差信号を求めるもの
である。差信号を求める部分にみを示したのが図21で
ある。 以下、この図21に沿って説明を進める。
In the third embodiment, similarly to the second embodiment, a difference signal of a subject image is obtained by hardware. FIG. 21 shows only the part for obtaining the difference signal. Hereinafter, the description will proceed with reference to FIG.

【0128】先ず、始めにセンサの概要を説明する。各
受光素子4a,4bに対して受光素子1ピクセル毎に対
応する定常光記憶部16a,16bと定常光除去部17
a,17bを付加したものである。その動作を以下に説
明する。
First, the outline of the sensor will be described. The stationary light storage units 16a and 16b and the stationary light removing unit 17 corresponding to each of the light receiving elements 4a and 4b for each pixel of the light receiving element.
a and 17b are added. The operation will be described below.

【0129】この図21上で、スイッチSW1を左側
に、スイッチSW2を右側に選択すると、従来より公知
のパッシブAF方式に用いるセンサとして機能する。次
に、スイッチSW1、スイッチSW2を上記とは逆側に
選択し、更にスイッチSW3を左側、スイッチSW4を
右側に選択すると、センサは被写体の輝度情報から定常
光を除去し、即ち、補助光14を点灯させた場合に補助
光14の反射光だけ検出する。換言すれば、アクティブ
AF方式の信号検出と同様に機能する。
In FIG. 21, when the switch SW1 is selected on the left side and the switch SW2 is selected on the right side, it functions as a sensor used in a conventionally known passive AF system. Next, when the switches SW1 and SW2 are selected on the opposite side to the above, and the switch SW3 is selected on the left side and the switch SW4 is selected on the right side, the sensor removes the steady light from the luminance information of the subject, that is, the auxiliary light 14 Is turned on, only the reflected light of the auxiliary light 14 is detected. In other words, it functions in the same manner as the signal detection of the active AF method.

【0130】以上のように、図21のセンサは、パッシ
ブ的動作とアクティブ的動作をすることから、ハイブリ
ッド方式AFセンサと称され、詳細は特願平10−33
6921号公報に開示されている。
As described above, the sensor shown in FIG. 21 performs a passive operation and an active operation, and is therefore referred to as a hybrid AF sensor.
No. 6921 is disclosed.

【0131】次に、本実施の形態の本質である、被写体
像信号の差信号を検出する方法を説明する。図21にお
いて、スイッチSW1,SW3は右側に選択し、スイッ
チSW2,SW4は左側に選択する。この状態で被写体
像の積分を行う(補助光14は消灯)と、受光素子4
a,4bは、互いに他方の受光素子からの被写体輝度情
報により定常光が除去されるので、輝度情報の差だけ積
分される。即ち、被写体像信号の差信号が検出される。
差信号の検出された以降は、前述した第1の実施の形態
と同様の動作を実行することになる。
Next, a method for detecting a difference signal between subject image signals, which is the essence of the present embodiment, will be described. In FIG. 21, switches SW1 and SW3 are selected on the right side, and switches SW2 and SW4 are selected on the left side. When the subject image is integrated in this state (the auxiliary light 14 is turned off), the light receiving element 4
In a and 4b, since the stationary light is removed by the subject luminance information from the other light receiving element, integration is performed by the difference between the luminance information. That is, a difference signal between the subject image signals is detected.
After the detection of the difference signal, the same operation as in the first embodiment is executed.

【0132】以上、本発明の実施の形態を説明したが、
本発明はこれに限定されることなく、種々の改良・変更
が可能である。例えば、光電流の積分方式が異なれば、
上記説明上の極大値という言葉が極小値に変化したり像
信号の明暗が逆転することもあり、上記実施のの形態の
みに限定されるものではない。
The embodiments of the present invention have been described above.
The present invention is not limited to this, and various modifications and changes are possible. For example, if the photocurrent integration method is different,
The word “maximum value” in the above description may change to a minimum value, or the brightness of the image signal may be reversed, and the present invention is not limited to the above embodiment.

【0133】また、上記実施の形態は、見方によれば、
光電変換素子が一次元のラインセンサであるとの解釈も
できる。しかしながら、ラインセンサに限定するつもり
もなく、二次元のエリアセンサでもよいし、二次元の離
散的に分布するラインセンサ等から成るエリアセンサで
もよい。いずれの場合も、像信号を処理する上では一次
元に分解し処理するのが自然であり、センサが一次元で
あるか二次元であるかには依存せず、本実施例の根本概
念は変わらない。
In the above embodiment, according to the viewpoint,
It can also be interpreted that the photoelectric conversion element is a one-dimensional line sensor. However, the present invention is not limited to the line sensor, and may be a two-dimensional area sensor or an area sensor including a two-dimensional discretely distributed line sensor or the like. In any case, in processing the image signal, it is natural to perform one-dimensional decomposition and processing, and it does not depend on whether the sensor is one-dimensional or two-dimensional. does not change.

【0134】以上説明したように、本発明によれば、例
えば全画面AFの様な広範囲のマルチAFを実施する場
合、タイムラグ対策で、あらかじめ主要被写体が存在す
る位置を推定し、必要最低限の位置の被写体距離のみを
測距するものであるが、被写体の投光光線に対する反射
率の影響を受けることなく、正しく主要被写体の存在す
る位置を推定することが可能で、信頼性が高く高精度の
マルチAFをコストアップなく実現し供給することがで
きる。
As described above, according to the present invention, when performing a wide-area multi-AF such as a full-screen AF, for example, the position where the main subject exists is estimated in advance by a countermeasure against time lag, and the minimum necessary It measures only the subject distance at the position, but it is possible to accurately estimate the position where the main subject exists without being affected by the reflectance of the subject with respect to the projected light beam, and it is highly reliable and highly accurate Can be realized and supplied without increasing the cost.

【0135】尚、本発明の上記実施の形態には、以下の
発明が含まれる。
The above embodiment of the present invention includes the following inventions.

【0136】即ち、一対の積分型センサにより複数の測
距エリアからの被写体光を受光し、一対の被写体像信号
を出力する受光手段と、上記複数の測距エリアに向けて
測距用パルス光を投射する投光手段と、上記投光手段を
作動させた際の上記一対の被写体像信号のうち一方の定
常光成分を検知して、これにより他方の定常光成分を除
去することにより上記受光手段の出力から定常光成分を
除去する機能の作動/不作動が選択可能な定常光除去手
段と、上記定常光除去手段の作動/不作動の切換えを行
う積分モード設定手段と、上記定常光除去手段を作動さ
せた際の定常光除去手段の出力信号に基づいて、測距エ
リアの設定を行う測距エリア設定手段と、を具備し、上
記測距エリア設定手段により設定された測距領域におい
て上記受光手段の出力に基づいて測距演算を行うように
したことを特徴とする測距装置。
That is, light receiving means for receiving subject light from a plurality of distance measurement areas by a pair of integrating sensors and outputting a pair of subject image signals, and pulse light for distance measurement toward the plurality of distance measurement areas. The light receiving means by detecting one stationary light component of the pair of subject image signals when the light emitting means is operated, and thereby removing the other stationary light component. A stationary light removing unit capable of selecting operation / non-operation of a function of removing a stationary light component from an output of the unit, an integration mode setting unit for switching operation / non-operation of the stationary light removing unit, and a stationary light removing unit A distance measuring area setting means for setting a distance measuring area based on an output signal of the stationary light removing means when the means is operated, and in a distance measuring area set by the distance measuring area setting means. Of the above light receiving means Distance measuring apparatus being characterized in that to perform the distance calculation based on the force.

【0137】[0137]

【発明の効果】以上詳述したように、本発明によれば、
タイムラグが少なく、迅速で、測距結果の信頼性も高
く、高精度且つ安価な測距装置を提供することができ
る。更に、定常光除去手段を用いて、一対の像信号の差
信号を求め、これにより測距エリアを決定することでタ
イムラグ対策とする測距装置を提供することができる。
As described in detail above, according to the present invention,
It is possible to provide a highly accurate and inexpensive distance measuring apparatus which has a small time lag, is quick, has high reliability of a distance measurement result, and has high accuracy. Further, it is possible to provide a distance measuring apparatus which measures a difference in time lag by obtaining a difference signal between a pair of image signals using the stationary light removing means and determining a distance measuring area based on the signal.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施の形態に係る測距装置の構成を示
す図である。
FIG. 1 is a diagram showing a configuration of a distance measuring apparatus according to an embodiment of the present invention.

【図2】実施の形態に係る測距装置の動作を詳細に説明
するフローチャートである。
FIG. 2 is a flowchart illustrating an operation of the distance measuring apparatus according to the embodiment in detail.

【図3】撮影シーンの一例を示す図である。FIG. 3 is a diagram illustrating an example of a shooting scene.

【図4】図3の撮影シーンに対応するセンサデータ、そ
の差分データ、及び測距エリアを示す図である。
FIG. 4 is a diagram showing sensor data, its difference data, and a distance measurement area corresponding to the shooting scene of FIG. 3;

【図5】撮影シーンの一例を示す図である。FIG. 5 is a diagram illustrating an example of a shooting scene.

【図6】図5の撮影シーンに対応するセンサデータ、そ
の差分データ、及び測距エリアを示す図である。
6 is a diagram showing sensor data corresponding to the shooting scene of FIG. 5, its difference data, and a distance measurement area.

【図7】実施の形態に係る測距装置の測距動作に係るフ
ローチャートである。
FIG. 7 is a flowchart related to a distance measuring operation of the distance measuring apparatus according to the embodiment.

【図8】図7の上記ステップS15,S16の主要被写
体サーチについて更に詳細に説明するフローチャートで
ある。
FIG. 8 is a flowchart illustrating the main subject search in steps S15 and S16 of FIG. 7 in further detail.

【図9】撮影シーンの一例を示す図である。FIG. 9 is a diagram illustrating an example of a shooting scene.

【図10】図9の撮影シーンに対応するセンサデータ、
その差分データ、及び測距エリアを示す図である。
FIG. 10 shows sensor data corresponding to the shooting scene shown in FIG. 9;
It is a figure which shows the difference data and a ranging area.

【図11】撮影シーンの一例を示す図である。FIG. 11 is a diagram illustrating an example of a shooting scene.

【図12】図11の撮影シーンに対応するセンサデー
タ、その差分データ、及び測距エリアを示す図である。
12 is a diagram showing sensor data corresponding to the shooting scene in FIG. 11, its difference data, and a distance measurement area.

【図13】補正関数について説明するための図である。FIG. 13 is a diagram for describing a correction function.

【図14】図8のステップS43,S44に係る測距エ
リア数制限について更に詳細に説明するためのフローチ
ャートである。
FIG. 14 is a flowchart for explaining in more detail the limitation on the number of distance measurement areas according to steps S43 and S44 in FIG. 8;

【図15】図7のステップS17乃至S19に係る測距
エリア設定機能を更に詳細に説明するためのフローチャ
ートである。
FIG. 15 is a flowchart for explaining in more detail the ranging area setting function according to steps S17 to S19 of FIG. 7;

【図16】図15のステップS63の動作を更に詳細に
説明するフローチャートである。
FIG. 16 is a flowchart illustrating the operation of step S63 in FIG. 15 in further detail.

【図17】エリア内センサ数を決定するためのテーブル
の一例を示す図である。
FIG. 17 is a diagram showing an example of a table for determining the number of sensors in an area.

【図18】撮影シーンの一例、及びアクティブモードで
のプリ積分による像信号を示す図である。
FIG. 18 is a diagram illustrating an example of a shooting scene and an image signal obtained by pre-integration in an active mode.

【図19】図18の撮影シーンに対応するセンサデータ
及び測距エリアを示す図である。
19 is a diagram illustrating sensor data and a distance measurement area corresponding to the shooting scene in FIG. 18;

【図20】第2の実施の形態に係る測距装置の構成を示
すブロック図である。
FIG. 20 is a block diagram illustrating a configuration of a distance measuring apparatus according to a second embodiment.

【図21】第3の実施の形態に係る測距装置の構成を示
すブロック図である。
FIG. 21 is a block diagram illustrating a configuration of a distance measuring apparatus according to a third embodiment.

【図22】従来技術に係る測距装置のファインダ視野を
示す図である。
FIG. 22 is a view showing a finder field of view of a distance measuring apparatus according to the related art.

【符号の説明】[Explanation of symbols]

1 受光レンズ 2 筐体 3 AFIC 4 受光素子 5 光電流積分部 6 定常光除去部 7 リセット部 8 モニタ信号検出範囲設定とモニタ信号出力部 9 記憶部 10 出力部 11 制御部 12 バイアス部 13 CPU 14 投光光源 15 ドライバ部 16 ファインダ視野 17 測距エリア 18 差分演算部 REFERENCE SIGNS LIST 1 light receiving lens 2 housing 3 AFIC 4 light receiving element 5 photocurrent integrating unit 6 steady light removing unit 7 reset unit 8 monitor signal detection range setting and monitor signal output unit 9 storage unit 10 output unit 11 control unit 12 bias unit 13 CPU 14 Projection light source 15 Driver section 16 Viewfinder field of view 17 Distance measurement area 18 Difference calculation section

フロントページの続き Fターム(参考) 2F065 AA06 DD06 DD12 EE00 FF01 FF05 FF09 FF12 FF21 GG08 HH02 JJ02 JJ03 JJ05 JJ25 JJ26 QQ13 QQ14 QQ23 QQ25 QQ29 QQ31 QQ33 QQ36 2F112 AC06 BA05 BA07 CA02 FA03 FA21 FA29 FA32 FA35 FA36 FA45 2H011 AA01 BA05 BB04 DA08 2H051 BB07 BB10 CC02 CC12 CC17 CE06 CE08 CE16 DA03 DA07 GB12 Continued on front page F-term (reference) 2F065 AA06 DD06 DD12 EE00 FF01 FF05 FF09 FF12 FF21 GG08 HH02 JJ02 JJ03 JJ05 JJ25 JJ26 QQ13 QQ14 QQ23 QQ25 QQ29 QQ31 QQ33 QQ36 2F112 AC06 BA05 FA07 FA01 FA04 DA08 2H051 BB07 BB10 CC02 CC12 CC17 CE06 CE08 CE16 DA03 DA07 GB12

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 被写界内部に複数の測距可能エリアを有
するカメラの測距装置であって、 視差を有する光学系によって結像される対の被写界像を
それぞれ受光して、対の被写界信号を出力する受光手段
と、 上記複数の測距エリアに向けて測距用パルス光を投射す
る投光手段と、 上記投光手段を作動させた際の上記一対の被写界像信号
のうち一方の定常光成分を検知して、これにより他方の
定常光成分を除去することにより上記受光手段の出力か
ら定常光成分を除去する機能の作動/不作動が選択可能
な定常光除去手段と、 上記定常光除去手段に作動/不作動の切り換えを行う積
分モード設定手段と、 上記定常光除去手段を作動させた際の定常光除去手段の
出力信号に基づいて、測距エリアの設定を行う測距エリ
ア設定手段と、を具備し、 上記測距エリア設定手段により設定された測距領域にお
いて上記受光手段の出力に基づいて測距演算を行うよう
にしたことを特徴とする測距装置。
1. A distance measuring apparatus for a camera having a plurality of distance-measurable areas inside an object field, wherein each of the light receiving apparatuses receives a pair of object field images formed by an optical system having parallax. Light-receiving means for outputting a field-of-view signal; light-emitting means for projecting distance-measuring pulse light toward the plurality of distance-measuring areas; and the pair of objects when the light-emitting means is operated. A function of detecting one of the stationary light components in the image signal and removing the other stationary light component thereby to select the operation or non-operation of the function of removing the stationary light component from the output of the light receiving means. Removing means; integration mode setting means for switching between operation and non-operation of the stationary light removing means; and an output signal of the stationary light removing means when the stationary light removing means is activated. Distance measuring area setting means for performing setting. A distance measuring apparatus, wherein a distance calculation is performed based on an output of the light receiving means in a distance measuring area set by the distance measuring area setting means.
【請求項2】 上記受光手段は、定常光レベルを記憶す
る定常光記憶部と、定常光記憶部に記憶された定常光レ
ベルを差引くことにより定常光成分を除去する定常光除
去部と、を具備して成ることを特徴とする請求項1に記
載の測距装置
2. The method according to claim 1, wherein the light receiving unit includes a stationary light storage unit configured to store a stationary light level, a stationary light removing unit configured to remove the stationary light component by subtracting the stationary light level stored in the stationary light storage unit, The distance measuring apparatus according to claim 1, comprising:
JP33629299A 1999-11-26 1999-11-26 Range finder Withdrawn JP2001154087A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP33629299A JP2001154087A (en) 1999-11-26 1999-11-26 Range finder

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP33629299A JP2001154087A (en) 1999-11-26 1999-11-26 Range finder

Publications (1)

Publication Number Publication Date
JP2001154087A true JP2001154087A (en) 2001-06-08

Family

ID=18297604

Family Applications (1)

Application Number Title Priority Date Filing Date
JP33629299A Withdrawn JP2001154087A (en) 1999-11-26 1999-11-26 Range finder

Country Status (1)

Country Link
JP (1) JP2001154087A (en)

Similar Documents

Publication Publication Date Title
US6308015B1 (en) Camera having automatic focusing device
US7405762B2 (en) Camera having AF function
US6778771B2 (en) Distance-measuring apparatus and method for camera
JP2002244027A (en) Range-finding device
US6532060B1 (en) Distance measuring apparatus
JP2001311619A (en) Apparatus and method for measuring distance
JP2000330002A (en) Range finder
US6826362B2 (en) Camera having distance measuring apparatus
US6411782B1 (en) Multi-autofocus distance-measuring system with a wide distance-measuring area
US6442345B1 (en) Distance-measuring device and distance-measuring method
JP4512173B2 (en) Ranging device
JP2000171246A (en) Range finder
JP2001154089A (en) Range finder
JPH08334678A (en) Range finder
JP4350207B2 (en) Ranging device
JPH08285580A (en) Rangefinder
JP2001154087A (en) Range finder
JP2001154088A (en) Range finder
JP2001154086A (en) Range finder
JPH0961159A (en) Distance-measuring device
JP2000330000A (en) Range-finding device
JP3955201B2 (en) Auto focus camera
JPH1096851A (en) Range finder for camera
JPH09105974A (en) Camera
JP2000330005A (en) Range finder

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20070206