JP2002214521A - Range-finding device for camera - Google Patents

Range-finding device for camera

Info

Publication number
JP2002214521A
JP2002214521A JP2001014605A JP2001014605A JP2002214521A JP 2002214521 A JP2002214521 A JP 2002214521A JP 2001014605 A JP2001014605 A JP 2001014605A JP 2001014605 A JP2001014605 A JP 2001014605A JP 2002214521 A JP2002214521 A JP 2002214521A
Authority
JP
Japan
Prior art keywords
light
distance
output
sensor
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2001014605A
Other languages
Japanese (ja)
Inventor
Osamu Nonaka
修 野中
Koichi Nakada
康一 中田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optical Co Ltd filed Critical Olympus Optical Co Ltd
Priority to JP2001014605A priority Critical patent/JP2002214521A/en
Publication of JP2002214521A publication Critical patent/JP2002214521A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a range-finding device for an automatic focusing camera capable of performing exact focusing even in the case of a low-contrast landscape such as the sky or a mountain and a bright scene. SOLUTION: Two images of an object 2 are received by a pair of sensor arrays 3a and 3b having parallax in order to detect a distance. The difference of output between a pair of sensor arrays 3a and 3b is compared with a specified value by a CPU 10 so as to decide the level of reliability in the detection of the distance by the two images. The brightness of the object image is detected, and the specified value is changed by the CPU 10 according to the detected output.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明はカメラのピント合
せ等に用いられる測距装置に関し、特にセンサアレイを
有して被写体の像信号を利用した、いわゆるパッシブ方
式のカメラの測距装置の改良に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a distance measuring apparatus used for focusing a camera, and more particularly to an improvement of a so-called passive type distance measuring apparatus having a sensor array and utilizing an image signal of a subject. Things.

【0002】[0002]

【従来の技術】一般に、センサアレイを有して被写体の
像信号を利用した、いわゆるパッシブAF(オートフォ
ーカス)方式の測距装置に於いては、像に明瞭なコント
ラストがある場合には十分な測距精度が得られるが、反
対に被写体像のコントラストが低い場合には、距離の検
出が困難になる。特に、空や風景等はコントラストの変
化がなだらかであり、パッシブAF方式の苦手とする被
写体である。
2. Description of the Related Art In general, in a so-called passive AF (autofocus) type distance measuring device having a sensor array and utilizing an image signal of a subject, when a clear contrast is present in an image, it is sufficient. Although the distance measurement accuracy can be obtained, on the contrary, when the contrast of the subject image is low, it becomes difficult to detect the distance. In particular, the sky, landscape, and the like are subjects to which the passive AF method is weak because the contrast changes gradually.

【0003】しかし、青い空や、なだらかな山並等は、
旅情を誘うシーンであり、写真の題材としてとり上げら
れることが多い。このような被写体を正しく測距するに
は、例えば本件出願人による特開平9−325262号
公報に記載されているように、写真画面内に於いて、極
力コントラストのある部分を探す方式等が知られてい
る。
[0003] However, the blue sky and the gentle mountains
It is a scene that invites you to travel and is often taken up as the subject of photography. In order to correctly measure the distance of such a subject, for example, as described in Japanese Patent Application Laid-Open No. 9-325262 by the present applicant, a method of searching for a portion having as much contrast as possible in a photographic screen is known. Have been.

【0004】[0004]

【発明が解決しようとする課題】ところが、図10に示
されるように、空と雲、山の影等は、非常になだらかな
濃淡しか有していない。そのため、人物や建物等、通常
のシーンと同じプロセスで距離検出を行うと、結局、正
しい測距ができないことが多いものであった。
However, as shown in FIG. 10, the sky and clouds, the shadows of mountains, and the like have only very gentle shading. For this reason, if distance detection is performed in the same process as a normal scene such as a person or a building, it is often impossible to correctly measure the distance.

【0005】また、近年、パッシブAFが苦手とするシ
ーンで、測距用光を投射するアクティブAFを利用する
方式(ハイブリッドAF、コンビネーションAF)等が
商品化されつつある。しかしながら、アクティブモード
は投射する光の強さに限界があるため、あまりにも明る
いシーンでは、背景の光に測距用光が埋もれて消しにく
くなり、且つ、遠距離の対象物は、測距用光が届かず、
更に精度劣化を引き起こすものであった。
[0005] In recent years, in a scene where passive AF is weak, a method (hybrid AF, combination AF) using active AF for projecting light for distance measurement is being commercialized. However, in the active mode, there is a limit to the intensity of light to be projected. In an extremely bright scene, the distance measurement light is hard to be erased by being buried in the background light, and a long-distance object is used for the distance measurement. Light did not reach,
Further, the accuracy is deteriorated.

【0006】したがって、こうしたシーンでは、極力パ
ッシブAFで測距することが好ましく、なるべくアクテ
ィブモードで測距しないようにして、精度確保を行う必
要があった。
Accordingly, in such a scene, it is preferable to measure the distance by the passive AF as much as possible, and it is necessary to secure the accuracy by avoiding the distance measurement in the active mode as much as possible.

【0007】この発明は上記実状に鑑みてなされたもの
であり、空や山等、コントラストが低い風景、且つ明る
いシーンであっても正しくピント合わせを行うことがで
きるオートフォーカス(AF)用のカメラの測距装置を
提供することを目的とする。
SUMMARY OF THE INVENTION The present invention has been made in view of the above circumstances, and is a camera for an autofocus (AF) capable of performing accurate focusing even in a low-contrast landscape such as the sky or a mountain and a bright scene. It is an object of the present invention to provide a distance measuring device.

【0008】[0008]

【課題を解決するための手段】すなわちこの発明は、距
離検出のために、視差を有して被写体の2つの像を受像
する一対のセンサアレイと、上記一対のセンサアレイ間
の出力の差と、所定の値を比較して、上記2つの像によ
る距離検出の信頼性の高低を判定する判定手段と、上記
被写体像の明るさを検出する明るさ検出手段と、上記明
るさ検出手段の出力に従って上記所定の値を変更する変
更手段と、を具備することを特徴とする。
That is, the present invention provides a pair of sensor arrays for receiving two images of a subject with parallax for distance detection, and a difference in output between the pair of sensor arrays. Determining means for comparing the predetermined values to determine the level of reliability of distance detection based on the two images; brightness detecting means for detecting brightness of the subject image; and output of the brightness detecting means. And a changing means for changing the predetermined value according to the following.

【0009】またこの発明は、距離検出のために、視差
を有して被写体の2つの像を受像する一対のセンサアレ
イと、上記一対のセンサアレイの少なくとも一方のセン
サアレイの特定の領域のセンサ出力差と所定の値とを比
較して、上記2つの像による距離検出の信頼性の高低を
判定する判定手段と、上記被写体像の明るさを検出する
明るさ検出手段と、上記明るさ検出手段の出力に従って
上記所定の値を変更する変更手段と、を具備することを
特徴とする。
According to another aspect of the present invention, there is provided a pair of sensor arrays for receiving two images of a subject with parallax for detecting a distance, and a sensor in a specific area of at least one of the pair of sensor arrays. Determining means for comparing the output difference with a predetermined value to determine the level of reliability of distance detection using the two images; brightness detecting means for detecting brightness of the subject image; Changing means for changing the predetermined value according to the output of the means.

【0010】この発明のカメラの測距装置にあっては、
距離検出のために視差を有した一対のセンサアレイによ
って、被写体の2つの像が受像される。そして、上記一
対のセンサアレイ間の出力の差と、所定の値とが判定手
段にて比較されて、上記2つの像による距離検出の信頼
性の高低が判定される。また、上記被写体像の明るさが
明るさ検出手段で検出され、この明るさ検出手段の出力
に従って、上記所定の値が変更手段で変更される。
In the camera distance measuring apparatus according to the present invention,
Two images of the subject are received by a pair of sensor arrays having parallax for distance detection. Then, the difference between the output between the pair of sensor arrays and a predetermined value is compared by a determination unit to determine whether the reliability of distance detection using the two images is high or low. Further, the brightness of the subject image is detected by the brightness detecting means, and the predetermined value is changed by the changing means according to the output of the brightness detecting means.

【0011】またこの発明のカメラの測距装置にあって
は、距離検出のために視差を有した一対のセンサアレイ
によって、被写体の2つの像が受像される。そして、上
記一対のセンサアレイの少なくとも一方のセンサアレイ
の特定の領域のセンサ出力差と所定の値とが、判定手段
にて比較されて、上記2つの像による距離検出の信頼性
の高低が判定される。また、上記被写体像の明るさは、
明るさ検出手段で検出され、この明るさ検出手段の出力
に従って、上記所定の値が変更手段で変更される。
In the camera distance measuring apparatus according to the present invention, two images of the subject are received by a pair of sensor arrays having parallax for detecting a distance. Then, a sensor output difference of a specific area of at least one of the pair of sensor arrays and a predetermined value are compared by a determination unit to determine whether the reliability of distance detection based on the two images is high or low. Is done. The brightness of the subject image is
The predetermined value is detected by the brightness detecting means, and the predetermined value is changed by the changing means according to the output of the brightness detecting means.

【0012】[0012]

【発明の実施の形態】以下、図面を参照して、この発明
の実施の形態を説明する。
Embodiments of the present invention will be described below with reference to the drawings.

【0013】図1は、この発明の一実施の形態のカメラ
の構成を示すブロック図である。尚、同図に於いては、
図面の繁雑化を避けるために、この発明に関連する部材
のみを図示し、他の構成部材については省略している。
FIG. 1 is a block diagram showing a configuration of a camera according to an embodiment of the present invention. In the figure,
In order to avoid complication of the drawings, only members related to the present invention are shown, and other components are omitted.

【0014】本実施の形態に於けるカメラは、図1に示
されるように、いわゆるパッシブタイプの測距装置を有
して構成されているものである。
As shown in FIG. 1, the camera according to the present embodiment has a so-called passive type distance measuring device.

【0015】すなわち、このカメラは、基線長Bだけ離
間して配置される2つの受光レンズ1a及び1bと、該
受光レンズ1a及び1bの後方に焦点距離fだけ離間し
て配置され、且つ受光レンズ1a及び1bを透過して入
射される被写体2からの光束をそれぞれ受光するライン
センサ等から成るセンサアレイ3a及び3bと、該セン
サアレイ3a及び3bによって取得され光電変換された
被写体光の信号(アナログ信号)をデジタル信号に変換
するA/D変換部4と、このA/D変換部4によって変
換された光信号を受けて、像ずれ量を算出する等の所定
の演算を行う演算部5と、このカメラの測距装置全体を
制御するワンチップマイクロコンピュータ等から成る演
算制御手段であるCPU10とを有して構成される。
That is, this camera is provided with two light receiving lenses 1a and 1b arranged at a distance of a base line length B, and at a focal distance f behind the light receiving lenses 1a and 1b. Sensor arrays 3a and 3b, each of which includes a line sensor for receiving a light beam from the subject 2 that has passed through the first and second light sources 1a and 1b, and a signal (analog) of subject light obtained and photoelectrically converted by the sensor arrays 3a and 3b An A / D converter 4 for converting the signal into a digital signal, and a calculator 5 for receiving the optical signal converted by the A / D converter 4 and performing a predetermined calculation such as calculating an image shift amount. And a CPU 10 which is an arithmetic control means including a one-chip microcomputer for controlling the entire distance measuring device of the camera.

【0016】このCPU10には、フォーカスレンズ群
11の動作を制御する合焦制御部12と、測光部13
と、閃光発光装置(以下、ストロボ装置と称する)14
の発光動作を制御するストロボ制御部15と、投光レン
ズ16を介して赤外発光ダイオード(IRED)17の
光を投射するべく制御するドライバ18と、定常光除去
回路19と、レリーズスイッチ20等が接続される。
The CPU 10 includes a focus control unit 12 for controlling the operation of the focus lens group 11, and a photometric unit 13.
And a flash light emitting device (hereinafter referred to as a strobe device) 14
, A driver 18 for controlling the projection of light from an infrared light emitting diode (IRED) 17 through a projection lens 16, a steady light removal circuit 19, a release switch 20, and the like. Is connected.

【0017】上記フォーカスレンズ群11は、撮影レン
ズ群の一部を構成し、合焦動作のために光軸方向に移動
し得るものである。そして、上記合焦制御部12は、測
距装置による測距結果に基いてフォーカスレンズ群11
の移動を制御する合焦制御手段であり、アクチュエータ
やエンコーダ等から構成される。
The focus lens group 11 constitutes a part of the photographing lens group, and can move in the optical axis direction for a focusing operation. Then, the focusing control unit 12 performs the focusing lens group 11 based on the distance measurement result by the distance measuring device.
Focusing control means for controlling the movement of the lens, and is composed of an actuator, an encoder and the like.

【0018】上記測光部13では、被写体2の輝度が測
定される。また、上記ストロボ装置14は、キセノン管
等の閃光発光部等から構成されるもので、このストロボ
装置14は、ストロボ発光制御回路等から成る発光制御
手段であるストロボ制御部15によって発光動作が制御
される。
In the photometric section 13, the brightness of the subject 2 is measured. The strobe device 14 includes a flash light emitting unit such as a xenon tube. The strobe device 14 has a strobe control unit 15 that controls light emission by a strobe light control unit including a strobe light control circuit. Is done.

【0019】上記IRED17は、被写体2にコントラ
ストがない場合に、コントラストのある光を投射するた
めのものである。上記IRED17は、CPU10が状
況に応じてドライバ18を駆動制御することにより発光
制御される。
The IRED 17 projects light with contrast when the object 2 has no contrast. The light emission of the IRED 17 is controlled by the CPU 10 controlling the driving of the driver 18 according to the situation.

【0020】また、上記定常光除去回路28は、センサ
アレイ3a、3bの出力光電流のうち、定常的に出力さ
れている分を除去する回路である。上記レリーズスイッ
チ20は、撮影動作の実行を開始させるためのレリーズ
信号を発生させるスイッチ(SW)等によって構成され
ている。
The stationary light removing circuit 28 is a circuit that removes a portion of the output photocurrent of the sensor arrays 3a and 3b that is constantly output. The release switch 20 includes a switch (SW) for generating a release signal for starting execution of a photographing operation, and the like.

【0021】更に、上記A/D変換部4には、光像信号
を積分する積分手段である積分回路4aと、測距動作時
にストロボ発光動作が必要であるか否かの判定を行う積
分判定手段である判定部4bとを有している。
Further, the A / D converter 4 includes an integration circuit 4a as integration means for integrating the optical image signal, and an integration determination for determining whether or not a strobe light emission operation is necessary at the time of a distance measurement operation. And a determination unit 4b as a means.

【0022】また、ストロボ装置14とストロボ制御部
15とによって、ストロボ発光手段を形成している。
The strobe device 14 and the strobe control unit 15 form a strobe light emitting means.

【0023】尚、2つの受光レンズ1a及び1bと、被
写体2までの間の距離を符号Lで示している。
The distance between the two light receiving lenses 1a and 1b and the object 2 is indicated by the symbol L.

【0024】次に、このように構成されたカメラに於け
る測距装置の光パターンの相対的な位置差の算出方法に
ついて説明する。
Next, a description will be given of a method of calculating the relative position difference between the light patterns of the distance measuring device in the camera having the above-described configuration.

【0025】センサアレイ3a、3b上には、曲線パタ
ーン23a、23bに示されるような光パターンが形成
される。これらの光パターン23a、23bは、被写体
2の輝度分布と、2つの受光レンズ1a、1bの相対的
な位置関係に依存するものである。
Light patterns are formed on the sensor arrays 3a and 3b as shown by curved patterns 23a and 23b. These light patterns 23a and 23b depend on the luminance distribution of the subject 2 and the relative positional relationship between the two light receiving lenses 1a and 1b.

【0026】つまり、2つの受光レンズ1a、1bの位
置差、すなわち基線長Bによってセンサアレイ3a、3
b上に入射される光パターン23a、23bの分布の相
対的な位置差xは、被写体2までの距離(以下、被写体
距離と称する)Lに依存して変化する。この場合に於い
て、2つの受光レンズ1a、1bの焦点距離fであれ
ば、被写体距離Lは、 L=B×f/x …(1) によって求められる。
That is, the sensor array 3a, 3b is determined by the positional difference between the two light receiving lenses 1a, 1b, that is, the base line length B.
The relative position difference x of the distribution of the light patterns 23a and 23b incident on b changes depending on the distance L to the subject 2 (hereinafter referred to as the subject distance) L. In this case, if the focal length f of the two light receiving lenses 1a and 1b, the subject distance L can be obtained by L = B × f / x (1).

【0027】センサアレイ3a、3bの各センサは、光
の入射量に従った電流信号を出力するので、これらをA
/D変換部4によってデジタル信号に変換すれば、演算
部5による相関演算によって像ずれ量、すなわち相対的
な位置差xを算出することができる。この結果を受け
て、CPU10では、上記(1)式に基いた演算が行わ
れる。これにより、被写体距離Lが求められる。
Each sensor of the sensor arrays 3a and 3b outputs a current signal according to the amount of incident light.
If the digital signal is converted by the / D conversion unit 4, the image shift amount, that is, the relative position difference x can be calculated by the correlation calculation by the calculation unit 5. In response to this result, the CPU 10 performs an operation based on the above equation (1). Thereby, the subject distance L is obtained.

【0028】以上が、パッシブタイプの測距装置に於け
る三角測距方式の基本原理であり、一般的な装置構成で
ある。
The above is the basic principle of the triangular distance measuring method in the passive type distance measuring device, and the general structure of the device.

【0029】尚、像ずれ量演算機能は、通常、後述する
ように、2つのプロセスから成るものであるが、これら
の機能はCPU10の内部に制御プログラムとして内蔵
するようにしても良い。
The function of calculating the amount of image shift usually comprises two processes, as will be described later. However, these functions may be incorporated in the CPU 10 as a control program.

【0030】このような技術を用いてカメラの焦点調節
動作を行う場合には、CPU10がカメラの動作を制御
し、撮影レンズの一部を構成する焦点調節用のフォーカ
スレンズ11等を合焦制御部12を介して駆動モータ等
のアクチュエータ(図示せず)の駆動力によって適宜制
御すれば、いわゆる自動焦点調整(AF)機能付きカメ
ラを提供することができるものである。
When the focus adjustment operation of the camera is performed using such a technique, the CPU 10 controls the operation of the camera, and controls the focus adjustment focus lens 11 and the like which constitute a part of the photographing lens. By appropriately controlling the driving force of an actuator (not shown) such as a driving motor via the unit 12, a camera with a so-called automatic focus adjustment (AF) function can be provided.

【0031】像のずれ量の演算のためには、2つのセン
サアレイ3a、3bに於けるセンサピッチの単位で、ど
れだけ像がずれているのかを調べる演算ステップ、すな
わち相関演算を必要とする。そして、これより細かい分
解能で更に正確なずれ量を算出する演算ステップ、すな
わち補間演算が必要となる。
In order to calculate the amount of image shift, an operation step for checking how much the image is shifted in units of sensor pitch in the two sensor arrays 3a and 3b, that is, a correlation operation is required. . Then, an operation step of calculating a more accurate deviation amount with a finer resolution, that is, an interpolation operation is required.

【0032】ここで、相関演算及び補間演算に関する各
プロセスの概略手順について、以下に説明する。
Here, a schematic procedure of each process regarding the correlation calculation and the interpolation calculation will be described below.

【0033】先ず、相関演算のプロセスについて説明す
る。
First, the process of the correlation calculation will be described.

【0034】センサアレイ3a上に於いて、図1に符号
23aで示されるパターンの光が入射した場合には、各
センサR1 〜R6 の出力の大きさは、図2に示されるよ
うな分布となる。この分布は、光パターン23aの波形
に対応している。
When light having a pattern indicated by reference numeral 23a in FIG. 1 is incident on the sensor array 3a, the magnitude of the output of each of the sensors R 1 to R 6 is as shown in FIG. Distribution. This distribution corresponds to the waveform of the light pattern 23a.

【0035】尚、図2に於いて示される符号Rは、2つ
のセンサアレイ3a、3bのうち右側のセンサアレイを
表し、同様に後述の説明に於いて示す符号Lは、左側の
センサアレイを表すものとする。またR1 〜R6 は、受
光レンズ1a、1bの光軸を基準とする各センサの絶対
位置を表すものとする。この場合に於いて、左側センサ
1 〜L6 から、右側センサR1 〜R6 と略等しい出力
信号が得られるものとすると、両者の相対位置差xは0
となる。したがって、求められる被写体距離Lは、無限
遠となる。
The symbol R shown in FIG. 2 represents the sensor array on the right side of the two sensor arrays 3a and 3b. Similarly, the symbol L shown in the following description represents the sensor array on the left side. Shall be represented. R 1 to R 6 represent the absolute positions of the respective sensors with reference to the optical axes of the light receiving lenses 1a and 1b. In this case, assuming that output signals substantially equal to those of the right sensors R 1 to R 6 can be obtained from the left sensors L 1 to L 6 , the relative position difference x between them is 0.
Becomes Therefore, the required subject distance L is infinity.

【0036】また、被写体2が有限距離に存在する場
合、すなわち無限遠に存在しない場合には、両センサア
レイ3a、3b上に入射された像の相対的な位置差x
と、個々のセンサ間のピッチSPとによって決定される
センサ数だけずれた(シフトした)位置の左側センサL
には、図3に示されるように、上述のセンサ出力R1
6 (図2参照)に類似した値の出力信号が得られる。
When the subject 2 exists at a finite distance,
If they do not exist at infinity,
The relative position difference x of the images incident on the rays 3a, 3b
And the pitch SP between the individual sensors
Left sensor L at a position shifted (shifted) by the number of sensors
As shown in FIG. 3, the sensor output R1~
R 6An output signal having a value similar to that of FIG. 2 is obtained.

【0037】図4に於ける縦軸の値、すなわち右側セン
サRと左側センサLとの差の和FF (i) は、次式によっ
て求められる。 FF(i) =Σ|R(i) −L(i) | …(2) すなわち、右側のセンサRの任意のセンサ出力と、これ
に対応する左側センサLのセンサ出力とを減算し、その
絶対値を各センサ毎に加算した結果がFFである。ここ
で、先ず、Ri からLi を減算してその絶対値をとり、
所定の幅でiを変化させて、これらを加算する。
The value on the vertical axis in FIG.
Sum FF of the difference between the sensor R and the left sensor L (i)Is given by
Required. FF(i)= Σ | R(i)-L(i)... (2) That is, an arbitrary sensor output of the right sensor R and this
Is subtracted from the sensor output of the left sensor L corresponding to
The result of adding the absolute value for each sensor is FF. here
So, first, RiTo LiAnd take its absolute value,
I is changed in a predetermined width, and these are added.

【0038】次に、Ri またはLi の一方のセンサを一
単位だけずらして、同様の演算を行って差をとる。する
と、次の下記(3)式によって、FF(i+1) を表現する
ことができる。 FF(i+1) =Σ|R(i+1) −L(i) | …(3) このように、順次、ずらし量を変更させてFFを得るこ
とができる。そして、センサRとセンサLとの差の和F
Fが最小値(Fmin )となる位置が、最もよく対応がと
れている位置と考えられることから、この場合に於ける
ずらし量(シフト量)が、上述した図3に於いてシフト
させる符号Sとして求められる。
Next, by shifting one of the sensors R i or L i by one unit, a difference by performing the same operation. Then, FF (i + 1) can be expressed by the following equation (3). FF (i + 1) = Σ | R (i + 1) −L (i) | (3) In this manner, the FF can be obtained by sequentially changing the shift amount. And the sum F of the difference between the sensor R and the sensor L
Since the position at which F is the minimum value (Fmin) is considered to be the position where the correspondence is best taken, the shift amount (shift amount) in this case is represented by the symbol S to be shifted in FIG. Is required.

【0039】以上が、相関演算に関するプロセスの概略
手順である。この相関関数の最小値Fmin が所定レベル
Fmin 0 より大きい場合、像の一致度が低く、測距の信
頼性が低いと考えることができる。
The above is the outline procedure of the process regarding the correlation operation. If the minimum value Fmin of the correlation function is larger than a predetermined level Fmin 0, low degree of coincidence of the images, it can be considered to have low reliability of the distance measurement.

【0040】また、符号Sで示される値を加味して、両
センサアレイ3a、3bの出力分布を図示すると、図3
で示されたものと同様に、L側の各センサに於いてシフ
ト量Sだけずれた各センサの出力分布に対応して、R側
の各センサからも同等の出力が得られる。
FIG. 3 shows the output distribution of both sensor arrays 3a and 3b, taking into account the value indicated by reference symbol S.
In the same manner as shown in the above, equivalent output is obtained from each sensor on the R side corresponding to the output distribution of each sensor shifted by the shift amount S in each sensor on the L side.

【0041】次に、図2、図3及び図5を参照して、補
間演算のプロセスについて説明する。
Next, with reference to FIGS. 2, 3 and 5, the process of the interpolation operation will be described.

【0042】実際の2つのセンサアレイ3a、3b上の
像のずれ量は、各センサのピッチSPによって正確にず
れるわけではなく、また正確な測距動作を実現するため
には、センサピッチSPよりも細かい精度によって像ず
れ量を検出しなければならない。そこで、補間演算が行
われることとなる。
The actual amount of image shift on the two sensor arrays 3a and 3b is not exactly shifted by the pitch SP of each sensor, and in order to realize an accurate distance measurement operation, it is necessary to use the sensor pitch SP. In addition, it is necessary to detect the image shift amount with fine precision. Thus, an interpolation operation is performed.

【0043】図2及び図3に於いて、符号R及び符号L
は、それぞれ図1に示されるセンサアレイ3a、3bを
構成する各センサのセンサ出力のうちの一部を表すもの
である。
In FIG. 2 and FIG.
Represents a part of the sensor output of each sensor constituting the sensor arrays 3a and 3b shown in FIG.

【0044】また、図5は、相関演算のプロセスが終了
した各センサの出力を、シフト量Sだけずらした後、比
較しやすいような形態にグラフ化したものである。すな
わち、図5に於いてL0 〜L4 で示されているのは、正
確には、L(S) 〜L(S+4) として記述されるべきもので
あるのが、繁雑化を避けるために符号(S)を省略して
いる。
FIG. 5 is a graph in which the outputs of the respective sensors, for which the correlation calculation process has been completed, are shifted by the shift amount S and are then easily compared. In other words, what is indicated by L 0 ~L 4 In FIG. 5, to be precise, L that is to be described as (S) ~L (S + 4 ), avoiding complication For this reason, the symbol (S) is omitted.

【0045】ここで、L側のセンサには、シフト量Sだ
けずらした後に於いても、R側のセンサを基準とする相
対的な位置差x(図1参照)だけずれた光が入射してい
るものとする。この場合に於いて、例えばセンサL1
は、R0 とR1 に入射される光が混じり合って入射し、
同様にL側の各センサにもセンサRを基準とした位置差
xだけずれた光が順次入射している。したがって、L側
の各センサ出力(L1〜L3 )は、下記式に示されるよ
うに表現されることがわかる。 L1 =(1−x)・R1 +xR0 …(4) L2 =(1−x)・R2 +xR1 …(5) L3 =(1−x)・R3 +xR2 …(6) 上述したFmin と、このFmin からシフト量をプラス方
向とマイナス方向にずらしたFFの値F-1及び値F+1と
を、各センサRn 、Ln の出力を用いて表現すると、下
記式のように表すことができる。 Fmin =Σ|Rn −Ln | …(7) F-1=Σ|R(n-1) −Ln | …(8) F+1=Σ|R(n+1) −Ln | …(9) 更に、上記(4)〜(6)式を用いて、(7)〜(9)
式を展開すると、各値Fmin 、F-1、F+1は、下記(1
0)式のように表すことができる。
Here, even after being shifted by the shift amount S, the light shifted by the relative position difference x (see FIG. 1) with respect to the R-side sensor enters the L-side sensor. It is assumed that In this case, for example, the light incident on R 0 and R 1 is mixed and incident on the sensor L 1 ,
Similarly, light shifted by the position difference x with respect to the sensor R is sequentially incident on each sensor on the L side. Therefore, it is understood that the sensor outputs (L 1 to L 3 ) on the L side are expressed as shown in the following equations. L 1 = (1-x) · R 1 + xR 0 (4) L 2 = (1-x) · R 2 + xR 1 (5) L 3 = (1-x) · R 3 + xR 2 (6) The above-mentioned Fmin and the values F-1 and F + 1 of the FFs obtained by shifting the shift amount from the Fmin in the plus direction and the minus direction by using the outputs of the sensors R n and L n are as follows. It can be expressed as an equation. Fmin = Σ | R n -L n | ... (7) F-1 = Σ | R (n-1) -L n | ... (8) F + 1 = Σ | R (n + 1) -L n | ... (9) Further, using the above equations (4) to (6), (7) to (9)
Expanding the equation, the values Fmin, F-1, and F + 1 are represented by the following (1)
0) can be expressed as shown below.

【0046】[0046]

【数1】 (Equation 1)

【0047】また、上記(10)式に於ける下線を付し
て示した部分、すなわち {|R0 −R1 |+|R1 −R2 |+|R2 −R3 |} とあるのを、(ΣΔR)として表すと、この(ΣΔR)
に依存せずに、上述したずれ量(位置差)xは、下記
(11)式による演算から求めることができる。
The underlined portion in the above equation (10), that is, {| R 0 −R 1 | + | R 1 −R 2 | + | R 2 −R 3 |}. Is expressed as (ΣΔR), this (ΣΔR)
, The above-mentioned displacement amount (position difference) x can be obtained by calculation using the following equation (11).

【0048】[0048]

【数2】 (Equation 2)

【0049】以上が、補間演算のプロセスである。The above is the process of the interpolation calculation.

【0050】尚、これらの演算は、図1に於ける演算部
5に於いて行われることとなるが、これに限らず、例え
ば演算制御手段であるCPU10の内部にて、所定のプ
ログラムに従って行うように構成しても良い。
Note that these calculations are performed in the calculation unit 5 in FIG. 1, but are not limited to this. For example, the calculation is performed inside the CPU 10 as calculation control means according to a predetermined program. It may be configured as follows.

【0051】図6は、こうしたCPU10による演算処
理動作を説明するフローチャートである。
FIG. 6 is a flow chart for explaining the operation of the arithmetic processing by the CPU 10.

【0052】すなわち、CPU10では、先ず、センサ
アレイ3a、3bの各センサの出力を受ける(データ読
込み処理)。その後、ステップS2に於いて、所定のプ
ログラム(ソフトウェア)に従って上述した相関演算が
行われる。そして、ステップS3に於いて、信頼性判定
が行われる。
That is, the CPU 10 first receives the output of each sensor of the sensor arrays 3a and 3b (data reading processing). Thereafter, in step S2, the above-described correlation calculation is performed according to a predetermined program (software). Then, in step S3, a reliability determination is performed.

【0053】ここで、信頼性判定の結果がOKならば、
ステップS4に移行して補間演算が実行される。そし
て、その結果に基いて、ステップS5にて、撮影レンズ
のフォーカスレンズ11等の繰り出し量が算出される。
Here, if the result of the reliability judgment is OK,
The process proceeds to step S4 to perform an interpolation operation. Then, based on the result, in step S5, the extension amount of the focus lens 11 or the like of the photographing lens is calculated.

【0054】一方、上記ステップS3に於いて、信頼性
判定の結果がNGならば、ステップS6に移行して警告
が行われる。
On the other hand, if the result of the reliability judgment is NG in step S3, the process proceeds to step S6 to issue a warning.

【0055】その後、合焦制御部12等によって合焦調
節のための制御が行われる。
Thereafter, control for focusing adjustment is performed by the focusing control unit 12 and the like.

【0056】以上説明したような基本動作が行われる測
距装置に於いては、被写体の明るさが不足している場合
やコントラストが低い被写体の場合、明確な光像信号を
得ることができずに測距の精度が劣化するという問題を
生じる。
In the distance measuring apparatus in which the basic operation as described above is performed, a clear light image signal cannot be obtained when the brightness of the subject is insufficient or the subject has a low contrast. This causes a problem that the accuracy of distance measurement is deteriorated.

【0057】こうした場合、被写体2に対して、IRE
D17の光像を投射して、その反射光に基いた像ズレ量
から距離検出を行えばよい。
In such a case, the object 2
The light image of D17 may be projected, and the distance may be detected from the amount of image shift based on the reflected light.

【0058】このとき、センサアレイの出力光電流のう
ち、定常的に出力されている分を除去する回路(定常光
除去回路)28を作動させ、パルス的に投光したIRE
D17の反射光のみを積分するようにすれば、太陽光や
室内の人工照明光の中に信号が埋没せず、より高精度の
測距が可能である。また、IRED17の光が届かない
距離では、ストロボ装置14を同様にパルス発光させ、
その反射光成分による像により距離検出を行っても良
い。
At this time, a circuit (stationary light removing circuit) 28 for removing a portion of the output photocurrent output from the sensor array that is constantly output is operated, and the IRE that emits light in a pulsed manner is operated.
If only the reflected light of D17 is integrated, the signal will not be buried in the sunlight or artificial illumination light in the room, and a more accurate distance measurement can be performed. At a distance where the light of the IRED 17 does not reach, the strobe device 14 similarly emits pulse light,
Distance detection may be performed based on an image based on the reflected light component.

【0059】しかし、被写体が遠距離の場合、IRED
17による光やストロボ光は到達せず、反射光像も検出
不能となる。
However, when the subject is at a long distance, the IRED
The light and strobe light by the light beam 17 do not arrive, and the reflected light image cannot be detected.

【0060】これらの点を基に、この発明の一実施の形
態の測距動作について、図7及び図8のフローチャート
を参照して説明する。
Based on these points, the distance measuring operation according to the embodiment of the present invention will be described with reference to the flowcharts of FIGS.

【0061】測距動作に入ると、先ずステップS11に
て、各センサアレイに入射される光に応じた光電流を電
圧信号に変換するために、各センサの有するコンデンサ
への積分が行われる。次いで、ステップS12にて、こ
の積分量が所定のレベルになるまでに要する時間がt
INT としてカウントされる。
When the distance measuring operation is started, first, in step S11, integration is performed on a capacitor of each sensor in order to convert a photocurrent corresponding to light incident on each sensor array into a voltage signal. Next, in step S12, the time required until the integration amount reaches a predetermined level is t.
Counted as INT .

【0062】そして、ステップS13に於いて、上記積
分量が所定レベルに達したか否かが判定される。ここ
で、所定レベルに達していればステップS15へ移行
し、達していない場合はステップS14へ移行する。こ
れは、暗い場合には積分に時間がかかるので、ステップ
S14にて所定時間経過したか否かが判定される。所定
時間に達していなければ上記ステップS12へ移行し、
所定時間経過したならば、積分を中断してステップS1
5へ移行する。
Then, in step S13, it is determined whether or not the integral has reached a predetermined level. Here, if the predetermined level has been reached, the process proceeds to step S15, and if not, the process proceeds to step S14. This is because it takes a long time to integrate when the image is dark, so it is determined in step S14 whether a predetermined time has elapsed. If the predetermined time has not been reached, the process proceeds to step S12,
If the predetermined time has elapsed, the integration is interrupted and step S1 is performed.
Go to 5.

【0063】ステップS15では、A/D変換部4によ
り、各センサの積分電圧がデジタル信号として変換さ
れ、CPUに入力される。
In step S15, the integrated voltage of each sensor is converted as a digital signal by the A / D converter 4 and input to the CPU.

【0064】この後、ステップS16に於いて、積分に
要した時間が判定される。つまり、明るいシーンでは積
分時間tINT は短く、暗いシーンでは長くなるので、所
定の値tINT0と積分時間tINT とが比較されて、明暗が
判定される。明るい場合はステップS17に移行し、逆
に暗い場合にはステップS19に移行する。そして、ロ
ーコントラスト判定の定数ΔR0 、信頼性判定の係数F
min 0 が、上記明暗に応じてステップS17及びS1
8、またはステップS19及びS20にて設定される。
Thereafter, in step S16, the time required for integration is determined. That is, since the integration time t INT is short in a bright scene and long in a dark scene, the predetermined value t INT0 is compared with the integration time t INT to determine the brightness. If it is bright, the process proceeds to step S17, and if it is dark, the process proceeds to step S19. Then, a constant ΔR 0 for low contrast determination and a coefficient F for reliability determination
min 0 is determined in steps S17 and S1 according to the brightness.
8, or set in steps S19 and S20.

【0065】明るいシーンでは撮影レンズの絞り値FN
o.は大きくても良く、被写界深度も深くなるので、暗
い場合よりもピント位置制御が僅かにずれていても、ピ
ントのボケは写真上に現れない。そこで、像のコントラ
ストが小さくても、または、信頼性が低くても(Fmin
が大きくても)測距成功と判断するように、ステップS
17に於けるΔR1 はステップS19に於けるΔR2
りも小さく、また、ステップS18に於けるFmin 1
ステップS20に於けるFmin 2 よりも大きくして、各
々、判定係数ΔR0 、Fmin 0 に代入するようにされて
いる。
In a bright scene, the aperture value FN of the photographing lens
o. May be large and the depth of field is deep, so that even if the focus position control is slightly deviated from that in a dark case, the out-of-focus state does not appear on the photograph. Therefore, even if the contrast of the image is low or the reliability is low (Fmin
Step S so that the distance measurement is successful
ΔR 1 in step 17 is smaller than ΔR 2 in step S19, and Fmin 1 in step S18 is larger than Fmin 2 in step S20. Is to be assigned.

【0066】次に、ステップS21にて、R側センサア
レイの所定エリアのセンサデータの最大値と最小値の差
がΔRとされる。このΔRが大きいとコントラストが大
きいと判断でき、小さいとローコントラストで測距に不
適と判断できる。そのため、ステップS22に於いて、
上述したΔR0 とΔRとが比較される。
Next, in step S21, the difference between the maximum value and the minimum value of the sensor data in a predetermined area of the R-side sensor array is set to ΔR. When ΔR is large, it can be determined that the contrast is large, and when ΔR is small, it can be determined that the contrast is low and the distance measurement is not suitable. Therefore, in step S22,
ΔR 0 and ΔR described above are compared.

【0067】ここで、ΔRがΔR0 よりも小さい場合
は、先の積分で得られた像データは測距に不適当なの
で、ステップS29に移行して、以下、光投射を伴うア
クティブモードによる再積分を行うために積分リセット
動作が行われる。
[0067] Here, when [Delta] R is less than [Delta] R 0, since the image data obtained in the previous integration unsuitable for range finding, the operation proceeds to step S29, hereinafter re by an active mode with optical projection An integration reset operation is performed to perform integration.

【0068】一方、上記ステップS22にてコントラス
トOKと判定された場合は、ステップS23にて相関演
算が行われる。次いで、ステップS24に於いて、上記
ステップ23で求められた相関関数の最小値Fmin と、
所定の値Fmin 0 とが比較される。
On the other hand, if it is determined in step S22 that the contrast is OK, a correlation operation is performed in step S23. Next, in step S24, the minimum value Fmin of the correlation function obtained in the above step 23,
A predetermined value Fmin 0 is compared.

【0069】ここで、最小値Fmin が所定の値Fmin 0
より大きい場合には、2つのセンサアレイで求められた
2像の一致度が低く、測距には不適当であるとして、ス
テップS26に移行する。このステップS26では、ア
クティブAFであるか否かが判定される。そして、アク
ティブAFであるならば、ステップS27に移行して、
被写体2から反射されてきた光量を利用した測距(光量
AF)が行われる。その後、ステップS28へ移行す
る。また、アクティブAFでない場合はステップS29
へ移行する。
Here, the minimum value Fmin is equal to a predetermined value Fmin 0
If it is larger, it is determined that the coincidence between the two images obtained by the two sensor arrays is low and the image is inappropriate for distance measurement, and the process shifts to step S26. In this step S26, it is determined whether or not it is the active AF. If it is the active AF, the process proceeds to step S27,
Distance measurement (light amount AF) using the light amount reflected from the subject 2 is performed. Thereafter, the process proceeds to step S28. If it is not the active AF, step S29
Move to.

【0070】上記ステップS24にて、最小値Fmin よ
りも所定の値Fmin 0 が大きい場合には、このFmin も
OKであるとして、ステップS25に移行して上述した
補間演算が行われて、距離が算出される。そして、ステ
ップS28にて、ピント合わせ量が決定される。
If the predetermined value Fmin 0 is larger than the minimum value Fmin in step S24, it is determined that Fmin is also OK, and the flow advances to step S25 to perform the above-described interpolation calculation, and the distance is calculated. Is calculated. Then, in step S28, the focus amount is determined.

【0071】以上は、通常のパッシブAFによる測距で
あり、明るい場合と暗い場合とで、測距可、不可の判定
レベルを切換えたので、明るい風景のようなシーンで
も、空に浮かぶ雲や山の陰影のような微妙なコントラス
トによって距離検出が可能となり、良好なピント合わせ
を行うことができる。
The above is the distance measurement by the normal passive AF, and the determination level of whether or not distance measurement is possible is switched between a bright case and a dark case. It is possible to detect a distance by a delicate contrast such as a shade of a mountain, and to perform good focusing.

【0072】次に、ステップS29以降のアクティブモ
ードによる測距を説明する。
Next, distance measurement in the active mode after step S29 will be described.

【0073】ステップS29で積分がリセットされる
と、続くステップS30にて、IRED17が投射され
る。そして、ステップS31に於いて、上記ステップS
30で投射されたIRED17の被写体2からの反射光
の大小によって、IRED17で測距するか、ストロボ
装置14を使用して測距するかが決定される。
When the integration is reset at step S29, the IRED 17 is projected at step S30. Then, in step S31, the above step S
The distance measured by the IRED 17 or the distance measurement using the strobe device 14 is determined based on the magnitude of the reflected light from the subject 2 of the IRED 17 projected at 30.

【0074】このアクティブモードでは、発光手段の発
光制御時に、上述したように、定常光除去回路19を作
動させて、純粋にカメラ側から投射された信号光に基く
信号のみの光量判定が行われる。
In the active mode, at the time of light emission control of the light emitting means, as described above, the steady light removing circuit 19 is operated, and the light quantity determination of only the signal based on the signal light purely projected from the camera side is performed. .

【0075】すなわち、ステップS31に於いて積分量
が判定され、上記ステップS30に於けるプリ発光の結
果(積分量)が大きい場合には、IRED17による光
が被写体2に到達しているとして、ステップS32以降
のIRED発光AFが行われる。一方、上記ステップS
31にて、積分量が小さい場合には、ステップS38に
移行してストロボ装置14の光を使用しての測距が行わ
れる。
That is, the integral amount is determined in step S31. If the result (integral amount) of the pre-emission in step S30 is large, it is determined that the light from the IRED 17 has reached the subject 2, The IRED emission AF from S32 is performed. On the other hand, step S
If the integration amount is small at 31, the process proceeds to step S38, and the distance measurement using the light of the strobe device 14 is performed.

【0076】ステップS32ではIRED17が発光さ
れ、続くステップS33にて発光回数のカウント
(NIR)が開始される。次いで、ステップS34にて、
所定量積分がなされたか否かが判定される。ここで、所
定量の積分が行われたならば、上記ステップS15に移
行するが、所定量に達していないならば、ステップS3
5に於いて、発光回数がカウントされながら所定の回数
または所定の積分量になるまで繰り返される。発光の回
数が所定の回数(NIR0 )に達していない場合は、上記
ステップS32に移行する。これに対し、発光の回数が
上記所定の回数(NIR 0 )に達した場合は、ステップS
36に移行する。
In step S32, the IRED 17 emits light, and in step S33, counting of the number of times of emission (N IR ) is started. Next, in step S34,
It is determined whether or not the predetermined amount has been integrated. If the predetermined amount has been integrated, the process proceeds to step S15. If the predetermined amount has not been reached, step S3 is performed.
In 5, the light emission is repeated while counting the number of times until a predetermined number of times or a predetermined integration amount is reached. If the number of times of light emission has not reached the predetermined number (N IR0 ), the process proceeds to step S32. On the other hand, if the number of times of light emission has reached the predetermined number of times (N IR 0 ), step S
Move to 36.

【0077】一方、ステップS38では、ストロボ装置
14が発光され、続くステップS39にて発光回数のカ
ウント(NST)が開始される。次いで、ステップS40
にて、所定量積分がなされたか否かが判定される。ここ
で、所定量の積分が行われたならば、上記ステップS1
5に移行するが、所定量に達していないならば、ステッ
プS41に於いて、発光回数がカウントされながら所定
の回数または所定の積分量になるまで繰り返される。発
光の回数が所定の回数(NST0 )に達していない場合
は、上記ステップS38に移行する。これに対し、発光
の回数が上記所定の回数(NST0 )に達した場合は、ス
テップS36に移行する。
On the other hand, in step S38, the flash device 14 emits light, and in step S39, counting of the number of times of light emission (N ST ) is started. Next, step S40
It is determined whether or not the predetermined amount has been integrated. If a predetermined amount of integration has been performed, step S1
The process proceeds to step S5, but if the predetermined amount is not reached, in step S41, the number of times of light emission is counted and the process is repeated until the predetermined number of times or the predetermined integral amount is reached. If the number of times of light emission has not reached the predetermined number (N ST0 ), the process proceeds to step S38. On the other hand, when the number of times of light emission has reached the predetermined number (N ST0 ), the process proceeds to step S36.

【0078】そして、ステップS36に於いては、上記
ステップS12での積分時間を利用して、積分に要した
時間が判定される。ここで、明るいシーンと判定されれ
ば、ステップS37に移行して風景にピントが合うよう
な設定となる。一方、暗いシーンであると判定された場
合は、上記ステップS15に移行する。
Then, in step S36, the time required for integration is determined using the integration time in step S12. Here, if it is determined that the scene is bright, the process proceeds to step S37, and the setting is such that the scene is focused. On the other hand, when it is determined that the scene is dark, the process proceeds to step S15.

【0079】これは、投射光が全く検出されないことを
判定し、且つ、明るいシーンならば、風景の写真である
確率が高いと考えた処理となっている。例えば、人物を
撮影する場合等、明るいシーンであるならば、多くの場
合、図9に示されるように、被写体からコントラスト明
瞭な像が得られるはずである。このような場合は、上記
ステップS11〜S15での積分のパッシブ測距にて、
ピント合わせが可能である。
This is a process in which it is determined that no projection light is detected, and it is considered that a bright scene has a high probability of being a landscape photograph. For example, in the case of a bright scene, such as when photographing a person, in many cases, an image with clear contrast should be obtained from the subject as shown in FIG. In such a case, the passive distance measurement of the integration in steps S11 to S15 is performed.
Focusing is possible.

【0080】また、上記ステップS36を“NO”に分
岐した場合や、ステップS34及びS40にて、アクテ
ィブモード(IREDまたはストロボ投射測距)での積
分量が所定量に達した場合は、そのとき得られたデータ
がステップS15にて読込まれ、そのデータが用いられ
て相関及び補間演算が行われる。
If step S36 branches to "NO", or if the integration amount in the active mode (IRED or strobe projection distance measurement) reaches a predetermined amount in steps S34 and S40, The obtained data is read in step S15, and correlation and interpolation calculations are performed using the data.

【0081】但し、上記ステップS24にて信頼性が低
いと判断された場合には、アクティブモードならステッ
プS26〜S27に移行し、該ステップS27にて被写
体から反射されてきた光量が利用された光量AFが行わ
れる。これは、遠い被写体からは少ない光量が、近い被
写体からは多い光量が、反射されて積分されることを利
用した距離検出方式で、被写体の反射率には依存する
が、コントラストが低い場合や、信頼性が低い場合にも
有効なピント合わせ距離検出が可能となる。
However, if it is determined in step S24 that the reliability is low, the process proceeds to steps S26 to S27 in the active mode, and the light amount reflected from the subject in step S27 is used as the light amount. AF is performed. This is a distance detection method that utilizes the fact that a small amount of light from a distant subject and a large amount of light from a close subject are reflected and integrated, and depends on the reflectivity of the subject. Even when the reliability is low, an effective focusing distance can be detected.

【0082】明るいシーンでは、上記ステップS16〜
S18の効果により、ステップS29への以降はし難く
なっているが、これによって、測距の信頼性を向上させ
ている。つまり、アクティブモードでは、定常的な光を
除去するので、あまりにも明るいシーンでは、この場合
の誤差が測距に影響しやすいが、本実施の形態によれ
ば、そうしたシーンは極力、ステップS23、S25の
演算によってパッシブモードによる測距になりやすくな
っているので、上述した誤差を防ぐことができる。
In the case of a bright scene, the above steps S16 to S16
The effect of S18 makes it difficult to proceed to step S29, but this improves the reliability of distance measurement. That is, in the active mode, steady light is removed, so that in an extremely bright scene, an error in this case tends to affect the distance measurement. However, according to the present embodiment, such a scene is minimized in step S23. Since the distance measurement in the passive mode is easily performed by the calculation in S25, the above-described error can be prevented.

【0083】[0083]

【発明の効果】以上説明したようにこの発明によれば、
通常の人物写真のみならず多くのカメラユーザが撮影を
楽しむ青空や風景等の被写体に対し、失敗のない写真撮
影を楽しむことができるオートフォーカス用のカメラの
測距装置を提供することができる。
As described above, according to the present invention,
It is possible to provide an auto-focus camera ranging device that can enjoy photographing without failure for subjects such as blue sky and scenery that many camera users enjoy photographing as well as ordinary portrait photographs.

【図面の簡単な説明】[Brief description of the drawings]

【図1】この発明の一実施の形態のカメラの構成を示す
ブロック図である。
FIG. 1 is a block diagram illustrating a configuration of a camera according to an embodiment of the present invention.

【図2】センサアレイ3a上のセンサR1 〜R6 の出力
を示した図である。
FIG. 2 is a diagram showing outputs of sensors R 1 to R 6 on a sensor array 3a.

【図3】センサアレイ3a上のセンサL1+S 〜L6+S
出力を示した図である。
FIG. 3 is a diagram showing outputs of sensors L 1 + S to L 6 + S on a sensor array 3a.

【図4】右側センサRと左側センサLとの差の和FFセ
ンサのずらし量との関係を示した図である。
FIG. 4 is a diagram illustrating a relationship between a difference between a right sensor R and a left sensor L and a shift amount of the FF sensor.

【図5】相関演算のプロセスが終了した各センサの出力
を、シフト量Sだけずらした後、比較しやすいような形
態にグラフ化した図である。
FIG. 5 is a graph in which the outputs of the respective sensors, for which the correlation calculation process has been completed, are shifted by a shift amount S and are then graphed in a form that allows easy comparison.

【図6】この発明の一実施の形態でCPU10による演
算処理動作を説明するフローチャートである。
FIG. 6 is a flowchart illustrating an arithmetic processing operation by a CPU 10 according to an embodiment of the present invention.

【図7】この発明の一実施の形態の測距動作について説
明するフローチャートである。
FIG. 7 is a flowchart illustrating a distance measuring operation according to the embodiment of the present invention;

【図8】この発明の一実施の形態の測距動作について説
明するフローチャートである。
FIG. 8 is a flowchart illustrating a distance measuring operation according to the embodiment of the present invention.

【図9】コントラストが明瞭な被写体像の例を示した図
である。
FIG. 9 is a diagram illustrating an example of a subject image with clear contrast.

【図10】コントラストの低い被写体像の例を示した図
である。
FIG. 10 is a diagram illustrating an example of a subject image with low contrast.

【符号の説明】[Explanation of symbols]

1a、1b 受光レンズ、 2 被写体、 3a、3b センサアレイ、 4 A/D変換部、 5 演算部、 10 CPU、 11 フォーカスレンズ群、 12 合焦制御部、 13 測光部、 14 閃光発光装置(ストロボ装置)、 15 ストロボ制御部、 16 投光レンズ、 17 赤外発光ダイオード(IRED)、 18 ドライバ、 19 定常光除去回路、 20 レリーズスイッチ。 1a, 1b light receiving lens, 2 subjects, 3a, 3b sensor array, 4 A / D converter, 5 arithmetic unit, 10 CPU, 11 focus lens group, 12 focusing control unit, 13 photometry unit, 14 flash light emitting device (strobe Device), 15 strobe control unit, 16 light emitting lens, 17 infrared light emitting diode (IRED), 18 driver, 19 steady light removal circuit, 20 release switch.

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 2H011 AA01 2H051 AA01 BB07 BB09 BB20 CB20 CC12 CE06 CE18 CE20 CE28 DA02 DA03 DA22 DA32 DB03 ──────────────────────────────────────────────────続 き Continued on the front page F term (reference) 2H011 AA01 2H051 AA01 BB07 BB09 BB20 CB20 CC12 CE06 CE18 CE20 CE28 DA02 DA03 DA22 DA32 DB03

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 距離検出のために、視差を有して被写体
の2つの像を受像する一対のセンサアレイと、 上記一対のセンサアレイ間の出力の差と、所定の値を比
較して、上記2つの像による距離検出の信頼性の高低を
判定する判定手段と、 上記被写体像の明るさを検出する明るさ検出手段と、 上記明るさ検出手段の出力に従って上記所定の値を変更
する変更手段と、 を具備することを特徴とするカメラの測距装置。
1. A pair of sensor arrays for receiving two images of a subject with parallax for distance detection, and comparing a difference between an output between the pair of sensor arrays and a predetermined value, Determining means for determining the level of reliability of distance detection based on the two images; brightness detecting means for detecting brightness of the subject image; and changing the predetermined value in accordance with an output of the brightness detecting means. A distance measuring device for a camera, comprising:
【請求項2】 上記変更手段は、上記明るさが所定値以
上の場合に、上記所定値を上記信頼性判定が低いと判定
されにくい方向に変更することを特徴とする請求項1に
記載のカメラの測距装置。
2. The method according to claim 1, wherein the changing unit changes the predetermined value to a direction in which the reliability determination is not easily determined to be low when the brightness is equal to or more than a predetermined value. Camera ranging device.
【請求項3】 被写体に対しパルス状の測距用光を繰り
返し投射する投光手段と、 上記センサアレイの出力を、上記繰り返し投光に同期し
て積分する積分手段と、 上記積分手段による積分レベルを所定レベルと比較する
比較手段と、 上記信頼性判定が低いとされ、且つ、上記明るさ検出手
段の出力が所定値以上の場合に、上記積分の回数と上記
比較手段の出力に応じて、上記被写体の距離を決定する
決定手段と、 を更に具備することを特徴とする請求項1に記載のカメ
ラの測距装置。
3. A light projecting means for repeatedly projecting pulsed distance measuring light onto a subject, an integrating means for integrating an output of the sensor array in synchronization with the repeated light projection, and an integration by the integrating means. Comparing means for comparing the level with a predetermined level; and when the reliability determination is determined to be low and the output of the brightness detecting means is equal to or more than a predetermined value, the number of the integration and the output of the comparing means 2. The camera distance measuring apparatus according to claim 1, further comprising: a determination unit that determines a distance to the subject.
【請求項4】 距離検出のために、視差を有して被写体
の2つの像を受像する一対のセンサアレイと、 上記一対のセンサアレイの少なくとも一方のセンサアレ
イの特定の領域のセンサ出力差と所定の値とを比較し
て、上記2つの像による距離検出の信頼性の高低を判定
する判定手段と、 上記被写体像の明るさを検出する明るさ検出手段と、 上記明るさ検出手段の出力に従って上記所定の値を変更
する変更手段と、 を具備することを特徴とするカメラの測距装置。
4. A pair of sensor arrays for receiving two images of a subject with parallax for distance detection, and a sensor output difference in a specific area of at least one of the pair of sensor arrays. Determining means for comparing a predetermined value to determine the level of reliability of distance detection based on the two images; brightness detecting means for detecting the brightness of the subject image; and output of the brightness detecting means Changing means for changing the predetermined value according to the following.
JP2001014605A 2001-01-23 2001-01-23 Range-finding device for camera Withdrawn JP2002214521A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001014605A JP2002214521A (en) 2001-01-23 2001-01-23 Range-finding device for camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001014605A JP2002214521A (en) 2001-01-23 2001-01-23 Range-finding device for camera

Publications (1)

Publication Number Publication Date
JP2002214521A true JP2002214521A (en) 2002-07-31

Family

ID=18881276

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001014605A Withdrawn JP2002214521A (en) 2001-01-23 2001-01-23 Range-finding device for camera

Country Status (1)

Country Link
JP (1) JP2002214521A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005338633A (en) * 2004-05-28 2005-12-08 Olympus Corp Focus detector
JP2006215391A (en) * 2005-02-04 2006-08-17 Fujinon Corp Autofocus system

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005338633A (en) * 2004-05-28 2005-12-08 Olympus Corp Focus detector
JP4532169B2 (en) * 2004-05-28 2010-08-25 オリンパス株式会社 Focus detection device
JP2006215391A (en) * 2005-02-04 2006-08-17 Fujinon Corp Autofocus system
JP4573032B2 (en) * 2005-02-04 2010-11-04 富士フイルム株式会社 Auto focus system

Similar Documents

Publication Publication Date Title
US7936986B2 (en) Image pickup apparatus control method thereof and image pickup system
JP2001091819A (en) Range-finding device for camera
JP2000180709A (en) Range-finding device
JP2000028902A (en) Camera with range-finding device
JP2000347095A (en) Range-finding device
US6826362B2 (en) Camera having distance measuring apparatus
JPH10311721A (en) Range-finding device
JP2002214521A (en) Range-finding device for camera
JP4847352B2 (en) Imaging apparatus and control method thereof
JPH11118477A (en) Distance measuring device
JPH07318791A (en) Range-finding device for camera
JP4512173B2 (en) Ranging device
JP2002072065A (en) Range finder
JP3955201B2 (en) Auto focus camera
JP2000047093A (en) Camera
JP2005121834A (en) Imaging method, imaging apparatus, program, and storage medium
JP2000047092A (en) Camera
JP2004069953A (en) Camera
JP2002228914A (en) Range finder
JP2003215441A (en) Camera
JP2002228915A (en) Range finder
JP2002214516A (en) Autofocusing camera
JP2003262903A (en) Camera
KR100704764B1 (en) Passive auto focusing apparatus and method thereof, and camera system comprising the same apparatus
JPH1172818A (en) Multi-point range finder

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20080401