JP2003215434A - Range-finding device - Google Patents

Range-finding device

Info

Publication number
JP2003215434A
JP2003215434A JP2002010498A JP2002010498A JP2003215434A JP 2003215434 A JP2003215434 A JP 2003215434A JP 2002010498 A JP2002010498 A JP 2002010498A JP 2002010498 A JP2002010498 A JP 2002010498A JP 2003215434 A JP2003215434 A JP 2003215434A
Authority
JP
Japan
Prior art keywords
subject
image data
subject image
pair
frequency component
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002010498A
Other languages
Japanese (ja)
Inventor
Koichi Nakada
康一 中田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optical Co Ltd filed Critical Olympus Optical Co Ltd
Priority to JP2002010498A priority Critical patent/JP2003215434A/en
Publication of JP2003215434A publication Critical patent/JP2003215434A/en
Pending legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To provide a range-finding device capable of performing accurate range-finding at high speed by performing spatial frequency component extracting processing for detecting a phase difference only when the specified spatial frequency component must be extracted according to a subject condition. <P>SOLUTION: When a subject is the low-contrast one, filtering processing to extract the spatial frequency component being low frequency from subject image data is performed, and when the subject is the one in a counter light state, filtering processing to extract the spatial frequency component being high frequency from the subject image data is performed, whereby data in accordance with a subject distance is arithmetically operated. <P>COPYRIGHT: (C)2003,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、測距装置に係わ
り、特に被写体像データから所定の周波数成分を抽出
し、抽出した周波数成分のデータに基づいて測距演算を
行うカメラ等に用いられる測距装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a distance measuring device, and more particularly, to a distance measuring device used in a camera or the like for extracting a predetermined frequency component from subject image data and performing a distance measuring operation based on the extracted frequency component data. A distance device.

【0002】[0002]

【従来の技術】従来、一対のセンサから出力される被写
体像の位相差に基づいて測距演算を行うパッシブ方式の
測距装置において、被写体像データに含まれる有害な周
波数成分の除去し、測距精度を向上させる為に、特開平
2−15223号公報に開示されているような、被写体
像データから二つの異なる空間周波数成分を抽出し、そ
れぞれの周波数成分のデータを用いて二つの位相差を検
出して、いずれか一方の位相差を選択して測距を行う方
法が知られている。
2. Description of the Related Art Conventionally, in a passive range finder which performs a range finding calculation based on a phase difference between object images output from a pair of sensors, harmful frequency components included in object image data are removed and measured. In order to improve the distance accuracy, two different spatial frequency components are extracted from subject image data as disclosed in Japanese Patent Laid-Open No. 15223/1990, and two phase differences are obtained using the respective frequency component data. There is known a method in which the distance is detected, and one of the phase differences is selected to measure the distance.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、特開平
2−15223号公報に開示されているような方法の場
合、常に二つの空間周波数成分を抽出し、それぞれの周
波数成分について位相差検出を行うので、測距時間の増
大を招くという問題があった。
However, in the case of the method disclosed in Japanese Patent Application Laid-Open No. 2-15223, two spatial frequency components are always extracted, and the phase difference is detected for each frequency component. However, there is a problem in that the distance measurement time is increased.

【0004】本発明の目的は、被写体条件により、所定
の空間周波数成分の抽出が必要な場合のみ、位相差検出
を行う為の周波数成分の抽出処理を行うようにして、高
速で高精度な測距を行うことのできる測距装置を提供す
ることである。
An object of the present invention is to perform a high-speed and high-accuracy measurement by performing a frequency component extraction process for detecting a phase difference only when a predetermined spatial frequency component needs to be extracted depending on the subject condition. An object of the present invention is to provide a distance measuring device capable of performing distance.

【0005】[0005]

【課題を解決するための手段】本発明による測距装置
は、一対の被写体像を一対のセンサ上に結像させる受光
レンズと、前記受光レンズにより結像させられた前記一
対の被写体像を光強度に応じて電気信号に変換する一対
のセンサと、前記一対のセンサの積分動作制御を行う積
分制御手段と、前記一対のセンサから出力される前記被
写体像データを読み出す読み出し手段と、前記読み出し
手段により読み出された被写体像データに基づいて、被
写体距離に応じたデータを演算する演算手段と、前記被
写体像データから所定の周波数成分を抽出するフィルタ
処理を行うフィルタ手段とから成る測距装置において、
被写体条件により、フィルタ処理を行うかどうかを判定
し、フィルタ処理を行う場合は抽出する周波数成分を切
り換えることを特徴とする。
SUMMARY OF THE INVENTION A distance measuring device according to the present invention comprises a light receiving lens for forming a pair of object images on a pair of sensors, and an optical image of the pair of object images formed by the light receiving lens. A pair of sensors that convert into an electric signal according to the intensity, an integral control unit that controls the integral operation of the pair of sensors, a reading unit that reads the subject image data output from the pair of sensors, and the reading unit. In a distance measuring device comprising a calculation means for calculating data according to a subject distance based on the subject image data read by and a filter means for performing a filtering process for extracting a predetermined frequency component from the subject image data. ,
It is characterized in that whether or not to perform the filter processing is determined according to the subject condition, and when performing the filter processing, the frequency components to be extracted are switched.

【0006】また、前記被写体条件が低コントラスト、
または、逆光である場合にフィルタ処理を行い、低コン
トラスト時は低周波数成分を抽出し、逆光時は高周波数
成分を抽出して、被写体像データから抽出された周波数
成分に基づいて、被写体距離に応じたデータを演算する
ことを特徴とする。
Further, the subject condition is low contrast,
Alternatively, if the subject is backlit, filter processing is performed, low frequency components are extracted during low contrast, high frequency components are extracted during backlit, and the subject distance is determined based on the frequency components extracted from the subject image data. It is characterized in that the corresponding data is calculated.

【0007】また、前記被写体像データの最大値と最小
値の差が所定値よりも小さい場合に低コントラストであ
ると判定し、前記被写体像データを複数のエリアに分割
してエリア毎の平均輝度の差が所定値よりも大きい場合
に逆光と判定することを特徴とする測距装置を用いる。
When the difference between the maximum value and the minimum value of the subject image data is smaller than a predetermined value, it is determined that the contrast is low, the subject image data is divided into a plurality of areas, and the average brightness of each area is determined. A distance measuring device is used, which is characterized in that it is determined to be backlit when the difference between is larger than a predetermined value.

【0008】[0008]

【発明の実施の形態】本発明の実施形態を以下に図面を
用いて説明する。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described below with reference to the drawings.

【0009】図1は本発明の第1の実施形態の概要を説
明したブロック図である。図1に示すように、101
a、101bは、被写体像をラインセンサ102a、1
02b上に結像させる為の受光レンズである。また、1
02a、102bは、受光レンズ101a、101bに
より結像された被写体像をその光強度に応じて光電変換
し、電気信号に変換するラインセンサである。そして、
103は、ラインセンサ102a、102bの積分動作
の制御を行う積分制御回路である。また、104は、前
記ラインセンサ102a、102bより出力される、被
写体像を光電変換したアナログ電気信号をA/D変換す
る読み出し手段である。そして、105は、各種制御信
号の出力、被写体距離演算等の各種演算を行うCPUで
ある。また、106は、読み出し手段104により読み
出された被写体像データから、所定の空間周波数成分を
抽出するフィルタ手段である。
FIG. 1 is a block diagram for explaining the outline of the first embodiment of the present invention. As shown in FIG.
a and 101b are line sensors 102a and 1b for the subject images.
It is a light receiving lens for forming an image on 02b. Also, 1
Reference numerals 02a and 102b denote line sensors that photoelectrically convert the subject image formed by the light receiving lenses 101a and 101b according to the light intensity of the subject image and convert it into an electric signal. And
An integration control circuit 103 controls the integration operation of the line sensors 102a and 102b. Further, 104 is a reading means for A / D converting an analog electric signal photoelectrically converted from the subject image, which is output from the line sensors 102a and 102b. A CPU 105 outputs various control signals and performs various calculations such as subject distance calculation. Further, 106 is a filter means for extracting a predetermined spatial frequency component from the subject image data read by the reading means 104.

【0010】図1に示すような構成の測距装置におい
て、積分制御手段103により積分制御を行い取得した
被写体の輝度分布を、読み出し手段104でA/D変換
して読み出した被写体像データに基づいて、像データを
取得した被写体が、図2に示すような通常被写体、図4
に示すような逆光被写体、図7に示すような低コントラ
スト被写体のいずれであるかを判定する。
In the distance measuring device having the structure as shown in FIG. 1, the brightness distribution of the object obtained by performing the integration control by the integration control means 103 is A / D converted by the reading means 104 and based on the object image data read out. Then, the subject for which the image data is acquired is a normal subject as shown in FIG.
It is determined whether the subject is a backlight subject as shown in FIG. 3 or a low contrast subject as shown in FIG.

【0011】被写体が低コントラスト被写体であるかど
うかの判定は、例えば、図8に示すような、ラインセン
サ102a、102bから出力される被写体像データの
内の一方のデータ114aの最大値MAX、及び最小値
MINを検出し、その差(MAX−MIN)と所定の判
定値を比較することにより行い、判定値よりもその差が
小さい場合は、低コントラスト被写体であると判定す
る。なお、低コントラスト判定は上記の方法に限るもの
ではなく、所定間隔でのデータの変化量の和を判定に用
いる等の方法でもよい。なお、図7中の低コントラスト
被写体の撮影シーンの主要被写体113の被写体像デー
タ114aは、ラインセンサ102aから出力される被
写体像データであり、114bは、ラインセンサ102
bから出力される被写体像データである。また、MAX
は、被写体像データ114aの最大値、MINは、被写
体像データ114aの最小値である。
Whether or not the subject is a low contrast subject is determined by, for example, the maximum value MAX of one of the data 114a of the subject image data output from the line sensors 102a and 102b as shown in FIG. It is performed by detecting the minimum value MIN and comparing the difference (MAX-MIN) with a predetermined determination value. If the difference is smaller than the determination value, it is determined to be a low contrast subject. The low-contrast determination is not limited to the above method, and may be a method such as using the sum of data change amounts at predetermined intervals for the determination. Note that the subject image data 114a of the main subject 113 in the shooting scene of the low-contrast subject in FIG. 7 is subject image data output from the line sensor 102a, and 114b is the line sensor 102.
This is the subject image data output from b. Also, MAX
Is the maximum value of the subject image data 114a, and MIN is the minimum value of the subject image data 114a.

【0012】被写体が逆光被写体であるかどうかの判定
は、例えば、図4に示すような撮影シーンにおいて、ラ
インセンサ102a、102bから出力される被写体像
データの内の一方のデータ114aを図5に示すように
複数のエリアA、B、Cに分割し、各エリア毎のデータ
の平均値を求めて、平均値の差と所定の判定値を比較す
ることにより行い、判定値よりも平均値の差が大きい場
合は、逆光被写体であると判定する。図5に示す被写体
像データ114aの場合は、エリアAとエリアBとの平
均値の差が大きいので、逆光被写体であると判定され
る。なお、逆光判定は上記の方法に限るものではなく、
多分割測光センサの測光データにより判定を行う等の方
法でもよい。
Whether or not the subject is a backlit subject is determined, for example, in one of the subject image data output from the line sensors 102a and 102b in FIG. As shown in the figure, it is divided into a plurality of areas A, B, and C, the average value of the data in each area is calculated, and the difference between the average values is compared with a predetermined judgment value. If the difference is large, it is determined that the subject is a backlight subject. In the case of the subject image data 114a shown in FIG. 5, the difference between the average values of the area A and the area B is large, so it is determined that the subject is a backlight subject. The backlight judgment is not limited to the above method,
A method of making a determination based on the photometric data of the multi-division photometric sensor may be used.

【0013】被写体が図2に示す主要被写体のような通
常被写体である場合は、図3に示すように、ラインセン
サ102a、102bから出力される被写体像データ1
14a、114bは、十分なコントラストがあり、ま
た、二つの被写体像の形状も揃っているので、この像デ
ータ114a、114bをそのまま用いて、相関演算、
補間演算により二つの被写体像の位相差(像ずれ量)を
求め、この位相差から被写体距離を算出する。
When the subject is a normal subject such as the main subject shown in FIG. 2, as shown in FIG. 3, subject image data 1 output from the line sensors 102a and 102b.
Since 14a and 114b have sufficient contrast and the shapes of the two subject images are the same, the image data 114a and 114b are used as they are for the correlation calculation,
The phase difference (image shift amount) between the two subject images is obtained by interpolation calculation, and the subject distance is calculated from this phase difference.

【0014】被写体が低コントラスト被写体である場合
は、図8に示すように、ラインセンサ102a、102
bから出力される被写体像データ114a、114b
は、十分なコントラストがないので、この像データ11
4a、114bをそのまま用いたのでは、正しい被写体
距離を求めるのは非常に困難である。そこで、(1)式
においてa=5程度に設定し、低周波の空間周波数成分
を抽出するフィルタ処理を行い、図9に示すように、抽
出データ115a、115bを求め、このデータ115
a、115bを用いて、相関演算、補間演算により二つ
の被写体像の位相差(像ずれ量)を求め、この位相差か
ら被写体距離を算出する。
If the subject is a low contrast subject, as shown in FIG. 8, the line sensors 102a and 102 are used.
subject image data 114a, 114b output from
Does not have sufficient contrast, so this image data 11
If 4a and 114b are used as they are, it is very difficult to obtain the correct subject distance. Therefore, in the equation (1), a = 5 is set, filter processing is performed to extract low-frequency spatial frequency components, and extracted data 115a and 115b are obtained as shown in FIG.
Using a and 115b, the phase difference (image shift amount) between the two subject images is obtained by correlation calculation and interpolation calculation, and the subject distance is calculated from this phase difference.

【0015】 F(n)=S(n)−S(n+a)・・・(1) (S(n)は、被写体像データのn番目のデータ) さらに、115bは、被写体像データ114aの中央部
のBエリアに対応する、被写体像データ114bの領域
のデータの低周波の空間周波数成分抽出後の被写体像デ
ータである。
F (n) = S (n) −S (n + a) (1) (S (n) is the nth data of the subject image data) Further, 115b is the center of the subject image data 114a. It is the subject image data after extracting the low frequency spatial frequency component of the data of the region of the subject image data 114b corresponding to the B area of the part.

【0016】被写体が逆光被写体である場合は、例え
ば、測距光学系で発生するゴーストやフレア等の影響
で、図5に示すように、ラインセンサ102a、102
bから出力される被写体像データ114a、114bの
形状は不揃いになり、この像データ114a、114b
をそのまま用いたのでは、正しい被写体距離を求めるの
は非常に困難となる。そこで、(1)式においてa=2
程度に設定し、高周波の空間周波数成分を抽出するフィ
ルタ処理を行い、図6に示すような抽出データ115
a、115bを求め、このデータ115a、115bを
用いて、相関演算、補間演算により二つの被写体像の位
相差(像ずれ量)を求め、この位相差から被写体距離を
算出する。
When the subject is a backlit subject, the line sensors 102a and 102a as shown in FIG. 5 are affected by, for example, ghosts and flares generated in the distance measuring optical system.
The shapes of the subject image data 114a and 114b output from the image b are not uniform, and the image data 114a and 114b are not uniform.
If is used as it is, it is very difficult to obtain the correct subject distance. Therefore, in the formula (1), a = 2
The extracted data 115 as shown in FIG. 6 is set by performing a filtering process for extracting high frequency spatial frequency components.
a, 115b are obtained, the phase difference (image shift amount) between the two subject images is obtained by correlation calculation and interpolation calculation using the data 115a, 115b, and the subject distance is calculated from this phase difference.

【0017】また、所定の空間周波数成分を抽出する為
のフィルタ処理は(1)式に限るものではなく、加重平
均演算等により行ってもよい。そして、(1)式ではF
(n)が負の値となることがあり、CPU105の能力
にもよるが、演算処理が面倒になる場合があるので、こ
れを防ぐ為に、(2)、(3)式のようにF(n)が負
の値にならない処理を用いてもよい。
Further, the filter processing for extracting the predetermined spatial frequency component is not limited to the equation (1), but may be performed by a weighted average calculation or the like. Then, in the formula (1), F
(N) may have a negative value, and depending on the capability of the CPU 105, the calculation process may be troublesome. Therefore, in order to prevent this, as in equations (2) and (3), F A process in which (n) does not have a negative value may be used.

【0018】 F(n)=|S(n)−S(n+a)|・・・(2) F(n)=S(n)−S(n+a)+b・・・(3) (bは、オフセット(正の値)) 以上、第1の実施形態によれば、被写体条件により、所
定の空間周波数成分の抽出が必要な場合のみ、位相差検
出を行う為の周波数成分の抽出処理を行うので、通常の
被写体の測距時に測距時間の増大を招くことがなく、低
コントラストや逆光等の苦手被写体の測距精度を向上さ
せることができる。
F (n) = | S (n) -S (n + a) | ... (2) F (n) = S (n) -S (n + a) + b ... (3) (b is Offset (Positive Value) As described above, according to the first embodiment, the frequency component extraction process for detecting the phase difference is performed only when the predetermined spatial frequency component needs to be extracted depending on the subject condition. In addition, it is possible to improve the distance measurement accuracy of a subject which is poor in low contrast, backlight, etc. without increasing the distance measurement time during the distance measurement of a normal subject.

【0019】次に、相関演算について説明する。Next, the correlation calculation will be described.

【0020】図16(a)、(b)に示すように、ライ
ンセンサ5a、5bは複数の光電変換素子により構成さ
れ、それぞれセンサデータa1,a2,…aN、b1,b
2,…bNを出力する。このセンサデータより所定範囲
(以下ウインド)6a、6bのデータを抽出する。抽出
の方法としては、ウインド6aは固定し、ウインド6b
を1センサ分ずつシフトさせていくのがもっとも単純な
方法である。固定側とシフト側は逆でもよい。抽出され
る一対のウインドのデータを用いて(4)式により相関
量F(n)を求める。
As shown in FIGS. 16 (a) and 16 (b), the line sensors 5a and 5b are composed of a plurality of photoelectric conversion elements, and sensor data a1, a2, ... AN, b1, b respectively.
2, ... bN is output. Data of a predetermined range (hereinafter, windows) 6a and 6b are extracted from this sensor data. As a method of extraction, the window 6a is fixed and the window 6b is
The simplest method is to shift each sensor by one sensor. The fixed side and the shift side may be reversed. The correlation amount F (n) is obtained by the equation (4) using the pair of extracted window data.

【0021】なお、図16中の5aは、受光レンズによ
り結像された被写体像をその光強度に応じて光電変換
し、電気信号に変換するライン5bセンサであり、6a
は、相関量の演算に用いるセンサデータの抽出範囲(ウ
インド)である。
Reference numeral 5a in FIG. 16 is a line 5b sensor for photoelectrically converting the subject image formed by the light receiving lens according to its light intensity and converting it into an electric signal.
Is an extraction range (window) of the sensor data used for calculating the correlation amount.

【0022】[0022]

【数1】 [Equation 1]

【0023】nは、シフト量、wは、ウインド内データ
数、iは、ウインド内データN0.、kは、演算エリア先
頭センサデータN0.そして、一対のウインド6a、6b
のデータの一致度が最も高くなるのは、図18に示すよ
うに、ウインド6bを1センサ分ずつシフトさせて求め
たF(n)が極小値(F(n)=FMIN)となる場合
で、シフト量n=nFMINが被写体像の相対的な位置
ずれ量となる。ウインドの抽出の方法としては、図17
(a)、(b)に示すように、ウインド6a、6bを交
互にシフトさせていくような方法を用いてもよい。この
場合の相関量F(na,nb)を求める式は(5)式のよ
うになる。
N is the shift amount, w is the number of data in the window, i is the data in window N0., K is the calculation area head sensor data N0, and the pair of windows 6a and 6b.
18 shows the highest degree of coincidence of data when F (n) obtained by shifting the window 6b by one sensor unit is a minimum value (F (n) = F MIN ), as shown in FIG. Thus, the shift amount n = nF MIN is the relative positional shift amount of the subject image. As a method of extracting a window, FIG.
As shown in (a) and (b), a method of alternately shifting the windows 6a and 6b may be used. In this case, the equation for obtaining the correlation amount F (na, nb) is as shown in equation (5).

【0024】なお、図17中の5aは、受光レンズによ
り結像された被写体像をその光強度に応じて光電変換
し、電気信号に変換するライン5bセンサであり、6a
は、相関量の演算に用いるセンサデータの抽出範囲(ウ
インド)である。
Reference numeral 5a in FIG. 17 denotes a line 5b sensor for photoelectrically converting the subject image formed by the light receiving lens according to its light intensity and converting it into an electric signal.
Is an extraction range (window) of the sensor data used for calculating the correlation amount.

【0025】[0025]

【数2】 (naは、ウインド6aのシフト量、nbは、ウインド
6bのシフト量)
[Equation 2] (Na is the shift amount of the window 6a, nb is the shift amount of the window 6b)

【0026】相対的な位置ずれ量nFMINは、F(n
a、nb)が最小となる時のna、nbの和(na+n
b)となる。
The relative positional deviation amount nF MIN is F (n
sum of na and nb when (a, nb) is the minimum (na + n)
b).

【0027】次に、補間演算について説明する。Next, the interpolation calculation will be described.

【0028】相関演算で求まるラインセンサ5a、5b
上に結像された被写体像の相対的な位置ずれ量は、図1
8に示すように、ラインセンサのセンサピッチに応じた
離散的な値であり、このピッチ幅が測距の最小分解能と
なる。よって、相関演算で求まる像ずれ量のみで測距を
行うと、その測距精度は粗いものになってしまう。そこ
で、測距精度を高める為に、離散的な相関量F(n)を
用いて以下のような補間演算を行う。一般的に補間演算
は、図19(a)、(b)に示すように、相関量F
(n)の極小値であるFMINとその前後のシフト量n
MIN−1、nF MIN+1における相関量
mnS、FplSを用いて、FMINを与えるシフト
量nFMINと真の極小値FMINRを与えるシフト量
nFMINRとのずれ量Δnを、FmnS、FplS
大小関係に応じて(6)式または(7)式により求める
ものである。
Line sensors 5a, 5b obtained by correlation calculation
The relative positional deviation amount of the subject image formed on the upper side is shown in FIG.
According to the sensor pitch of the line sensor, as shown in FIG.
This is a discrete value, and this pitch width is the minimum resolution for ranging.
Become. Therefore, the distance can be measured only by the image shift amount obtained by the correlation calculation.
If this is done, the distance measurement accuracy will be coarse. There
Then, in order to improve the ranging accuracy, the discrete correlation amount F (n)
The following interpolation calculation is performed by using the above. Interpolation operation in general
Is a correlation amount F as shown in FIGS.
F which is the minimum value of (n)MINAnd shift amount n before and after that
FMIN-1, nF MINCorrelation amount at +1
FmnS, FplSUsingMINShift giving
Amount nFMINAnd the true minimum FMINRShift amount to give
nFMINRThe deviation amount Δn frommnS, FplSof
Calculate according to equation (6) or equation (7) according to the size relationship
It is a thing.

【0029】 FmnS>FplSの時(図19(a))When F mnS > F plS (FIG. 19A )

【数3】 mnS≦FplSの時(図19(b))[Equation 3] When F mnS ≤ F plS (Fig. 19 (b))

【0030】[0030]

【数4】 [Equation 4]

【0031】以上で求めた補間量△nにより、真の像ず
れ量nFMINRは、 FmnS>FplSの時(図19(a)) nFMINR=nFMIN+Δn・・・(8) FmnS≦FplSの時(図19(b)) nFMINR=nFMIN−Δn・・・(9) となる。
From the interpolation amount Δn obtained above, the true image shift amount nF MINR is as follows when F mnS > F plS (FIG. 19 (a)) n FMINR = n FMIN + Δn (8) F mnS When ≦ F plS (FIG. 19B), n FMINR = n FMIN −Δn (9).

【0032】次に、図10を用いて、第1の実施形態の
測距シーケンスの手順を説明する。
Next, the procedure of the distance measuring sequence of the first embodiment will be described with reference to FIG.

【0033】図10に示すように、S101では、プリ
積分等により得られる被写体輝度に応じて、一対のライ
ンセンサ102a、102bの感度を設定する。S10
2では、S101で設定されたセンサ感度で積分を行
う。S103では、一対のラインセンサ102a、10
2bから出力される被写体像データをA/D変換してC
PU105内のメモリ領域に格納する。S104では、
S103で読み出した被写体像データの最大値MAXと
最小値MINを検出する。S105では、S104で検
出した最大値MAXと最小値MINとの差と、所定の低
コントラスト判定値を比較し、低コントラスト判定を行
う。MAX−MINが判定値よりも大きければS106
に進み、小さければS110に進む。S106では、図
5に示す逆光判定エリアA、B、C間の被写体像データ
の平均値をそれぞれ比較し、平均値の差の最大値と所定
の逆光判定値により逆光判定を行う。そして、S107
では、S106で求めた平均値の差の最大値が判定値よ
りも大きければ、S108に進み、小さければS109
に進む。S108では、フィルタ手段106により、
(1)式を用いて、図5に示す被写体像データ114
a、114bから高周波の空間周波数成分を抽出するフ
ィルタ処理を行う。また、S109では、被写体像デー
タ114a、114b、または、フィルタ処理後の被写
体像データを用いて、相関演算、補間演算により二つの
被写体像の位相差(像ずれ量)を求め、この位相差から
被写体距離を算出する。そして、S110では、フィル
タ手段106により、(1)式を用いて、図5に示す被
写体像データ114a、114bから低周波の空間周波
数成分を抽出するフィルタ処理を行う。
As shown in FIG. 10, in S101, the sensitivities of the pair of line sensors 102a and 102b are set according to the subject brightness obtained by pre-integration or the like. S10
In 2, integration is performed with the sensor sensitivity set in S101. In S103, the pair of line sensors 102a, 10a
The subject image data output from 2b is A / D converted to C
It is stored in the memory area in the PU 105. In S104,
The maximum value MAX and the minimum value MIN of the subject image data read out in S103 are detected. In S105, the difference between the maximum value MAX and the minimum value MIN detected in S104 is compared with a predetermined low contrast determination value, and low contrast determination is performed. If MAX-MIN is larger than the judgment value, S106.
If it is smaller, proceed to S110. In S106, the average values of the subject image data between the backlight determination areas A, B, and C shown in FIG. 5 are compared, and the backlight determination is performed based on the maximum difference between the average values and a predetermined backlight determination value. Then, S107
Then, if the maximum value of the difference between the average values obtained in S106 is larger than the determination value, the process proceeds to S108, and if it is smaller, S109.
Proceed to. In S108, by the filter means 106,
Using the equation (1), the subject image data 114 shown in FIG.
Filter processing for extracting high-frequency spatial frequency components from a and 114b is performed. In step S109, the subject image data 114a, 114b or the subject image data after the filtering process is used to obtain the phase difference (image shift amount) between the two subject images by the correlation calculation and the interpolation calculation. Calculate the subject distance. Then, in S110, the filter means 106 performs a filtering process for extracting low frequency spatial frequency components from the subject image data 114a and 114b shown in FIG. 5 by using the expression (1).

【0034】次に、本発明の第2の実施形態について説
明する。
Next, a second embodiment of the present invention will be described.

【0035】第1の実施形態では、被写体が逆光被写体
であると判定された場合に、逆光判定に用いた被写体像
データに対して高周波の空間周波数成分を抽出して測距
演算を行うようにしていたのに対して、第2の実施形態
は、逆光の場合には、逆光判定において他のエリアと較
べて低輝度であったエリア、図4でいえばエリアBの被
写体像データを基準にして再積分を行い、図14に示す
ような、図4よりも主要被写体のコントラストが強調さ
れた被写体像データ114a、114bを取得し、この
データに高周波の空間周波数成分を抽出するフィルタ処
理を施して求めた図15に示すような抽出データ115
a、115bを用いて、相関演算、補間演算により二つ
の被写体像の位相差(像ずれ量)を求め、この位相差か
ら被写体距離を算出するようにしたものである。
In the first embodiment, when it is determined that the subject is a backlight subject, a high-frequency spatial frequency component is extracted from the subject image data used for the backlight determination, and distance measurement is performed. On the other hand, in the second embodiment, in the case of backlighting, the object image data of the area that has lower luminance than the other areas in backlight determination, that is, area B in FIG. 4 is used as a reference. 14 and re-integrate to obtain subject image data 114a and 114b in which the contrast of the main subject is emphasized more than in FIG. 4 as shown in FIG. 14, and the data is subjected to a filtering process for extracting a high spatial frequency component. Extracted data 115 as shown in FIG.
By using a and 115b, the phase difference (image shift amount) between the two subject images is obtained by correlation calculation and interpolation calculation, and the subject distance is calculated from this phase difference.

【0036】以上、本発明の第2の実施形態によれば、
主要被写体の被写体像データのコントラストが高くなる
ので、逆光時の測距精度がさらに高精度になる。
As described above, according to the second embodiment of the present invention,
Since the contrast of the subject image data of the main subject becomes high, the distance measurement accuracy at the time of backlighting becomes even higher.

【0037】次に、図11を用いて第2の実施形態の測
距シーケンスの手順を説明する。
Next, the procedure of the distance measuring sequence of the second embodiment will be described with reference to FIG.

【0038】S201では、プリ積分等により得られる
被写体輝度に応じて、一対のラインセンサ102a、1
02bの感度を設定する。S202では、S201で設
定されたセンサ感度で積分を行う。S203では、一対
のラインセンサ102a、102bから出力される被写
体像データをA/D変換してCPU105内のメモリ領
域に格納する。S204では、S203で読み出した被
写体像データの最大値MAXと最小値MINを検出す
る。S205では、S204で検出した最大値MAXと
最小値MINとの差と、所定の低コントラスト判定値を
比較し、低コントラスト判定を行う。MAX−MINが
判定値よりも大きければS206に進み、小さければS
212に進む。
In S201, the pair of line sensors 102a, 1a, 1a, 1b, 1c, 1c, 1c, 1c, 1d, 1c, 1d, 1d, 1e, 1e, 1e, 2b, 2b, 2d, 1e, 2b, 2b, or 2d, depending on the subject brightness obtained by pre-integration or the like.
Set the sensitivity of 02b. In S202, integration is performed with the sensor sensitivity set in S201. In S203, the subject image data output from the pair of line sensors 102a and 102b is A / D converted and stored in the memory area in the CPU 105. In S204, the maximum value MAX and the minimum value MIN of the subject image data read in S203 are detected. In S205, the difference between the maximum value MAX and the minimum value MIN detected in S204 is compared with a predetermined low contrast determination value, and low contrast determination is performed. If MAX-MIN is larger than the determination value, the process proceeds to S206, and if it is smaller, S-MIN.
Proceed to 212.

【0039】そして、S206では、図4に示す逆光判
定エリアA、B、C間の被写体像データの平均値をそれ
ぞれ比較し、平均値の差の最大値と所定の逆光判定値に
より逆光判定を行う。S207では、S206で求めた
平均値の差の最大値が判定値よりも大きければ、S20
8に進み、小さければS211に進む。S208では、
S206の逆光判定において他のエリアと較べて低輝度
であったエリアの被写体像データを基準にして再積分を
行う。S209では、一対のラインセンサ102a、1
02bから出力される被写体像データをA/D変換して
CPU105内のメモリ領域に格納する。S210で
は、フィルタ手段106により、(1)式を用いて、図
4に示す被写体像データ114a、114bから高周波
の空間周波数成分を抽出するフィルタ処理を行う。S2
11では、被写体像データ114a、114b、また
は、フィルタ処理後の被写体像データを用いて、相関演
算、補間演算により二つの被写体像の位相差(像ずれ
量)を求め、この位相差から被写体距離を算出する。S
212では、フィルタ手段106により、(1)式を用
いて、図4(b)に示す被写体像データ114a、11
4bから低周波の空間周波数成分を抽出するフィルタ処
理を行う。
Then, in S206, the average values of the object image data between the backlight determination areas A, B, and C shown in FIG. 4 are compared, and the backlight determination is performed based on the maximum difference between the average values and a predetermined backlight determination value. To do. In S207, if the maximum value of the difference between the average values obtained in S206 is larger than the determination value, S20
8. If it is smaller, proceed to S211. In S208,
In the backlight determination of S206, the re-integration is performed with reference to the subject image data of the area having the lower brightness than the other areas. In S209, the pair of line sensors 102a, 1a
The subject image data output from 02b is A / D converted and stored in the memory area in the CPU 105. In S210, the filter means 106 performs the filtering process for extracting the high-frequency spatial frequency component from the subject image data 114a and 114b shown in FIG. 4 by using the expression (1). S2
In 11, the subject image data 114a and 114b or the subject image data after the filter processing is used to obtain the phase difference (image shift amount) between the two subject images by correlation calculation and interpolation calculation, and from this phase difference, the subject distance is calculated. To calculate. S
In 212, the filter means 106 uses the formula (1) to calculate the subject image data 114a and 11 shown in FIG.
Filtering is performed to extract low frequency spatial frequency components from 4b.

【0040】以上、本発明の第2の実施形態によれば、
第1の実施形態に対し、より高精度な測距を行うことが
できる。
As described above, according to the second embodiment of the present invention,
Compared with the first embodiment, more accurate distance measurement can be performed.

【0041】次に、本発明の第3の実施形態について説
明する。
Next, a third embodiment of the present invention will be described.

【0042】本実施形態では、被写体が逆光被写体であ
ると判定された場合に、逆光判定に用いた被写体像デー
タをそのまま用いて求めた被写体距離と、逆光判定にお
いて他のエリアと較べて低輝度であったエリア、図4で
いえばエリアBの被写体像データを基準にして再積分を
行い、図14に示すような、図4よりも主要被写体のコ
ントラストが強調された被写体像データ114a、11
4bを取得し、このデータに高周波の空間周波数成分を
抽出するフィルタ処理を施して求めた図15に示すよう
な抽出データ115a、115bを用いて算出した被写
体距離とから、信頼性の高い方の被写体距離を選択する
ようにしたものである。比較する信頼性データSは、補
間演算時に用いるデータFmnS、FplS、Fmin
を利用して(10)式により求め、各被写体距離の演算
時に算出する。この信頼性データSは、値が大きいほど
信頼性が高いことを示す。
In this embodiment, when it is determined that the subject is a backlit subject, the subject distance obtained by using the subject image data used for the backlight determination as it is and the low luminance compared to other areas in the backlight determination. 4, the object image data of area B in FIG. 4 is re-integrated, and as shown in FIG. 14, object image data 114a and 11a in which the contrast of the main object is emphasized more than in FIG.
4b, and subject data calculated using extracted data 115a and 115b as shown in FIG. 15 obtained by performing a filtering process on this data to extract a high-frequency spatial frequency component, whichever is more reliable. The object distance is selected. The reliability data S to be compared are the data F mnS , F plS , and F min used in the interpolation calculation.
Is calculated by using the equation (10), and is calculated when each subject distance is calculated. This reliability data S indicates that the larger the value, the higher the reliability.

【0043】 S=MAX(FmnS、Fpls)−Fmin・・・(10) (MAX(FmnS、Fpls):FmnS、Fpls
の値の大きい方のデータ) 被写体距離の選択に用いる信頼性データは(10)式に
より求めたものに限るものではなく、他の方法を用いて
求めるようにしてもよい。上記のような処理を行うこと
により、例えば、逆光時にフレアやゴースト等が発生し
ていない場合、高周波の空間周波数成分を抽出するフィ
ルタ処理により、有効な低周波の空間周波数成分を除去
してしまい、測距精度が低下するというようなフィルタ
処理の副作用を防ぐことができる。第3実施形態によれ
ば、さらに、逆光時の測距精度が向上する。
S = MAX (F mnS , F pls ) −F min (10) (MAX (F mnS , F pls ): F mnS , F pls
The data of which the value of is larger) The reliability data used for selecting the subject distance is not limited to the one obtained by the equation (10), and may be obtained by using another method. By performing the above processing, for example, when flare, ghost, or the like does not occur at the time of backlighting, effective low frequency spatial frequency components are removed by the filter processing for extracting high frequency spatial frequency components. It is possible to prevent a side effect of the filter processing such as a decrease in distance measuring accuracy. According to the third embodiment, the distance measurement accuracy at the time of backlighting is further improved.

【0044】次に、図12を用いて第3の実施形態の測
距シーケンスの手順を説明する。
Next, the procedure of the distance measuring sequence of the third embodiment will be described with reference to FIG.

【0045】S301では、プリ積分等により得られる
被写体輝度に応じて、一対のラインセンサ102a、1
02bの感度を設定する。S302では、S301で設
定されたセンサ感度で積分を行う。S303では、一対
のラインセンサ102a、102bから出力される被写
体像データをA/D変換してCPU105内のメモリ領
域に格納する。S304では、S303で読み出した被
写体像データの最大値MAXと最小値MINを検出す
る。S305では、S304で検出した最大値MAXと
最小値MINとの差と、所定の低コントラスト判定値を
比較し、低コントラスト判定を行う。MAX−MINが
判定値よりも大きければS306に進み、小さければS
314に進む。S306では、被写体像データ114
a、114bを用いて、相関演算、補間演算により二つ
の被写体像の位相差(像ずれ量)を求め、この位相差か
ら被写体距離を算出する。また、補間演算時に用いるデ
ータF mnS、Fpls、Fminを利用して(10)
式により、信頼性データを求める。S307では、図4
に示す逆光判定エリアA、B、C間の被写体像データの
平均値をそれぞれ比較し、平均値の差の最大値と所定の
逆光判定値により逆光判定を行う。S308では、S3
07で求めた平均値の差の最大値が判定値よりも大きけ
れば、S309に進み、小さければS313に進む。S
309では、S307の逆光判定において他のエリアと
較べて低輝度であったエリアの被写体像データを基準に
して再積分を行う。S310では、一対のラインセンサ
102a、102bから出力される被写体像データをA
/D変換してCPU105内のメモリ領域に格納する。
S311では、フィルタ手段106により、(1)式を
用いて、図4に示す被写体像データ114a、114b
から高周波の空間周波数成分を抽出するフィルタ処理を
行う。S312では、S311のフィルタ処理後の被写
体像データを用いて、相関演算、補間演算により二つの
被写体像の位相差(像ずれ量)を求め、この位相差から
被写体距離を算出する。また、補間演算時に用いるデー
タFmnS、Fpls、Fminを利用して(10)式
により、信頼性データを求める。S313では、S30
6、S312で求めた二つの被写体距離から、S30
6、S312で求めた信頼性データにより、いずれか一
方を選択する。S314では、フィルタ手段106によ
り、(1)式を用いて、図4(b)に示す被写体像デー
タ114a、114bから低周波の空間周波数成分を抽
出するフィルタ処理を行う。S315では、S314の
フィルタ処理後の被写体像データを用いて、相関演算、
補間演算により二つの被写体像の位相差(像ずれ量)を
求め、この位相差から被写体距離を算出する。
In S301, it is obtained by pre-integration or the like.
A pair of line sensors 102a, 1a depending on the brightness of the subject.
Set the sensitivity of 02b. In S302, set in S301
Integrate with the specified sensor sensitivity. In S303, a pair
Subject output from the line sensors 102a and 102b of
A / D conversion of body image data and memory area in CPU 105
Store in the area. In S304, the target read in S303 is read.
Detects maximum value MAX and minimum value MIN of image data
It In S305, the maximum value MAX detected in S304 and
The difference between the minimum value MIN and the predetermined low contrast judgment value
A comparison is made to make a low contrast determination. MAX-MIN
If it is larger than the judgment value, the process proceeds to S306, and if it is smaller than the judgment value, S
Proceed to 314. In S306, the subject image data 114
a and 114b, two by correlation calculation and interpolation calculation
The phase difference (image shift amount) of the subject image of
The subject distance is calculated from this. In addition, the data used during interpolation calculation
Data F mnS, Fpls, FminUsing (10)
The reliability data is obtained from the formula. In S307, FIG.
Of the subject image data between the backlight determination areas A, B, and C shown in
The average values are compared, and the maximum difference between the average values is
The backlight determination is performed based on the backlight determination value. In S308, S3
The maximum value of the difference of the average value obtained in 07 is larger than the judgment value.
If so, the process proceeds to S309, and if small, the process proceeds to S313. S
In 309, in the backlight determination of S307, other areas
Based on the subject image data of the area that was relatively low in brightness
And re-integrate. In S310, a pair of line sensors
Subject image data output from 102a and 102b is A
/ D-converted and stored in the memory area in the CPU 105.
In S311, the filter means 106 converts the equation (1) into
By using the subject image data 114a and 114b shown in FIG.
Filtering to extract high frequency spatial frequency components from
To do. In S312, the subject after the filtering process in S311
By using the body image data, two
Obtain the phase difference (image shift amount) of the subject image and from this phase difference
Calculate the subject distance. In addition, the data used during interpolation calculation
Ta FmnS, Fpls, FminUsing equation (10)
To obtain reliability data. In S313, S30
6. From the two object distances obtained in S312, S30
6, either of the reliability data obtained in S312
Choose one. In S314, the filter means 106 is used.
Then, using the equation (1), the subject image data shown in FIG.
The low frequency spatial frequency components from the filters 114a and 114b.
Filter out. In S315, in S314
Using the subject image data after filtering, correlation calculation,
The phase difference (image shift amount) between two subject images is calculated by interpolation calculation.
Then, the subject distance is calculated from this phase difference.

【0046】以上、本発明の第3の実施形態によれば、
低コントラスト被写体の中でも、比較的コントラストの
ある領域を検出し、低周波の空間周波数成分を抽出する
フィルタ処理を行い、測距をするので、さらに、低コン
トラスト時の測距精度が向上する。なお、上記各実施形
態では、受光素子として一対のラインセンサ102a、
102bを用いたが、図13に示すような一対のエリア
センサ402a、402bを用いた構成や複数対のライ
ンセンサを用いた構成としても、上記各実施形態と同様
の効果を奏することができる。
As described above, according to the third embodiment of the present invention,
Even in a low-contrast subject, a region having a relatively high contrast is detected, a filtering process for extracting a low-frequency spatial frequency component is performed, and distance measurement is performed. Therefore, distance measurement accuracy in low contrast is further improved. In each of the above-described embodiments, a pair of line sensors 102a are used as the light receiving element,
Although 102b is used, the same effect as each of the above-described embodiments can be obtained even with a configuration using a pair of area sensors 402a and 402b as shown in FIG. 13 and a configuration using a plurality of pairs of line sensors.

【0047】図13中の401a、401bは、後述す
る被写体を一対のエリアセンサ402a、402b上に
結合させる為の一対の受光レンズであり、402a、4
02bは受光レンズ401a、401bにより結像され
た被写体像をその光強度に応じて光電変換する一対のエ
リアセンサである。
Reference numerals 401a and 401b in FIG. 13 denote a pair of light receiving lenses for coupling a subject, which will be described later, onto the pair of area sensors 402a and 402b.
Reference numeral 02b is a pair of area sensors for photoelectrically converting the subject image formed by the light receiving lenses 401a and 401b according to its light intensity.

【0048】また、403は、エリアセンサ402a、
402bの積分動作の制御を行う積分制御回路であり、
404は、エリアセンサ402a、402bより出力さ
れる、被写体像を光電変換したアナログ電気信号をA/
D変換する読み出し手段である。そして、405は、各
種制御信号の出力、被写体距離演算等の各種演算を行う
CPUであり、406は、読み出し手段404により読
み出された被写体像データから、所定の空間周波数成分
を抽出するフィルタ手段である。
403 is an area sensor 402a,
An integration control circuit for controlling the integration operation of 402b,
Reference numeral 404 denotes A / A which is an analog electric signal output from the area sensors 402a and 402b and obtained by photoelectrically converting a subject image.
It is a reading means for D conversion. Reference numeral 405 denotes a CPU that outputs various control signals and performs various calculations such as subject distance calculation. Reference numeral 406 denotes a filter unit that extracts a predetermined spatial frequency component from the subject image data read by the reading unit 404. Is.

【0049】なお、本発明によれば以下のような構成も
可能である。
According to the present invention, the following configurations are possible.

【0050】付記1 一対の被写体像を一対のセンサ上
に結像させる受光レンズと、前記受光レンズにより結像
させられた前記一対の被写体像を光強度に応じて電気信
号に変換する一対のセンサと、前記一対のセンサの積分
動作制御を行う積分制御手段と、前記一対のセンサから
出力される前記被写体像データを読み出す読み出し手段
と、前記読み出し手段により読み出された被写体像デー
タに基づいて、被写体距離に応じたデータを演算する演
算手段と、前記被写体像データから所定の周波数成分を
抽出するフィルタ処理を行うフィルタ手段とから成る測
距装置において、被写体条件により、フィルタ処理を行
うかどうかを判定し、フィルタ処理を行う場合は抽出す
る周波数成分を切り換えることを特徴とする測距装置。
Appendix 1 A light receiving lens for forming a pair of object images on a pair of sensors, and a pair of sensors for converting the pair of object images formed by the light receiving lens into electric signals according to light intensity. Based on the subject image data read by the reading unit, the integration control unit for performing integration operation control of the pair of sensors, the reading unit for reading the subject image data output from the pair of sensors, A distance measuring device comprising a calculating means for calculating data according to a subject distance and a filter means for performing a filtering process for extracting a predetermined frequency component from the subject image data, and whether or not to perform the filtering process depending on the subject condition. A distance measuring device characterized by switching frequency components to be extracted when performing judgment and filtering.

【0051】付記2 前記被写体条件が低コントラス
ト、または、逆光である場合にフィルタ処理を行い、低
コントラスト時は低周波数成分を抽出し、逆光時は高周
波数成分を抽出して、被写体像データから抽出された周
波数成分に基づいて、被写体距離に応じたデータを演算
することを特徴とする付記1に記載の測距装置。
Appendix 2 When the subject condition is low contrast or backlight, filter processing is performed, low frequency components are extracted when the contrast is low, and high frequency components are extracted when the backlight is high. The distance measuring device according to appendix 1, wherein data according to a subject distance is calculated based on the extracted frequency component.

【0052】付記3 前記被写体像データの最大値と最
小値の差が所定値よりも小さい場合に低コントラストで
あると判定し、前記被写体像データを複数のエリアに分
割してエリア毎の平均輝度の差が所定値よりも大きい場
合に逆光と判定することを特徴とする付記2に記載の測
距装置。
Appendix 3 It is determined that the contrast is low when the difference between the maximum value and the minimum value of the subject image data is smaller than a predetermined value, the subject image data is divided into a plurality of areas, and the average brightness of each area is divided. The distance measuring device according to appendix 2, wherein it is determined that the light is a backlight when the difference between the two is larger than a predetermined value.

【0053】付記4 上記被写体が逆光である場合に
は、さらに、被写体像データの低輝度部を基準に再積分
を行い、上記再積分により得られた被写体像データに対
して高周波数成分を抽出するフィルタ処理を行うことを
特徴とする付記2に記載の測距装置。
Supplementary Note 4 When the subject is backlit, reintegration is further performed with reference to the low luminance portion of the subject image data, and high frequency components are extracted from the subject image data obtained by the reintegration. 3. The distance measuring apparatus according to appendix 2, which is characterized by performing a filtering process.

【0054】付記5 上記一対のセンサは、ラインセン
サ、または、エリアセンサであることを特徴とする付記
1乃至4のいずれか1項に記載の測距装置。
Supplementary Note 5 The distance measuring device according to any one of supplementary notes 1 to 4, wherein the pair of sensors are line sensors or area sensors.

【0055】[0055]

【発明の効果】以上説明したように、本発明によれば、
被写体条件に応じて所定の空間周波数成分の抽出が必要
な場合にのみ位相差検出を行うための空間周波数成分の
抽出処理を行うので、高速で高精度な測距をすることが
できる測距装置を提供することができる。
As described above, according to the present invention,
Since the spatial frequency component extraction processing for detecting the phase difference is performed only when the extraction of the predetermined spatial frequency component is necessary according to the subject condition, the distance measuring device capable of performing high-speed and highly accurate distance measurement. Can be provided.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の実施形態に係る第1〜3の実施形態に
係る測距装置の構成図。
FIG. 1 is a configuration diagram of a distance measuring device according to first to third embodiments according to an embodiment of the present invention.

【図2】本発明の実施形態に係る通常被写体の撮影シー
ン、及び被写体像データを示す図。
FIG. 2 is a diagram showing a shooting scene of a normal subject and subject image data according to the embodiment of the present invention.

【図3】本発明の実施形態に係るラインセンサから出力
される被写体像データを示した図。
FIG. 3 is a diagram showing subject image data output from the line sensor according to the embodiment of the present invention.

【図4】本発明の実施形態に係る逆光被写体の撮影シー
ンを示す図。
FIG. 4 is a diagram showing a shooting scene of a backlight subject according to the embodiment of the present invention.

【図5】本発明の実施形態に係る被写体像データを示し
た図。
FIG. 5 is a diagram showing subject image data according to the embodiment of the present invention.

【図6】本発明の実施形態に係る高周波の空間周波数成
分を抽出するフィノレタ処理後の被写体像データを示す
図。
FIG. 6 is a diagram showing subject image data after a finoleta process for extracting a high-frequency spatial frequency component according to the embodiment of the present invention.

【図7】本発明の実施形態に係る低コントラスト被写体
の撮影シーンを示す図。
FIG. 7 is a diagram showing a shooting scene of a low-contrast subject according to the embodiment of the present invention.

【図8】本発明の実施形態に係る被写体像データを示す
図。
FIG. 8 is a diagram showing subject image data according to the embodiment of the present invention.

【図9】本発明の第1の実施形態に係るび低周波の空間
周波数成分を抽出するフィルタ処理後の被写体像データ
を示す図。
FIG. 9 is a diagram showing subject image data after filter processing for extracting low frequency spatial frequency components according to the first embodiment of the present invention.

【図10】本発明の第1の実施形態に係る測距シーケン
スの手順を示すフローチャート。
FIG. 10 is a flowchart showing a procedure of a distance measuring sequence according to the first embodiment of the present invention.

【図11】本発明の第2の実施形態に係る測距シーケン
スの手順を示すフローチャート。
FIG. 11 is a flowchart showing a procedure of a distance measurement sequence according to the second embodiment of the present invention.

【図12】本発明の第3の実施形態に係る測距シーケン
スの手順を示すフローチャート。
FIG. 12 is a flowchart showing a procedure of a distance measuring sequence according to a third embodiment of the present invention.

【図13】本発明の実施形態に係る測距装置の構成の変
形例の一例を示す図。
FIG. 13 is a diagram showing an example of a modification of the configuration of the distance measuring apparatus according to the embodiment of the present invention.

【図14】本発明の実施形態に係る逆光時の再積分によ
る主要被写体の被写体像データを示す図。
FIG. 14 is a diagram showing subject image data of a main subject by reintegration during backlighting according to the embodiment of the present invention.

【図15】本発明の実施形態に係る高周波の空間周波数
成分を抽出するフィルタ処理後の被写体像データを示す
図。。
FIG. 15 is a diagram showing subject image data after filter processing for extracting high-frequency spatial frequency components according to the embodiment of the present invention. .

【図16】本発明の実施形態に係る相関演算のウインド
シフト方法を示す図。
FIG. 16 is a diagram showing a window shift method for correlation calculation according to the embodiment of the present invention.

【図17】本発明の実施形態に係る相関演算のウインド
シフト方法の別例を説明する図。
FIG. 17 is a diagram illustrating another example of the window shift method of the correlation calculation according to the embodiment of the present invention.

【図18】本発明の実施形態に係る各シフト値毎の相関
値を示す相関データグラフを示す図。
FIG. 18 is a diagram showing a correlation data graph showing a correlation value for each shift value according to the embodiment of the present invention.

【図19】本発明の実施形態に係る補間演算を説明する
図。
FIG. 19 is a diagram illustrating an interpolation calculation according to the embodiment of the present invention.

【符号の説明】[Explanation of symbols]

5a.5b…ラインセンサ、101a.101b…受光
レンズ、102a.102b…ラインセンサ、103…
積分制御手段、105…CPU、106…フィルタ手
段、112…測距視野、113…主要被写体、114
a.114b…被写体像データ、115a.115b…
空間周波数成分、117a.117b…抽出データ
5a. 5b ... Line sensor, 101a. 101b ... Light receiving lens, 102a. 102b ... Line sensor, 103 ...
Integral control means, 105 ... CPU, 106 ... Filter means, 112 ... Distance measuring field of view, 113 ... Main subject, 114
a. 114b ... Subject image data, 115a. 115b ...
Spatial frequency component 117a. 117b ... Extracted data

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 一対の被写体像を一対のセンサ上に結像
させる受光レンズと、 前記受光レンズにより結像させられた前記一対の被写体
像を光強度に応じて電気信号に変換する一対のセンサ
と、 前記一対のセンサの積分動作制御を行う積分制御手段
と、 前記一対のセンサから出力される前記被写体像データを
読み出す読み出し手段と、 前記読み出し手段により読み出された被写体像データに
基づいて、被写体距離に応じたデータを演算する演算手
段と、 前記被写体像データから所定の周波数成分を抽出するフ
ィルタ処理を行うフィルタ手段とから成る測距装置にお
いて、 被写体条件により、フィルタ処理を行うかどうかを判定
し、フィルタ処理を行う場合は抽出する周波数成分を切
り換えることを特徴とする測距装置。
1. A light-receiving lens for forming a pair of object images on a pair of sensors, and a pair of sensors for converting the pair of object images formed by the light-receiving lens into electric signals according to light intensity. An integral control means for performing integral operation control of the pair of sensors, a reading means for reading the subject image data output from the pair of sensors, and based on the subject image data read by the reading means, A distance measuring device comprising a calculating means for calculating data according to a subject distance and a filter means for performing a filtering process for extracting a predetermined frequency component from the subject image data. A distance measuring device characterized by switching frequency components to be extracted when performing judgment and filtering.
【請求項2】 前記被写体条件が低コントラスト、また
は、逆光である場合にフィルタ処理を行い、低コントラ
スト時は低周波数成分を抽出し、逆光時は高周波数成分
を抽出して、被写体像データから抽出された周波数成分
に基づいて、被写体距離に応じたデータを演算すること
を特徴とする請求項1に記載の測距装置。
2. When the subject condition is low contrast or backlight, a filtering process is performed, a low frequency component is extracted when the contrast is low, and a high frequency component is extracted when the backlight is high. The distance measuring apparatus according to claim 1, wherein data corresponding to a subject distance is calculated based on the extracted frequency component.
【請求項3】 前記被写体像データの最大値と最小値の
差が所定値よりも小さい場合に低コントラストであると
判定し、前記被写体像データを複数のエリアに分割して
エリア毎の平均輝度の差が所定値よりも大きい場合に逆
光と判定することを特徴とする請求項2に記載の測距装
置。
3. When the difference between the maximum value and the minimum value of the subject image data is smaller than a predetermined value, it is determined that the contrast is low, the subject image data is divided into a plurality of areas, and the average brightness of each area is determined. The distance measuring device according to claim 2, wherein it is determined that the light is a backlight when the difference between the two is larger than a predetermined value.
JP2002010498A 2002-01-18 2002-01-18 Range-finding device Pending JP2003215434A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002010498A JP2003215434A (en) 2002-01-18 2002-01-18 Range-finding device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002010498A JP2003215434A (en) 2002-01-18 2002-01-18 Range-finding device

Publications (1)

Publication Number Publication Date
JP2003215434A true JP2003215434A (en) 2003-07-30

Family

ID=27648224

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002010498A Pending JP2003215434A (en) 2002-01-18 2002-01-18 Range-finding device

Country Status (1)

Country Link
JP (1) JP2003215434A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005326681A (en) * 2004-05-14 2005-11-24 Pentax Corp Focus detector and focus detecting method
WO2009013866A1 (en) * 2007-07-23 2009-01-29 Panasonic Corporation Image pickup apparatus with distance measurement function using multiple eye system
JP2012123317A (en) * 2010-12-10 2012-06-28 Canon Inc Imaging apparatus and control method thereof
JP2012215700A (en) * 2011-03-31 2012-11-08 Fujifilm Corp Imaging device and imaging program
KR20180066179A (en) * 2015-11-12 2018-06-18 가부시키가이샤 히다치 고쿠사이 덴키 The image pickup device

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005326681A (en) * 2004-05-14 2005-11-24 Pentax Corp Focus detector and focus detecting method
WO2009013866A1 (en) * 2007-07-23 2009-01-29 Panasonic Corporation Image pickup apparatus with distance measurement function using multiple eye system
US8180111B2 (en) 2007-07-23 2012-05-15 Panasonic Corporation Compound eye type imaging apparatus with distance measuring capability
JP2012123317A (en) * 2010-12-10 2012-06-28 Canon Inc Imaging apparatus and control method thereof
JP2012215700A (en) * 2011-03-31 2012-11-08 Fujifilm Corp Imaging device and imaging program
KR20180066179A (en) * 2015-11-12 2018-06-18 가부시키가이샤 히다치 고쿠사이 덴키 The image pickup device
KR101981438B1 (en) 2015-11-12 2019-05-22 가부시키가이샤 히다치 고쿠사이 덴키 The image pickup device

Similar Documents

Publication Publication Date Title
EP2131158A2 (en) Absolute Position Detection Type Photoelectric Encoder
JPS62148911A (en) Focus detector
JP2002051255A (en) Main object detectable camera
US5940634A (en) Range finding device
US6768540B2 (en) Phase difference detection method, phase difference detection apparatus, range finding apparatus and imaging apparatus
JP2003215434A (en) Range-finding device
JPH10186460A (en) Range-finding device for camera
JP2000171687A (en) Range-finder
US5986764A (en) Distance measurement device
JP2003344754A (en) Range-finding device
JP2003279348A (en) Method and apparatus for detection of phase difference, distance measuring device and imaging device
JP3963723B2 (en) Ranging device
JP3911418B2 (en) Ranging device
JP2008026787A (en) Imaging apparatus
JP4632640B2 (en) Ranging device
JP3942258B2 (en) Focus detection device
JP2001264621A (en) Range-finding device
JP5171124B2 (en) Focus adjustment device, imaging device, and focus adjustment method
JP2001174694A (en) Range-finger
JP3984138B2 (en) Ranging device and camera equipped with the same
JP3938989B2 (en) Ranging device
JP2005043256A (en) Distance measuring equipment
JP3678438B2 (en) Ranging device
JP2001305413A (en) Range-finding device
JP2001324665A (en) Auto-focusing device for camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041220

A977 Report on retrieval

Effective date: 20070124

Free format text: JAPANESE INTERMEDIATE CODE: A971007

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070227

A02 Decision of refusal

Effective date: 20070710

Free format text: JAPANESE INTERMEDIATE CODE: A02