JP3503121B2 - Distance calculation device and method - Google Patents

Distance calculation device and method

Info

Publication number
JP3503121B2
JP3503121B2 JP17818894A JP17818894A JP3503121B2 JP 3503121 B2 JP3503121 B2 JP 3503121B2 JP 17818894 A JP17818894 A JP 17818894A JP 17818894 A JP17818894 A JP 17818894A JP 3503121 B2 JP3503121 B2 JP 3503121B2
Authority
JP
Japan
Prior art keywords
image
filtering
distance
phase difference
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP17818894A
Other languages
Japanese (ja)
Other versions
JPH0843081A (en
Inventor
昌美 緒形
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP17818894A priority Critical patent/JP3503121B2/en
Publication of JPH0843081A publication Critical patent/JPH0843081A/en
Application granted granted Critical
Publication of JP3503121B2 publication Critical patent/JP3503121B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、ロボットアイなどにお
いて、距離情報、特に奥行き情報を得る場合に用いて好
適な距離演算装置および方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a distance calculation apparatus and method suitable for use in obtaining distance information, particularly depth information, in a robot eye or the like.

【0002】[0002]

【従来の技術】カメラなどの画像入力装置によって撮影
された2次元画像から、対象物体までの距離を計算する
方法として、両眼立体視法が知られている。図6に、両
眼立体視の原理を示す。同図は、カメラと対象物体(こ
の場合は、対象点)の位置関係を上方から見た状態を表
している。LL,LRは、水平方向に所定の距離だけ離れ
て配置されたカメラのレンズを、また、IL,IRは、そ
の左右のカメラの撮像面を、それぞれ表す。fL,f
Rは、撮像面IL,IRの中心であり、各撮像面IL,IR
上の位置は、これらの中心位置fL,fRからの距離によ
って表される。
2. Description of the Related Art Binocular stereoscopic vision is known as a method for calculating the distance to a target object from a two-dimensional image taken by an image input device such as a camera. FIG. 6 shows the principle of binocular stereoscopic vision. The figure shows a state in which the positional relationship between the camera and the target object (the target point in this case) is viewed from above. L L and L R represent the lenses of the cameras arranged at a predetermined distance in the horizontal direction, and I L and I R represent the imaging surfaces of the left and right cameras, respectively. f L , f
R is an imaging plane I L, a center of the I R, the imaging plane I L, I R
The upper position is represented by the distance from these center positions f L and f R.

【0003】また、中心位置fL,fRを通り、各撮像面
L,IRに垂直な直線TLとTRの交点をP1とし、これ
を注視点と呼ぶ。このとき、撮像面IL,IRからの距離
が注視点P1とは異なる対象点P2の像は、各撮像面
L,IRにおいて異なる位置に生じる。このように、注
視点P1との距離の違いによって、左右の画像に生じる
像の水平方向の位置ずれを視差と呼ぶ。視差の量δは、
1とP2の距離がそれほど大きくないという条件の下で
は次のように近似できる。 δ≒b(β1−β2)=b(α2−α1) ≒abΔD/D2 ・・・(1)
An intersection of straight lines T L and T R passing through the center positions f L and f R and perpendicular to the image pickup planes I L and I R is defined as P 1 and is called a gazing point. In this case, the imaging plane I L, images of different target point P 2 is the distance from the I R and gaze point P 1, each imaging plane I L, occur at different positions in the I R. As described above, the positional deviation of the images in the horizontal direction caused by the difference in distance from the gazing point P 1 is called parallax. The parallax amount δ is
Under the condition that the distance between P 1 and P 2 is not so large, it can be approximated as follows. δ≈b (β 1 −β 2 ) = b (α 2 −α 1 ) ≈ab ΔD / D 2 (1)

【0004】ここで、aは2つのカメラのレンズLL
Rの距離、bは各レンズLL,LRと撮像面IL,IR
距離、DはレンズLL,LRから注視点P1までの奥行き
方向の距離、ΔDは注視点P1から対象点P2までの奥行
き方向の距離を表す。a,b,Dは、カメラの配置によ
って決まるため、その配置が既知であれば、視差は、注
視点P1から対象点P2までの距離ΔDの関数となる。従
って、左右の画像情報から視差δを検出することができ
れば、対象点P2の注視点P1からの距離ΔDを、次式か
ら求めることができる。 ΔD=δD2/ab ・・・(2)
Here, a is the distance between the lenses L L and L R of the two cameras, b is the distance between the respective lenses L L and L R and the imaging planes I L and I R , and D is from the lenses L L and L R. gazing point in the depth direction of the distance to P 1, [Delta] D is the distance in the depth direction from the gaze point P 1 to the target point P 2. Since a, b, and D are determined by the placement of the camera, if the placement is known, the parallax is a function of the distance ΔD from the gazing point P 1 to the target point P 2 . Therefore, if the parallax δ can be detected from the left and right image information, the distance ΔD of the target point P 2 from the gazing point P 1 can be obtained from the following equation. ΔD = δD 2 / ab (2)

【0005】従来、両眼視差の検出は、2つの画像にお
いて対応する対象点を検索することによって行われてお
り、この対応付けを行う方法としては、相互相関法や特
徴点マッチング法が知られている。
Conventionally, binocular parallax is detected by searching for corresponding points in two images. As a method of making this correspondence, a cross-correlation method and a feature point matching method are known. ing.

【0006】相互相関法は、左右の画像の間で、局所的
な輝度変化の類似性、即ち、相関値が最も高い位置同士
を対応付けるものである。一方、特徴点マッチング法
は、エッジのような物理的事象に対応する特徴点を予め
左右の画像から抽出しておき、それらの間で対応付けを
行うものである。
[0006] The cross-correlation method associates the left and right images with the similarity in local luminance change, that is, the position with the highest correlation value. On the other hand, in the feature point matching method, feature points corresponding to a physical phenomenon such as an edge are extracted from the left and right images in advance, and the feature points are associated with each other.

【0007】[0007]

【発明が解決しようとする課題】しかしながら、相互相
関法は、輝度変化の類似性を用いるものであるため、ノ
イズに弱く、レンズなどによる画像の歪や、左右のカメ
ラ間における照明条件などの違い、さらに、相関関数を
計算する小領域内における視差勾配などに起因して、誤
差が発生する課題がある。
However, since the cross-correlation method uses the similarity of the luminance change, it is weak against noise, and the distortion of the image due to the lens or the like, the difference in the illumination condition between the left and right cameras, and the like. Further, there is a problem that an error occurs due to a parallax gradient or the like in a small area for calculating a correlation function.

【0008】また、特徴点マッチング法では、どのよう
な特徴を用いるかが計算精度に大きく影響を与える。視
差は、特徴点が存在する位置でしか計算できないため、
多くの場所で視差を得るためには、画像中に高い頻度で
出現するような特徴を用いる必要があるが、この場合、
多くの対応候補が発生するため、正しく対応付けを行う
ことが困難となる。
Further, in the feature point matching method, what kind of feature is used has a great influence on the calculation accuracy. The parallax can be calculated only at the positions where the feature points exist, so
In order to obtain parallax in many places, it is necessary to use features that appear frequently in the image, but in this case,
Since many correspondence candidates are generated, it is difficult to perform correct correspondence.

【0009】また、これらの方法では、対応する可能性
のある全ての点の組み合わせに対して、何らかの評価関
数を計算する必要があり、本質的に多くの計算時間を必
要とする。
Further, in these methods, it is necessary to calculate some kind of evaluation function for all combinations of points that may correspond, which requires a substantial amount of calculation time.

【0010】本発明はこのような状況に鑑みてなされた
ものであり、誤差の発生を抑制し、迅速かつ正確に、距
離情報が得られるようにするものである。
The present invention has been made in view of such a situation, and it is an object of the present invention to suppress the occurrence of an error and to obtain distance information quickly and accurately.

【0011】[0011]

【課題を解決するための手段】本発明の距離演算装置
は、水平方向に所定の距離だけ離れて配置された第1の
撮像装置と第2の撮像装置により対象物体を撮像して得
た第1の画像と第2の画像から、対象物体に関する距離
情報を求める距離演算装置において、第1の画像のデー
タをフィルタリング処理する、振幅特性が等しく、か
つ、位相特性が異なる複数の空間フィルタからなる第1
フィルタリング手段と、第2の画像のデータをフィル
タリング処理する、振幅特性が等しく、かつ、位相特性
が異なる複数の空間フィルタからなる第2のフィルタリ
ング手段と、第1のフィルタリング手段の出力と第2の
フィルタリング手段の出力の外積を演算する外積演算手
段と、第1のフィルタリング手段の出力と第2のフィル
タリング手段の出力の内積を演算する内積演算手段と、
外積演算手段の出力と内積演算手段の出力から、第1の
画像と第2の画像の位相差および位相差符号を判定する
判定手段と、判定手段により判定された位相差および位
相差符号から、第1の画像と第2の画像の視差を算出
し、その視差を距離に変換する変換手段とを備えること
を特徴とする。
A distance calculation device of the present invention is a first image pickup device obtained by picking up an image of a target object by a first image pickup device and a second image pickup device which are horizontally separated from each other by a predetermined distance. In a distance calculation device that obtains distance information about a target object from a first image and a second image, the distance calculation device includes a plurality of spatial filters that perform a filtering process on the data of the first image and have equal amplitude characteristics and different phase characteristics. First
And filtering means, for filtering the data of the second image, equal amplitude characteristics and a second filtering phase characteristics are from different spatial filters
And an outer product operator for calculating an outer product of the output of the first filtering means and the output of the second filtering means.
Stage, the output of the first filtering means and the second filter
An inner product calculating means for calculating an inner product of the output of the tiling means,
From the output of the outer product calculating means and the output of the inner product calculating means,
Determine the phase difference and phase difference sign between the image and the second image
The judging means and the phase difference and position judged by the judging means.
Calculate the parallax between the first and second images from the phase difference code
And a conversion means for converting the parallax into a distance .

【0012】 この距離演算装置は、第1のフィルタリ
ング手段と第2のフィルタリング手段が、それぞれ異な
る周波数帯域の複数のチャンネルに分割され、チャンネ
ル毎に、第 1 の画像の注視点に対応する第2の画像の位
置座標を、そのチャンネルに対応する波長と位相差符号
から算出する対応位置検出手段と、位置検出手段により
算出された位置座標を記録する記録手段とをさらに設
け、変換手段は、第1の画像の注視点に対応する座標と
第2の画像の位置座標から視差を算出し、その視差を距
離に変換するようにすることができる。
[0012] The distance calculating unit, the first filtering means and the second filtering means is divided into a plurality of channels of different frequency bands, channel
The position of the second image corresponding to the gazing point of the first image
The position coordinate is the wavelength and phase difference code corresponding to the channel.
By the corresponding position detection means calculated from
A recording means for recording the calculated position coordinates is further provided.
The conversion means converts the coordinates corresponding to the gazing point of the first image and
The parallax is calculated from the position coordinates of the second image, and the parallax is calculated.
It can be converted into separation .

【0013】 本発明の距離演算方法は、水平方向に所
定の距離だけ離れて配置された第1の撮像装置と第2の
撮像装置により対象物体を撮像して得た第1の画像と第
2の画像から、対象物体に関する距離情報を求める距離
演算装置の距離演算方法であって、第1の画像のデータ
をフィルタリング処理する、振幅特性が等しく、かつ、
位相特性が異なる複数の空間フィルタからなる第1のフ
ィルタリングステップと、第2の画像のデータをフィル
タリング処理する、振幅特性が等しく、かつ、位相特性
が異なる複数の空間フィルタからなる第2のフィルタリ
ングステップと、第1のフィルタリングステップの処理
による出力と第2のフィルタリングステップの処理によ
る出力の外積を演算する外積演算ステップと、第1のフ
ィルタリングステップの処理による出力と第2のフィル
タリングステップの処理による出力の内積を演算する内
積演算ステップと、外積演算ステップの処理による出力
と内積演算ステップの処理による出力から、第1の画像
と第2の画像の位相差および位相差符号を判定する判定
ステップと、判定ステップの処理により判定された位相
差および位相差符号から、第1の画像と第2の画像の視
差を算出し、その視差を距離に変換する変換ステップと
を含むことを特徴とする。
The distance calculation method of the present invention is applied to a horizontal direction.
The first image pickup device and the second image pickup device which are arranged apart from each other by a fixed distance.
The first image and the first image obtained by imaging the target object with the imaging device.
Distance to obtain distance information about the target object from image 2
A distance calculation method of a calculation device, comprising: data of a first image
The amplitude characteristics are equal, and
A first filter including a plurality of spatial filters having different phase characteristics.
Fill the filtering step and the data of the second image
The same amplitude characteristic and phase characteristic
A second filter composed of a plurality of spatial filters with different
Processing of the filtering step and the first filtering step
Output and processing of the second filtering step
The outer product calculation step for calculating the outer product of the outputs
Output by the processing of the filtering step and the second fill
In calculating the inner product of the output by the processing of the tailing step
Output by processing of product operation step and outer product operation step
And the first image from the output of the inner product calculation step
And the determination for determining the phase difference and the phase difference sign of the second image
Step and the phase determined by the processing of the determination step
From the difference and phase difference codes, the first image and the second image are viewed.
A conversion step of calculating a difference and converting the parallax into a distance;
It is characterized by including.

【0014】[0014]

【0015】[0015]

【0016】[0016]

【0017】[0017]

【0018】[0018]

【作用】上記構成においては、左右の第1と第2の画像
は、それぞれ位相特性の異なる空間フィルタによりフィ
ルタリング処理され、各フィルタリング処理の出力の外
積および内積が演算されて位相差および位相差符号が判
定され、その判定結果に基づいて視差が算出されて距離
に変換される。各フィルタリング処理出力を組み合わせ
ることによって、左右画像の位相差の符号が検出され、
対象物体が、注視点に対して前方にあるか、後方にある
かの距離情報が、正確かつ迅速に得られる。
In the above structure, the left and right first and second images are filtered by the spatial filters having different phase characteristics, and the output of each filtering process is excluded.
The product and inner product are calculated to determine the phase difference and the phase difference sign.
Distance, the parallax is calculated based on the determination result, and the distance is calculated.
Is converted to. By combining the output of each filtering process, the sign of the phase difference between the left and right images is detected,
Distance information indicating whether the target object is in front of or behind the gazing point can be accurately and quickly obtained.

【0019】[0019]

【実施例】図1に、本発明の距離演算装置の一実施例の
構成を示す。10L,10Rは画像入力用のカメラであ
り、水平方向に所定の距離だけ離れた位置に配置され
る。11L,11RはA/D変換器であり、各カメラ1
0L,10Rからの信号をデジタル化する。12Lと1
3L、12Rと13Rは、それぞれ振幅特性が等しく、
位相特性の異なる空間フィルタである。このような空間
フィルタとしては、例えば(3)式(空間フィルタ12
L,12R)、および(4)式(空間フィルタ13L,
13R)に示すガボアフィルタの対を用いることができ
る。 gc(x,y) =exp[−(x/σ)2]cos(2πusx)exp[−(y/σ)2] ・・・(3) gs(x,y) =exp[−(x/σ)2]sin(2πusx)exp[−(y/σ)2] ・・・(4)
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS FIG. 1 shows the configuration of an embodiment of the distance calculating device of the present invention. Reference numerals 10L and 10R denote image input cameras, which are arranged at positions separated by a predetermined distance in the horizontal direction. 11L and 11R are A / D converters, and each camera 1
The signals from 0L and 10R are digitized. 12L and 1
3L, 12R and 13R have the same amplitude characteristics,
The spatial filters have different phase characteristics. As such a spatial filter, for example, formula (3) (spatial filter 12
L, 12R) and equation (4) (spatial filter 13L,
13R), a pair of Gabor filters can be used. g c (x, y) = exp [-(x / σ) 2 ] cos (2πu s x) exp [-(y / σ) 2 ] (3) g s (x, y) = exp [ − (X / σ) 2 ] sin (2πu s x) exp [− (y / σ) 2 ] ... (4)

【0020】(3)式と(4)式は、2次元のガボアフ
ィルタと呼ばれるもので、水平方向(x方向)は、ガウ
ス関数とコサインまたはサイン関数との積であり、垂直
方向(y方向)は、ガウス関数となっている。これら
は、x,y両方向のガウス関数によって、その広がりを
表す任意の定数σに応じた空間的な局所性が与えられて
いる。即ち、ガウス関数により、所定の座標点(x,
y)の近傍のデータのみを、実質的に抽出することがで
きるようになされている。
Equations (3) and (4) are called two-dimensional Gabor filters, and the horizontal direction (x direction) is the product of the Gaussian function and the cosine or sine function, and the vertical direction (y direction). Is a Gaussian function. These are given a spatial locality according to an arbitrary constant σ representing the spread by a Gaussian function in both x and y directions. That is, by the Gaussian function, the predetermined coordinate point (x,
Only the data in the vicinity of y) can be substantially extracted.

【0021】また、周波数面上でも局所性を持ってお
り、周波数(us,0)を中心とした帯域通過型フィル
タになっている(x軸方向は、周波数usを中心周波数
とする帯域通過フィルタとなっているが、y軸方向は、
低域通過フィルタとなっている)。従って、これらのフ
ィルタは、局所領域において、水平方向に周波数us
変化する成分を抽出する。但し、(3)式と(4)式の
フィルタは、その位相特性がπ/2だけ異なっている。
このようなガボアフィルタ対は、右画像用(12R,1
3R)と左画像用(12L,13L)の2組が用意され
ている。
Further, it has locality on the frequency plane as well, and is a band-pass filter centered on the frequency (u s , 0) (in the x-axis direction, a band whose center frequency is the frequency u s). It is a pass filter, but in the y-axis direction,
It is a low pass filter). Therefore, these filters extract components that vary horizontally at frequency u s in the local region. However, the filters of formulas (3) and (4) differ in phase characteristics by π / 2.
Such a pair of Gabor filters is used for the right image (12R, 1
3R) and two sets for left image (12L, 13L) are prepared.

【0022】ここで、ある位置(x,y)におけるガボ
アフィルタgc(x,y)、およびgs(x,y)の出力
値は、位置(x,y)を中心とした局所的な輝度変化の
関数cos(2πusx)とsin(2πusx)への射影成分
とみなすことができる。そこで、各画像に対するガボア
フィルタ対の出力を、図2に示すような2次元ベクトル PL(x,y)=(oLc(x,y),oLs(x,y)) ・・・(5) PR(x,y)=(oRc(x,y),oRs(x,y)) ・・・(6) と考え、これらを出力ベクトルと呼ぶことにする。
Here, the output values of the Gabor filters g c (x, y) and g s (x, y) at a certain position (x, y) are the local luminance centered at the position (x, y). It can be regarded as a projective component to the change functions cos (2πu s x) and sin (2πu s x). Therefore, the output of the Gabor filter pair for each image, two-dimensional vector P L as shown in FIG. 2 (x, y) = ( o Lc (x, y), o Ls (x, y)) ··· (5 ) P R (x, y) = (o Rc (x, y), o Rs (x, y)) (6), and these are called output vectors.

【0023】oLc,oLsは、左画像に対するガボアフィ
ルタgc(x,y),gs(x,y)(空間フィルタ12
L,13L)の出力値、oRc,oRsは、右画像に対する
ガボアフィルタgc(x,y),gs(x,y)(空間フ
ィルタ12R,13R)の出力値である。各出力ベクト
ルが水平軸となす角度θL,θRは、それぞれ対応する画
像上の位置(x,y)におけるx軸方向に沿った輝度波
形の位相と考えられる。
O Lc and o Ls are Gabor filters g c (x, y) and g s (x, y) (spatial filter 12) for the left image.
L, 13L) output values o Rc , o Rs are output values of the Gabor filters g c (x, y), g s (x, y) (spatial filters 12R, 13R) for the right image. The angles θ L and θ R that each output vector makes with the horizontal axis are considered to be the phases of the luminance waveform along the x-axis direction at the corresponding position (x, y) on the image.

【0024】外積算出器14は、各ガボアフィルタ(空
間フィルタ12L,12R,13L,13R)の出力値
から、左右の画像の出力ベクトルの外積を、次式によっ
て計算する。 op(x,y) =oLc(x,y)oRs(x,y)−oLs(x,y)oRc(x,y) ・・・(7)
The outer product calculator 14 calculates the outer product of the output vectors of the left and right images from the output values of the Gabor filters (spatial filters 12L, 12R, 13L, 13R) by the following equation. op (x, y) = oLc (x, y) oRs (x, y) -oLs (x, y) oRc (x, y) (7)

【0025】正確には外積はベクトルであるが、ここで
は、(7)式に示すスカラー量であるop(x,y)
を、外積と呼ぶことにする。
To be precise, the outer product is a vector, but here, it is the scalar quantity op (x, y) shown in the equation (7).
Will be referred to as the cross product.

【0026】内積算出器15は、各ガボアフィルタ(空
間フィルタ12L,12R,13L,13R)の出力値
から、左右の画像の出力ベクトルの内積を、次式によっ
て計算する。 ip(x,y) =oLc(x,y)oRc(x,y)+oLs(x,y)oRs(x,y) ・・・(8)
The inner product calculator 15 calculates the inner product of the output vectors of the left and right images from the output values of the Gabor filters (spatial filters 12L, 12R, 13L, 13R) by the following equation. ip (x, y) = oLc (x, y) oRc (x, y) + oLs (x, y) oRs (x, y) (8)

【0027】外積op(x,y)と内積ip(x,y)
の値は、いずれも2つの出力ベクトルPL(x,y),
R(x,y)がなす角度、即ち、左右画像の位相差
(θR−θL)に応じて変化する。図3は、位相差(θR
−θL)に対する外積op(x,y)と内積ip(x,
y)の関係を示す。
Outer product op (x, y) and inner product ip (x, y)
Are two output vectors P L (x, y),
It changes according to the angle formed by P R (x, y), that is, the phase difference (θ R −θ L ) between the left and right images. Figure 3 shows the phase difference (θ R
Outer product op (x, y) and the inner product ip (x against - [theta] L),
The relationship of y) is shown.

【0028】位相差符号判定器16は、図3に示す外積
op(x,y)と内積ip(x,y)の大小関係を考慮
して、次のように、位相差の符号psgn(x,y)を
判定し、これを出力する。 if(ip(x,y)>|op(x,y)|) then psgn(x,y)←0 else if(op(x,y)>0) then psgn(x,y)←+ else psgn(x,y)←− ・・・(9)
In consideration of the magnitude relation between the outer product op (x, y) and the inner product ip (x, y) shown in FIG. 3, the phase difference code determiner 16 calculates the phase difference code psgn (x) as follows. , Y), and outputs this. if (ip (x, y)> | op (x, y) |) then psgn (x, y) ← 0 else if (op (x, y)> 0) then psgn (x, y) ← + else psgn (X, y) ← -... (9)

【0029】原理的には、(7)式で示す外積op
(x,y)だけから((8)式で示す内積ip(x,
y)を用いずに)、符号(0,+または−)を判定する
ことができる。しかしながら、0の符号は不安定であ
る。そこで、内積ip(x,y)を用い、その値が、外
積op(x,y)の絶対値より大きいとき、符号を0と
判定するようにしている。
In principle, the outer product op expressed by equation (7)
From (x, y) only, the inner product ip (x,
(without y)), the sign (0, + or-) can be determined. However, the sign of 0 is unstable. Therefore, the inner product ip (x, y) is used, and when the value is larger than the absolute value of the outer product op (x, y), the code is determined to be 0.

【0030】ここで、用いたガボアフィルタの選択的波
長λ(中心周波数usの逆数)に対して、位置(x,
y)における画像上のずれ量である視差δ(x,y)
が、 (−λ/2)<δ(x,y)<(λ/2) ・・・(10) を満足している場合、左右の画像の位相差は視差に対応
する。従って、位相差符号判定器16は、視差の符号を
出力することになるが、この視差符号は、図6からも判
るように、対象点P2と注視点P1との前後関係を反映し
ている。
Here, with respect to the selective wavelength λ (the reciprocal of the center frequency u s ) of the Gabor filter used, the position (x,
parallax δ (x, y) which is the amount of displacement on the image in y)
However, when (−λ / 2) <δ (x, y) <(λ / 2) (10), the phase difference between the left and right images corresponds to the parallax. Therefore, the phase difference code determiner 16 outputs the code of the parallax, and this parallax code reflects the front-back relationship between the target point P 2 and the gazing point P 1 , as can be seen from FIG. 6. ing.

【0031】すなわち、視差符号”0”は、対象点P2
と注視点P1が、ほぼ同程度の距離に存在することを示
し、視差符号”+”,”−”は、対象点P2が注視点P1
に対して、前方または後方に位置することを意味する
(但し、”+”と”−”のいずれが前方で、いずれが後
方を表すかは、撮像面上の座標軸の取り方によって変化
する)。従って、ガボアフィルタの出力値に対する
(7)式と(8)式の積和演算によって、対象点P2
おおまかな距離(奥行き)に関する情報を得ることがで
きる。
That is, the parallax code "0" is the target point P 2
And the gazing point P 1 are present at almost the same distance. For the parallax codes “+” and “−”, the target point P 2 is the gazing point P 1
On the other hand, it means to be located in front or rear (however, "+" or "-" represents front and which represents rear depends on how the coordinate axes on the imaging surface are taken). . Therefore, the information about the rough distance (depth) of the target point P 2 can be obtained by the product-sum calculation of the equations (7) and (8) for the output value of the Gabor filter.

【0032】図4に、本発明の他の実施例の構成を示
す。この実施例において、図1に示す実施例と対応する
部分には、同一の符号を付してある。この実施例におい
ては、カメラ10L,10Rにより出力された信号は、
A/D変換器11L,11Rによってデジタル化された
後、対応するフレームメモリ31L,31Rに保存され
る。
FIG. 4 shows the configuration of another embodiment of the present invention. In this embodiment, parts corresponding to those in the embodiment shown in FIG. 1 are designated by the same reference numerals. In this embodiment, the signals output by the cameras 10L and 10R are
After being digitized by the A / D converters 11L and 11R, they are stored in the corresponding frame memories 31L and 31R.

【0033】それぞれ振幅特性が等しく、位相特性の異
なる空間フィルタ12L1,13L1並びに12R1,
13R1は、図1の実施例と同様、(3)式および
(4)式に示すガボアフィルタの対を用いることができ
る。これらのフィルタで第1のチャンネルを構成する。
Spatial filters 12L1, 13L1 and 12R1, which have the same amplitude characteristic and different phase characteristics, respectively.
13R1 can use the pair of Gabor filters shown in the equations (3) and (4), as in the embodiment of FIG. These filters make up the first channel.

【0034】12L2,13L2並びに12R2,13
R2は、同様のフィルタ対であり、第2のチャンネルを
構成するが、第1のチャンネルよりも中心周波数の高い
ガボアフィルタを用いる。12L3,13L3並びに1
2R3,13R3は、さらに中心周波数の高いフィルタ
対で、第3のチャンネルを構成する。
12L2, 13L2 and 12R2, 13
R2 is a similar filter pair that constitutes the second channel but uses a Gabor filter with a higher center frequency than the first channel. 12L3, 13L3 and 1
2R3 and 13R3 are filter pairs having a higher center frequency and form a third channel.

【0035】第iチャンネルにおける空間フィルタ12
Li,13Li、並びに、空間フィルタ12Ri,13
Riは、対応するフレームメモリ31L,31Rに保存
された画像データを順次読み出してフィルタリング処理
を行い、外積算出器14と内積算出器15に出力する。
但し、第1チャンネルでは、フレームメモリ31L,3
1Rに必要なデータが格納され次第、フィルタリング処
理が開始されるが、第1チャンネル以外のチャンネルで
は、対応位置検出器32から送られてくるコントロール
信号cntlが、1つ前のチャンネルにおける処理の終
了を示した時点で、フィルタリング処理が開始される。
Spatial filter 12 in the i-th channel
Li, 13Li and spatial filters 12Ri, 13
The Ri sequentially reads the image data stored in the corresponding frame memories 31L and 31R, performs a filtering process, and outputs the image data to the outer product calculator 14 and the inner product calculator 15.
However, in the first channel, the frame memories 31L, 3
The filtering process starts as soon as the necessary data is stored in 1R, but in channels other than the first channel, the control signal cntl sent from the corresponding position detector 32 ends the process in the immediately preceding channel. The filtering process is started at the point of.

【0036】即ち、第2チャンネルの空間フィルタ12
L2,13L2,12R2,13R2は、第1チャンネ
ルの空間フィルタ12L1,13L1,12R1,13
R1の処理が完了した後、第3チャンネルの空間フィル
タ12L3,13L3,12R3,13R3は、第2チ
ャンネルの空間フィルタ12L2,13L2,12R
2,13R2の処理が完了した後、それぞれ処理を開始
する。
That is, the spatial filter 12 of the second channel
L2, 13L2, 12R2, 13R2 are spatial filters 12L1, 13L1, 12R1, 13 of the first channel.
After the processing of R1 is completed, the spatial filters 12L3, 13L3, 12R3, 13R3 of the third channel have the spatial filters 12L2, 13L2, 12R of the second channel.
After the processes of 2 and 13R2 are completed, the respective processes are started.

【0037】外積算出器14は、各チャンネルにおい
て、左右の画像に対するガボアフィルタ対の出力ベクト
ルの外積を、(11)式によって計算する。 op(x,y) =oLc(x,y)oRs(x'(x,y),y) −oLs(x,y)oRc(x'(x,y),y) ・・・(11)
The outer product calculator 14 calculates the outer product of the output vectors of the Gabor filter pair for the left and right images in each channel by the equation (11). op (x, y) = oLc (x, y) oRs (x '(x, y), y) -oLs (x, y) oRc (x' (x, y), y) ...・ (11)

【0038】また、内積算出器15は、各チャンネルに
おいて、左右画像に対するガボアフィルタ対の出力ベク
トルの内積を、(12)式によって計算する。 ip(x,y) =oLc(x,y)oRc(x'(x,y),y) +oLs(x,y)oRs(x'(x,y),y) ・・・(12)
Further, the inner product calculator 15 calculates the inner product of the output vectors of the Gabor filter pair for the left and right images in each channel by the expression (12). ip (x, y) = oLc (x, y) oRc (x '(x, y), y) + oLs (x, y) oRs (x' (x, y), y) ... (12)

【0039】ここで、(11)式と(12)式における
x'(x,y)は、左画像の位置(x,y)に対応する
右画像上の位置のx座標(直前のチャンネルのデータ処
理により得られた座標)を表しており、フレームメモリ
33に保存されている。フレームメモリ33のこの値
は、対応位置検出器32によって、より新しいチャンネ
ルのデータ処理が行われる毎に、更新されていく。但
し、その初期値は、x'(x,y)=xとなっている。
Here, x '(x, y) in the equations (11) and (12) is the x coordinate of the position on the right image corresponding to the position (x, y) on the left image (of the immediately preceding channel). The coordinates obtained by the data processing) are stored in the frame memory 33. This value in the frame memory 33 is updated each time the corresponding position detector 32 performs data processing on a newer channel. However, the initial value is x '(x, y) = x.

【0040】位相差符号判定器16は、(11)式と
(12)式の演算結果(外積算出器14と内積算出器1
5の出力)から、図1の実施例における場合と同様に、
(9)式で示した方法で、位相差符号を決定する。但
し、ここで得られる位相差符号は、図1の実施例におけ
る場合とは異なり、左画像における位置(x,y)と、
右画像における位置(x'(x,y),y)との間のも
のである(図1の実施例は、位置(x,y)と位置
(x,y)の間のものである)。対応位置検出器32
は、位相差符号検出器16によって得られた位相差符号
(0,+または−)から、左画像上の各位置に対応する
右画像上の位置を検出する。
The phase difference code decision unit 16 calculates the results of the equations (11) and (12) (the outer product calculator 14 and the inner product calculator 1).
5 output), as in the case of the embodiment of FIG.
The phase difference code is determined by the method shown in equation (9). However, the phase difference code obtained here is different from the case of the embodiment of FIG. 1 at the position (x, y) in the left image,
Between the position (x ′ (x, y), y) in the right image (the embodiment of FIG. 1 is between position (x, y) and position (x, y)). . Corresponding position detector 32
Detects the position on the right image corresponding to each position on the left image from the phase difference code (0, + or-) obtained by the phase difference code detector 16.

【0041】いま、第nチャンネルのガボアフィルタの
選択的波長をλnとし、(10)式の条件が成立してい
るものと仮定すると、得られた位相差符号が正である場
合には、実際の視差δ(x,y)は、 0<δ(x,y)<(λn/2) ・・・(13) の範囲にあると考えられる。このとき、左画像の位置
(x,y)に対応する右画像の位置のx座標xRは、 x<xR<x+(λn/2) ・・・(14) に存在することになる。そこで、(14)式で示された
範囲の中心の位置を、(15)式で示すように計算し、
これを対応候補位置として、フレームメモリ33の位置
(x,y)に保存する。 x'(x,y)=x+(λn/4) ・・・(15)
Now, assuming that the selective wavelength of the Gabor filter of the nth channel is λ n and the condition of the equation (10) is satisfied, when the obtained phase difference sign is positive, It is considered that the parallax δ (x, y) of is in the range of 0 <δ (x, y) <(λ n / 2) (13). At this time, the x-coordinate x R of the position of the right image corresponding to the position (x, y) of the left image is in the range of x <x R <x + (λ n / 2) (14) . Therefore, the position of the center of the range represented by the equation (14) is calculated as represented by the equation (15),
This is stored in the position (x, y) of the frame memory 33 as a correspondence candidate position. x '(x, y) = x + (λ n / 4) (15)

【0042】同様に、位相差符号が負(−)、またはゼ
ロ(0)の場合には、それぞれ、 x'(x,y)=x−(λn/4) (負の場合) ・・・(16) x'(x,y)=x (ゼロの場合) ・・・(17) を保存する。また、この処理が終了した時点で、第nチ
ャンネルの処理が終了したことを示すコントロール信号
cntlを出力する。
Similarly, when the phase difference sign is negative (-) or zero (0), x '(x, y) = x- (λ n / 4) (in the case of negative) ... -(16) x '(x, y) = x (when zero) ... (17) is stored. Further, when this processing is completed, the control signal cntl indicating that the processing of the nth channel is completed is output.

【0043】奥行き算出器34では、対応位置検出器3
2から出力されるコントロール信号cntlが、最も周
波数の高いチャンネルにおける処理が終了したことを示
した時点で、フレームメモリ33に保存された値を順次
読み出し、視差δ(x,y)を、(18)式のように計
算する。 δ(x,y)=x−x'(x,y) ・・・(18)
In the depth calculator 34, the corresponding position detector 3
When the control signal cntl output from 2 indicates that the process on the channel with the highest frequency is completed, the values stored in the frame memory 33 are sequentially read out, and the parallax δ (x, y) is set to (18 ) Calculate as δ (x, y) = x−x ′ (x, y) (18)

【0044】さらに、これを(19)式に代入して、注
視点P1に対する相対的な奥行きΔD(x,y)を算出
し、左画像上の位置(x,y)に対する距離情報とし
て、これを出力する。 ΔD(x,y)=δ(x,y)D2/ab ・・・(19) ここで、a,b,Dは、それぞれ、2台のカメラのレン
ズ間距離(a)、レンズと撮像面の距離(b)、レンズ
から注視点までの距離(D)であり、カメラの配置によ
って決まる定数である。
Further, by substituting this into the equation (19), the relative depth ΔD (x, y) with respect to the gazing point P 1 is calculated, and as distance information for the position (x, y) on the left image, Output this. ΔD (x, y) = δ (x, y) D 2 / ab (19) where a, b, and D are the lens-to-lens distances (a) of the two cameras, the lenses and the images, respectively. The surface distance (b) and the distance from the lens to the gazing point (D) are constants determined by the arrangement of the cameras.

【0045】ところで、(10)式からも明らかなよう
に、各チャンネルが扱うことのできる最大視差は、用い
たフィルタの選択的波長λに比例する。従って、広い範
囲の視差を検出するためには、選択周波数の低い(波長
の長い)チャンネルを用意する必要がある。
By the way, as is apparent from the equation (10), the maximum parallax that can be handled by each channel is proportional to the selective wavelength λ of the filter used. Therefore, in order to detect a wide range of parallax, it is necessary to prepare a channel with a low selection frequency (long wavelength).

【0046】一方、各チャンネルで得られる視差の情報
は、(13)式に示すような不等式で与えられ、曖昧性
を持っている。その曖昧さの程度は、用いるフィルタの
選択周波数が低い(波長が長い)ほど、大きくなる。そ
こで、図4の実施例では、(11)式と(12)式に示
すように、低周波数チャンネルから高周波数チャンネル
に視差情報を伝搬することによって、検出可能な視差範
囲と検出精度のトレードオフを解決している。
On the other hand, the parallax information obtained in each channel is given by an inequality as shown in equation (13) and has ambiguity. The degree of ambiguity increases as the selection frequency of the filter used is lower (the wavelength is longer). Therefore, in the embodiment of FIG. 4, as shown in Expressions (11) and (12), the parallax information is propagated from the low-frequency channel to the high-frequency channel, so that there is a trade-off between the detectable parallax range and the detection accuracy. Has been resolved.

【0047】図5に、視差がチャンネル間を伝搬される
様子の例を示す。この図では、簡単のために、画像を水
平方向の1次元のみで表している。図中、左側の波形が
左画像を、右側の波形が右画像を、それぞれ表してい
る。第1のチャンネルCH1では、左画像の位置x0に対
して、右画像上の同じ位置x0との位相差符号を検出す
る。これが正(+)である場合、(14)式に示したよ
うに、左画像のx0に対応する右画像上の位置は、斜線
で示した範囲(x0からx0+λ1/2までの範囲)に存
在することになる。そこで、この範囲の中心x1(=x0
+λ1/4)を、第2チャンネルCH2に送る。この処理
は、(15)式に従って、フレームメモリ33の
(x0,y)の位置に、x1を代入することに相当する。
FIG. 5 shows an example of how parallax is propagated between channels. In this figure, for simplicity, the image is represented by only one dimension in the horizontal direction. In the figure, the waveform on the left side represents the left image, and the waveform on the right side represents the right image. In the first channel CH 1 , the phase difference code between the position x 0 of the left image and the same position x 0 on the right image is detected. If this is a positive (+), as shown in equation (14), the position on the right image corresponding to x 0 of the left image is in the range (x 0 to x 0 + λ 1/2) indicated by the diagonal lines. Range). Therefore, the center of this range x 1 (= x 0
The + λ 1/4), sent to the second channel CH 2. This processing corresponds to substituting x 1 into the position (x 0 , y) of the frame memory 33 according to the equation (15).

【0048】第2のチャンネルCH2では、左画像のx0
に対して、右画像のx1との位相差符号を検出する。図
5は、この符号が負(−)であった場合を示しており、
斜線部分の中心x2(x0+λ1/8)を、第3のチャン
ネルCH3に送る。最後のチャンネルCH3では、左画像
のx0に対して右画像のx2との位相差符号を検出し、そ
の符号が示す範囲の中心を、左画像のx0に対応する右
画像上の位置とする。図5の例は、CH3で位相差符号
0が検出されたことを表しており、従って、右画像にお
けるx2が左画像のx0に対応することになる。
On the second channel CH 2 , x 0 of the left image
On the other hand, the phase difference code from x 1 of the right image is detected. FIG. 5 shows a case where this sign is negative (-),
The center of the hatched portion x 2 a (x 0 + λ 1/8 ), and sends to the third channel CH 3. In the last channel CH 3 , a phase difference code between x 0 of the left image and x 2 of the right image is detected, and the center of the range indicated by the code is detected on the right image corresponding to x 0 of the left image. Position. The example of FIG. 5 shows that the phase difference code 0 is detected in CH 3 , and therefore x 2 in the right image corresponds to x 0 in the left image.

【0049】尚、本発明はこれらの実施例に限られるも
のではなく、例えば、図4の実施例において、3つ以上
のチャンネルを用意することもできる。また、フレーム
メモリ31L,31Rを、各空間フィルタ(12Li,
13Li,12Ri,13Ri)の後段に配置し、フィ
ルタリング処理の出力を保存するようにすることもでき
る。この場合、各チャンネルに対して2枚ずつ(左右1
枚ずつ)のフレームメモリが必要となるが、全てのフィ
ルタリング処理が並列に行われるため、最終的な視差を
検出するまでの時間を大幅に短縮することができる。
The present invention is not limited to these embodiments, and for example, in the embodiment of FIG. 4, three or more channels can be prepared. Further, the frame memories 31L and 31R are connected to the respective spatial filters (12Li,
13Li, 12Ri, 13Ri) may be placed after the output of the filtering process. In this case, 2 for each channel (1 for left and right)
Although a frame memory for each frame is required, all the filtering processes are performed in parallel, so the time until the final parallax is detected can be significantly shortened.

【0050】[0050]

【発明の効果】以上説明したように、本発明によれば、
左右の第1と第2の画像は、それぞれ異なる位相特性で
フィルタリング処理され、各フィルタリング処理の出力
の外積および内積が演算されて位相差および位相差符号
が判定され、その判定結果に基づいて視差が算出されて
距離に変換される。各フィルタリング処理出力を組み合
わせることによって、左右画像の位相差の符号が検出さ
れ、対象物体が、注視点に対して前方にあるのか、後方
にあるのかの距離情報(奥行き情報)が得られる。
As described above, according to the present invention,
The left and right first and second images are filtered with different phase characteristics and output from each filtering process.
Outer product and inner product of are calculated to obtain phase difference and phase difference code
Is determined and the parallax is calculated based on the determination result.
Converted to distance . By combining the outputs of the respective filtering processes, the sign of the phase difference between the left and right images is detected, and distance information (depth information) indicating whether the target object is in front of or behind the gazing point is obtained.

【0051】また、異なる周波数帯域の複数のチャンネ
ルに分割した場合においては、各チャンネルで得られた
位相差符号を組み合わせることによって、左右の画像の
視差が算出され、視差に対応する距離(ΔD)が計算さ
れる。
When divided into a plurality of channels of different frequency bands, the parallax between the left and right images is calculated by combining the phase difference codes obtained in each channel, and the distance (ΔD) corresponding to the parallax is calculated. Is calculated.

【0052】従って、正確かつ迅速に、距離情報が得ら
れる。
Therefore, distance information can be obtained accurately and quickly.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の距離演算装置の第1の実施例の構成を
示すブロック図である。
FIG. 1 is a block diagram showing a configuration of a first embodiment of a distance calculation device of the present invention.

【図2】図1の空間フィルタ12L,13Lおよび空間
フィルタ12R,13Rの出力を説明する図である。
FIG. 2 is a diagram illustrating outputs of spatial filters 12L and 13L and spatial filters 12R and 13R of FIG.

【図3】図1の外積算出器14と内積算出器15の出力
の関係を説明する図である。
FIG. 3 is a diagram illustrating a relationship between outputs of an outer product calculator 14 and an inner product calculator 15 of FIG.

【図4】本発明の距離演算装置の第2の実施例の構成を
示すブロック図である。
FIG. 4 is a block diagram showing a configuration of a second embodiment of the distance calculation device of the present invention.

【図5】図4の実施例における3つのチャンネルの空間
フィルタの動作を説明する図である。
FIG. 5 is a diagram for explaining the operation of the spatial filter of three channels in the embodiment of FIG.

【図6】両眼立体視の原理を示す図である。FIG. 6 is a diagram showing the principle of binocular stereoscopic vision.

【符号の説明】[Explanation of symbols]

10L,10R カメラ 11L,11R A/D変換器 12L,12R,13L,13R 空間フィルタ 14 外積算出器 15 内積算出器 16 位相差符号判定器 31L,31R フレームメモリ 32 対応位置検出器 33 フレームメモリ 34 奥行き算出器 10L, 10R camera 11L, 11R A / D converter 12L, 12R, 13L, 13R Spatial filter 14 Outer product calculator 15 Inner product calculator 16 Phase difference code determiner 31L, 31R frame memory 32 Compatible position detector 33 frame memory 34 Depth calculator

───────────────────────────────────────────────────── フロントページの続き (58)調査した分野(Int.Cl.7,DB名) G01C 3/00 - 3/32 G01B 11/00 - 11/30 102 G02B 7/28 - 7/40 G03B 13/32 - 13/36 G06T 1/00 - 9/40 ─────────────────────────────────────────────────── ─── Continuation of front page (58) Fields surveyed (Int.Cl. 7 , DB name) G01C 3/00-3/32 G01B 11/00-11/30 102 G02B 7 /28-7/40 G03B 13 / 32-13/36 G06T 1/00-9/40

Claims (3)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 水平方向に所定の距離だけ離れて配置さ
れた第1の撮像装置と第2の撮像装置により対象物体を
撮像して得た第1の画像と第2の画像から、前記対象物
体に関する距離情報を求める距離演算装置において、 前記第1の画像のデータをフィルタリング処理する、振
幅特性が等しく、かつ、位相特性が異なる複数の空間フ
ィルタからなる第1のフィルタリング手段と、 前記第2の画像のデータをフィルタリング処理する、振
幅特性が等しく、かつ、位相特性が異なる複数の空間フ
ィルタからなる第2のフィルタリング手段と、 前記第1のフィルタリング手段の出力と第2のフィルタ
リング手段の出力の外積を演算する外積演算手段と、 前記第1のフィルタリング手段の出力と第2のフィルタ
リング手段の出力の内積を演算する内積演算手段と、 前記外積演算手段の出力と内積演算手段の出力から、前
記第1の画像と第2の画像の位相差および位相差符号を
判定する判定手段と、 前記判定手段により判定された前記位相差および位相差
符号から、前記第1の画像と第2の画像の視差を算出
し、その視差を距離に変換する変換手段と を備えること
を特徴とする距離演算装置。
1. The object is obtained from a first image and a second image obtained by imaging a target object with a first imaging device and a second imaging device which are arranged apart from each other in a horizontal direction by a predetermined distance. In a distance calculation device that obtains distance information about an object, a first filtering unit configured to perform a filtering process on the data of the first image, the first filtering unit including a plurality of spatial filters having equal amplitude characteristics and different phase characteristics; A second filtering unit configured to perform a filtering process on the data of the image, the spatial filter having a same amplitude characteristic and different phase characteristics, and an output of the first filtering unit and an output of the second filtering unit . Outer product calculating means for calculating an outer product, an output of the first filtering means, and a second filter
From the inner product calculating means for calculating the inner product of the outputs of the ring means and the output of the outer product calculating means and the output of the inner product calculating means,
Note that the phase difference and phase difference code between the first and second images are
Determination means for determining, and the phase difference and the phase difference determined by the determination means
Calculate the parallax between the first image and the second image from the code
And a conversion unit that converts the parallax into a distance .
【請求項2】 前記第1のフィルタリング手段と第2の
フィルタリング手段は、それぞれ異なる周波数帯域の複
数のチャンネルに分割され、前記チャンネル毎に、前記第 1 の画像の注視点に対応す
る前記第2の画像の位置座標を、そのチャンネルに対応
する波長と前記位相差符号から算出する対応位置検出手
段と、 前記位置検出手段により算出された前記位置座標を記録
する記録手段とをさらに備え、 前記変換手段は、前記第1の画像の注視点に対応する座
標と前記第2の画像の位置座標から視差を算出し、その
視差を距離に変換する ことを特徴とする請求項1に記載
の距離演算装置。
2. The first filtering means and the second filtering means are divided into a plurality of channels each having a different frequency band, and each channel corresponds to a gazing point of the first image.
Corresponding position coordinates of the second image to the channel
Corresponding position detection hand calculated from the wavelength and the phase difference code
And the position coordinates calculated by the position detecting means are recorded.
Further comprising a recording means for converting the position of the first image into the position corresponding to the gazing point of the first image.
The parallax is calculated from the position coordinates of the target and the second image,
The distance calculation device according to claim 1, wherein the parallax is converted into a distance.
【請求項3】 水平方向に所定の距離だけ離れて配置さ
れた第1の撮像装置と第2の撮像装置により対象物体を
撮像して得た第1の画像と第2の画像から、前記対象物
体に関する距離情報を求める距離演算装置の距離演算方
法において、 前記第1の画像のデータをフィルタリング処理する、振
幅特性が等しく、かつ、位相特性が異なる複数の空間フ
ィルタからなる第1のフィルタリングステップと、 前記第2の画像のデータをフィルタリング処理する、振
幅特性が等しく、かつ、位相特性が異なる複数の空間フ
ィルタからなる第2のフィルタリングステップと、 前記第1のフィルタリングステップの処理による出力と
第2のフィルタリングステップの処理による出力の外積
を演算する外積演算ステップと、 前記第1のフィルタリングステップの処理による出力と
第2のフィルタリングステップの処理による出力の内積
を演算する内積演算ステップと、 前記外積演算ステップの処理による出力と内積演算ステ
ップの処理による出力から、前記第1の画像と第2の画
像の位相差および位相差符号を判定する判定ステップ
と、 前記判定ステップの処理により判定された前記位相差お
よび位相差符号から、前記第1の画像と第2の画像の視
差を算出し、その視差を距離に変換する変換ステップと
を含むことを特徴とする距離演算方法。
3. Arranged horizontally at a predetermined distance.
The target object by the first image pickup device and the second image pickup device
From the first image and the second image obtained by imaging, the object
Distance calculation method of distance calculation device for obtaining distance information about body
Method, filtering the data of the first image,
Multiple space frames with equal width characteristics but different phase characteristics
A first filtering step comprising a filter, and a filtering process for filtering the data of the second image.
Multiple space frames with equal width characteristics but different phase characteristics
A second filtering step consisting of a filter and an output from the processing of the first filtering step.
Outer product of outputs from the processing of the second filtering step
And product computation step of computing an output by the processing of said first filtering step
Inner product of outputs from the processing of the second filtering step
And the output and inner product calculation step by the processing of the outer product calculation step.
From the output of the first processing and the second image.
Determination step for determining the phase difference and the phase difference sign of the image
And the phase difference determined by the processing in the determination step.
And the phase difference code, the first image and the second image are viewed.
A conversion step of calculating a difference and converting the parallax into a distance;
A method of calculating a distance, comprising:
JP17818894A 1994-07-29 1994-07-29 Distance calculation device and method Expired - Fee Related JP3503121B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP17818894A JP3503121B2 (en) 1994-07-29 1994-07-29 Distance calculation device and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP17818894A JP3503121B2 (en) 1994-07-29 1994-07-29 Distance calculation device and method

Publications (2)

Publication Number Publication Date
JPH0843081A JPH0843081A (en) 1996-02-16
JP3503121B2 true JP3503121B2 (en) 2004-03-02

Family

ID=16044142

Family Applications (1)

Application Number Title Priority Date Filing Date
JP17818894A Expired - Fee Related JP3503121B2 (en) 1994-07-29 1994-07-29 Distance calculation device and method

Country Status (1)

Country Link
JP (1) JP3503121B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101353860B1 (en) * 2012-07-25 2014-01-23 전주대학교 산학협력단 Method, system and computer-readable recording medium for guiding a person who is visually impaired using multiview camera equipped parallel image filtering module

Also Published As

Publication number Publication date
JPH0843081A (en) 1996-02-16

Similar Documents

Publication Publication Date Title
US5719954A (en) Stereo matching method and disparity measuring method
US5867591A (en) Method of matching stereo images and method of measuring disparity between these image
KR20050002612A (en) Depth measuring method and depth measuring apparatus
Watanabe et al. Real-time computation of depth from defocus
JPH0843055A (en) Method and apparatus for recognizing shape of three dimensional object
CN105261061A (en) Method and device for identifying redundant data
JP3503121B2 (en) Distance calculation device and method
JP3540005B2 (en) Obstacle detection device
JP2009092551A (en) Method, apparatus and system for measuring obstacle
KR101995344B1 (en) A dual depth camera module without blind spot
WO2013069453A1 (en) Image processing apparatus and image processing method
JPH11125522A (en) Image processor and method
JP2001108434A (en) Method and apparatus for measuring distance
JP2000028355A (en) Three-dimensional image processing device
JP2001356010A (en) Three-dimensional shape measuring apparatus
JPH03238566A (en) Vanishing point detection device
JPH07159167A (en) Calculation of camera position
JP3060114B2 (en) Corresponding point search method
CN108332709A (en) distance measuring device and distance measuring method
JP3155087B2 (en) Distance measurement method
JP3830174B2 (en) Distance measuring device
JP3396950B2 (en) Method and apparatus for measuring three-dimensional shape
JP2002163639A (en) Device and method for restoring three-dimensional information
JPH05231822A (en) Stereoscopic picture processing method
JP3145831B2 (en) Image processing method

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20031117

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20031130

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071219

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081219

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091219

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091219

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101219

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111219

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111219

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121219

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121219

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131219

Year of fee payment: 10

LAPS Cancellation because of no payment of annual fees