JPH0843081A - Distance calculating device - Google Patents

Distance calculating device

Info

Publication number
JPH0843081A
JPH0843081A JP6178188A JP17818894A JPH0843081A JP H0843081 A JPH0843081 A JP H0843081A JP 6178188 A JP6178188 A JP 6178188A JP 17818894 A JP17818894 A JP 17818894A JP H0843081 A JPH0843081 A JP H0843081A
Authority
JP
Japan
Prior art keywords
image
phase difference
filtering
sign
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP6178188A
Other languages
Japanese (ja)
Other versions
JP3503121B2 (en
Inventor
Masami Ogata
昌美 緒形
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP17818894A priority Critical patent/JP3503121B2/en
Publication of JPH0843081A publication Critical patent/JPH0843081A/en
Application granted granted Critical
Publication of JP3503121B2 publication Critical patent/JP3503121B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)

Abstract

PURPOSE:To rapidly and accurately obtain distance information. CONSTITUTION:The left and right images of a target object are obtained by cameras 10L and 10R. With the left image data, the signal component at the frequency band is separated by space filters 12L and 13L where phase characteristics differ from each other by pi2 and are outputted to an outer product calculator 14 and an inner product calculator 15. Similarly, the right image data are processed by space filters 12R and 13R and the output is outputted to the outer product calculator 14 and the inner product calculator 15. The outer product calculator 14 and the inner product calculator 15 calculate the output product and inner product and then output the operation result to a phase difference sign judging equipment 16. The phase difference sign judging equipment 16 judges the sign of the phase difference of both input signals. By judging whether the sign is positive, negative, or zero, distance information indicating whether a target object is located at a further position, near position, or at a reference position can be obtained.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、ロボットアイなどにお
いて、距離情報、特に奥行き情報を得る場合に用いて好
適な距離演算装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a distance calculation device suitable for use in obtaining distance information, particularly depth information, in a robot eye or the like.

【0002】[0002]

【従来の技術】カメラなどの画像入力装置によって撮影
された2次元画像から、対象物体までの距離を計算する
方法として、両眼立体視法が知られている。図6に、両
眼立体視の原理を示す。同図は、カメラと対象物体(こ
の場合は、対象点)の位置関係を上方から見た状態を表
している。LL,LRは、水平方向に所定の距離だけ離れ
て配置されたカメラのレンズを、また、IL,IRは、そ
の左右のカメラの撮像面を、それぞれ表す。fL,f
Rは、撮像面IL,IRの中心であり、各撮像面IL,IR
上の位置は、これらの中心位置fL,fRからの距離によ
って表される。
2. Description of the Related Art Binocular stereoscopic vision is known as a method for calculating the distance to a target object from a two-dimensional image taken by an image input device such as a camera. FIG. 6 shows the principle of binocular stereoscopic vision. The figure shows a state in which the positional relationship between the camera and the target object (the target point in this case) is viewed from above. L L and L R represent the lenses of the cameras arranged at a predetermined distance in the horizontal direction, and I L and I R represent the imaging surfaces of the left and right cameras, respectively. f L , f
R is an imaging plane I L, a center of the I R, the imaging plane I L, I R
The upper position is represented by the distance from these center positions f L and f R.

【0003】また、中心位置fL,fRを通り、各撮像面
L,IRに垂直な直線TLとTRの交点をP1とし、これ
を注視点と呼ぶ。このとき、撮像面IL,IRからの距離
が注視点P1とは異なる対象点P2の像は、各撮像面
L,IRにおいて異なる位置に生じる。このように、注
視点P1との距離の違いによって、左右の画像に生じる
像の水平方向の位置ずれを視差と呼ぶ。視差の量δは、
1とP2の距離がそれほど大きくないという条件の下で
は次のように近似できる。 δ≒b(β1−β2)=b(α2−α1) ≒abΔD/D2 ・・・(1)
An intersection of straight lines T L and T R passing through the center positions f L and f R and perpendicular to the image pickup planes I L and I R is defined as P 1 and is called a gazing point. In this case, the imaging plane I L, images of different target point P 2 is the distance from the I R and gaze point P 1, each imaging plane I L, occur at different positions in the I R. As described above, the positional deviation of the images in the horizontal direction caused by the difference in distance from the gazing point P 1 is called parallax. The parallax amount δ is
Under the condition that the distance between P 1 and P 2 is not so large, it can be approximated as follows. δ≈b (β 1 −β 2 ) = b (α 2 −α 1 ) ≈ab ΔD / D 2 (1)

【0004】ここで、aは2つのカメラのレンズLL
Rの距離、bは各レンズLL,LRと撮像面IL,IR
距離、DはレンズLL,LRから注視点P1までの奥行き
方向の距離、ΔDは注視点P1から対象点P2までの奥行
き方向の距離を表す。a,b,Dは、カメラの配置によ
って決まるため、その配置が既知であれば、視差は、注
視点P1から対象点P2までの距離ΔDの関数となる。従
って、左右の画像情報から視差δを検出することができ
れば、対象点P2の注視点P1からの距離ΔDを、次式か
ら求めることができる。 ΔD=δD2/ab ・・・(2)
Here, a is the distance between the lenses L L and L R of the two cameras, b is the distance between the respective lenses L L and L R and the imaging planes I L and I R , and D is from the lenses L L and L R. gazing point in the depth direction of the distance to P 1, [Delta] D is the distance in the depth direction from the gaze point P 1 to the target point P 2. Since a, b, and D are determined by the placement of the camera, if the placement is known, the parallax is a function of the distance ΔD from the gazing point P 1 to the target point P 2 . Therefore, if the parallax δ can be detected from the left and right image information, the distance ΔD of the target point P 2 from the gazing point P 1 can be obtained from the following equation. ΔD = δD 2 / ab (2)

【0005】従来、両眼視差の検出は、2つの画像にお
いて対応する対象点を検索することによって行われてお
り、この対応付けを行う方法としては、相互相関法や特
徴点マッチング法が知られている。
Conventionally, binocular parallax is detected by searching for corresponding points in two images. As a method of making this correspondence, a cross-correlation method and a feature point matching method are known. ing.

【0006】相互相関法は、左右の画像の間で、局所的
な輝度変化の類似性、即ち、相関値が最も高い位置同士
を対応付けるものである。一方、特徴点マッチング法
は、エッジのような物理的事象に対応する特徴点を予め
左右の画像から抽出しておき、それらの間で対応付けを
行うものである。
[0006] The cross-correlation method associates the left and right images with the similarity in local luminance change, that is, the position with the highest correlation value. On the other hand, in the feature point matching method, feature points corresponding to a physical phenomenon such as an edge are extracted from the left and right images in advance, and the feature points are associated with each other.

【0007】[0007]

【発明が解決しようとする課題】しかしながら、相互相
関法は、輝度変化の類似性を用いるものであるため、ノ
イズに弱く、レンズなどによる画像の歪や、左右のカメ
ラ間における照明条件などの違い、さらに、相関関数を
計算する小領域内における視差勾配などに起因して、誤
差が発生する課題がある。
However, since the cross-correlation method uses the similarity of the luminance change, it is weak against noise, and the distortion of the image due to the lens or the like, the difference in the illumination condition between the left and right cameras, and the like. Further, there is a problem that an error occurs due to a parallax gradient or the like in a small area for calculating a correlation function.

【0008】また、特徴点マッチング法では、どのよう
な特徴を用いるかが計算精度に大きく影響を与える。視
差は、特徴点が存在する位置でしか計算できないため、
多くの場所で視差を得るためには、画像中に高い頻度で
出現するような特徴を用いる必要があるが、この場合、
多くの対応候補が発生するため、正しく対応付けを行う
ことが困難となる。
Further, in the feature point matching method, what kind of feature is used has a great influence on the calculation accuracy. The parallax can be calculated only at the positions where the feature points exist, so
In order to obtain parallax in many places, it is necessary to use features that appear frequently in the image, but in this case,
Since many correspondence candidates are generated, it is difficult to perform correct correspondence.

【0009】また、これらの方法では、対応する可能性
のある全ての点の組み合わせに対して、何らかの評価関
数を計算する必要があり、本質的に多くの計算時間を必
要とする。
Further, in these methods, it is necessary to calculate some kind of evaluation function for all combinations of points that may correspond, which requires a substantial amount of calculation time.

【0010】本発明はこのような状況に鑑みてなされた
ものであり、誤差の発生を抑制し、迅速かつ正確に、距
離情報が得られるようにするものである。
The present invention has been made in view of such a situation, and it is an object of the present invention to suppress the occurrence of an error and to obtain distance information quickly and accurately.

【0011】[0011]

【課題を解決するための手段】本発明の距離演算装置
は、水平方向に所定の距離だけ離れて配置された第1の
撮像装置と第2の撮像装置により対象物体を撮像して得
た第1の画像と第2の画像から、対象物体に関する距離
情報を求める距離演算装置において、第1の画像のデー
タをフィルタリング処理する、振幅特性が等しく、か
つ、位相特性が異なる複数の空間フィルタからなる第1
のフィルタリング手段(例えば図1の空間フィルタ12
L,13L)と、第2の画像のデータをフィルタリング
処理する、振幅特性が等しく、かつ、位相特性が異なる
複数の空間フィルタからなる第2のフィルタリング手段
(例えば図1の空間フィルタ12R,13R)と、第1
のフィルタリング手段の出力と第2のフィルタリング手
段の出力から、第1の画像と第2の画像の位相差の符号
を判定する判定手段(例えば図1の外積算出器14、内
積算出器15、位相差符号判定器16)とを備えること
を特徴とする。
A distance calculation device of the present invention is a first image pickup device obtained by picking up an image of a target object by a first image pickup device and a second image pickup device which are horizontally separated from each other by a predetermined distance. In a distance calculation device that obtains distance information about a target object from a first image and a second image, the distance calculation device includes a plurality of spatial filters that perform a filtering process on the data of the first image and have equal amplitude characteristics and different phase characteristics. First
Filtering means (for example, the spatial filter 12 of FIG. 1)
L, 13L) and a second filtering means (for example, the spatial filters 12R and 13R in FIG. 1) configured to perform a filtering process on the data of the second image, the spatial filtering having a same amplitude characteristic and different phase characteristics. And the first
Determination means for determining the sign of the phase difference between the first image and the second image from the output of the filtering means and the output of the second filtering means (for example, the outer product calculator 14 and the inner product calculator 15 in FIG. 1). , And a phase difference code determiner 16).

【0012】この距離演算装置は、第1のフィルタリン
グ手段と第2のフィルタリング手段が、それぞれ異なる
周波数帯域の複数のチャンネルに分割され、判定手段
が、各チャンネル毎に、第1の画像と第2の画像の位相
差の符号を判定する場合、各チャンネルの位相差の符号
から、第1の画像と第2の画像の視差を求め、視差を距
離に変換する変換手段(例えば図4の奥行き算出器3
4)をさらに設けることができる。
In this distance calculation device, the first filtering means and the second filtering means are divided into a plurality of channels of different frequency bands, and the judging means determines the first image and the second image for each channel. In the case of determining the sign of the phase difference between the images, the parallax between the first image and the second image is obtained from the sign of the phase difference of each channel, and a conversion unit that converts the parallax into a distance (for example, depth calculation in FIG. 4). Bowl 3
4) can be further provided.

【0013】判定手段には、より低い周波数のチャンネ
ルの位相差の符号を利用して、より高い周波数の位相差
の符号の処理を行わせるようにすることができる。
The determination means may utilize the sign of the phase difference of the lower frequency channel to process the sign of the phase difference of the higher frequency.

【0014】第1および第2のフィルタリング手段の空
間フィルタは、空間的に局所性を有する空間フィルタと
することができる。
The spatial filters of the first and second filtering means may be spatially local spatial filters.

【0015】第1のフィルタリング手段と第2のフィル
タリング手段の空間フィルタは、同一の所定の空間周波
数を通過帯域の中心周波数とし、位相特性がπ/2だけ
異なる1対のバンドパスフィルタを含むようにすること
ができる。
The spatial filters of the first filtering means and the second filtering means include a pair of bandpass filters having the same predetermined spatial frequency as the center frequency of the pass band and different in phase characteristic by π / 2. Can be

【0016】判定手段には、第1のフィルタリング手段
の出力と第2のフィルタリング手段の出力を積和演算し
て、第1の画像と第2の画像の位相差の符号を判定させ
ることができる。
The determination means can determine the sign of the phase difference between the first image and the second image by multiplying and summing the output of the first filtering means and the output of the second filtering means. .

【0017】判定手段は、第1のフィルタリング手段の
出力と第2のフィルタリング手段の出力の外積を演算す
る外積演算手段(例えば図1の外積算出器14)と、第
1のフィルタリング手段の出力と第2のフィルタリング
手段の出力の内積を演算する内積演算手段(例えば図1
の内積算出器15)と、外積演算手段と内積演算手段の
出力から、第1の画像と第2の画像の位相差の符号を判
定する位相差符号判定手段(例えば図1の位相差符号判
定器16)とにより構成することができる。
The determining means is an outer product calculating means (for example, the outer product calculator 14 in FIG. 1) for calculating the outer product of the output of the first filtering means and the output of the second filtering means, and the output of the first filtering means. And an inner product calculating means for calculating an inner product of the outputs of the second filtering means (for example, FIG.
Inner product calculator 15) and the output of the outer product calculating means and the inner product calculating means to determine the sign of the phase difference between the first image and the second image (for example, the phase difference code in FIG. 1). It can be configured with the judgment device 16).

【0018】[0018]

【作用】上記構成においては、左右の第1と第2の画像
は、それぞれ位相特性の異なる空間フィルタによりフィ
ルタリング処理されて、位相情報が抽出される。各フィ
ルタリング処理出力を組み合わせることによって、左右
画像の位相差の符号が検出され、対象物体が、注視点に
対して前方にあるか、後方にあるかの距離情報が、正確
かつ迅速に得られる。
In the above structure, the left and right first and second images are filtered by spatial filters having different phase characteristics to extract phase information. By combining the outputs of the respective filtering processes, the sign of the phase difference between the left and right images is detected, and the distance information indicating whether the target object is in front of or behind the gazing point can be accurately and quickly obtained.

【0019】[0019]

【実施例】図1に、本発明の距離演算装置の一実施例の
構成を示す。10L,10Rは画像入力用のカメラであ
り、水平方向に所定の距離だけ離れた位置に配置され
る。11L,11RはA/D変換器であり、各カメラ1
0L,10Rからの信号をデジタル化する。12Lと1
3L、12Rと13Rは、それぞれ振幅特性が等しく、
位相特性の異なる空間フィルタである。このような空間
フィルタとしては、例えば(3)式(空間フィルタ12
L,12R)、および(4)式(空間フィルタ13L,
13R)に示すガボアフィルタの対を用いることができ
る。 gc(x,y) =exp[−(x/σ)2]cos(2πusx)exp[−(y/σ)2] ・・・(3) gs(x,y) =exp[−(x/σ)2]sin(2πusx)exp[−(y/σ)2] ・・・(4)
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS FIG. 1 shows the configuration of an embodiment of the distance calculating device of the present invention. Reference numerals 10L and 10R denote image input cameras, which are arranged at positions separated by a predetermined distance in the horizontal direction. 11L and 11R are A / D converters, and each camera 1
The signals from 0L and 10R are digitized. 12L and 1
3L, 12R and 13R have the same amplitude characteristics,
The spatial filters have different phase characteristics. As such a spatial filter, for example, formula (3) (spatial filter 12
L, 12R) and equation (4) (spatial filter 13L,
13R), a pair of Gabor filters can be used. g c (x, y) = exp [-(x / σ) 2 ] cos (2πu s x) exp [-(y / σ) 2 ] (3) g s (x, y) = exp [ − (X / σ) 2 ] sin (2πu s x) exp [− (y / σ) 2 ] ... (4)

【0020】(3)式と(4)式は、2次元のガボアフ
ィルタと呼ばれるもので、水平方向(x方向)は、ガウ
ス関数とコサインまたはサイン関数との積であり、垂直
方向(y方向)は、ガウス関数となっている。これら
は、x,y両方向のガウス関数によって、その広がりを
表す任意の定数σに応じた空間的な局所性が与えられて
いる。即ち、ガウス関数により、所定の座標点(x,
y)の近傍のデータのみを、実質的に抽出することがで
きるようになされている。
Equations (3) and (4) are called two-dimensional Gabor filters, and the horizontal direction (x direction) is the product of the Gaussian function and the cosine or sine function, and the vertical direction (y direction). Is a Gaussian function. These are given a spatial locality according to an arbitrary constant σ representing the spread by a Gaussian function in both x and y directions. That is, by the Gaussian function, the predetermined coordinate point (x,
Only the data in the vicinity of y) can be substantially extracted.

【0021】また、周波数面上でも局所性を持ってお
り、周波数(us,0)を中心とした帯域通過型フィル
タになっている(x軸方向は、周波数usを中心周波数
とする帯域通過フィルタとなっているが、y軸方向は、
低域通過フィルタとなっている)。従って、これらのフ
ィルタは、局所領域において、水平方向に周波数us
変化する成分を抽出する。但し、(3)式と(4)式の
フィルタは、その位相特性がπ/2だけ異なっている。
このようなガボアフィルタ対は、右画像用(12R,1
3R)と左画像用(12L,13L)の2組が用意され
ている。
Further, it has locality on the frequency plane as well, and is a band-pass filter centered on the frequency (u s , 0) (in the x-axis direction, a band whose center frequency is the frequency u s). It is a pass filter, but in the y-axis direction,
It is a low pass filter). Therefore, these filters extract components that vary horizontally at frequency u s in the local region. However, the filters of formulas (3) and (4) differ in phase characteristics by π / 2.
Such a pair of Gabor filters is used for the right image (12R, 1
3R) and two sets for left image (12L, 13L) are prepared.

【0022】ここで、ある位置(x,y)におけるガボ
アフィルタgc(x,y)、およびgs(x,y)の出力
値は、位置(x,y)を中心とした局所的な輝度変化の
関数cos(2πusx)とsin(2πusx)への射影成分
とみなすことができる。そこで、各画像に対するガボア
フィルタ対の出力を、図2に示すような2次元ベクトル PL(x,y)=(oLc(x,y),oLs(x,y)) ・・・(5) PR(x,y)=(oRc(x,y),oRs(x,y)) ・・・(6) と考え、これらを出力ベクトルと呼ぶことにする。
Here, the output values of the Gabor filters g c (x, y) and g s (x, y) at a certain position (x, y) are the local luminance centered at the position (x, y). It can be regarded as a projective component to the change functions cos (2πu s x) and sin (2πu s x). Therefore, the output of the Gabor filter pair for each image, two-dimensional vector P L as shown in FIG. 2 (x, y) = ( o Lc (x, y), o Ls (x, y)) ··· (5 ) P R (x, y) = (o Rc (x, y), o Rs (x, y)) (6), and these are called output vectors.

【0023】oLc,oLsは、左画像に対するガボアフィ
ルタgc(x,y),gs(x,y)(空間フィルタ12
L,13L)の出力値、oRc,oRsは、右画像に対する
ガボアフィルタgc(x,y),gs(x,y)(空間フ
ィルタ12R,13R)の出力値である。各出力ベクト
ルが水平軸となす角度θL,θRは、それぞれ対応する画
像上の位置(x,y)におけるx軸方向に沿った輝度波
形の位相と考えられる。
O Lc and o Ls are Gabor filters g c (x, y) and g s (x, y) (spatial filter 12) for the left image.
L, 13L) output values o Rc , o Rs are output values of the Gabor filters g c (x, y), g s (x, y) (spatial filters 12R, 13R) for the right image. The angles θ L and θ R that each output vector makes with the horizontal axis are considered to be the phases of the luminance waveform along the x-axis direction at the corresponding position (x, y) on the image.

【0024】外積算出器14は、各ガボアフィルタ(空
間フィルタ12L,12R,13L,13R)の出力値
から、左右の画像の出力ベクトルの外積を、次式によっ
て計算する。 op(x,y) =oLc(x,y)oRs(x,y)−oLs(x,y)oRc(x,y) ・・・(7)
The outer product calculator 14 calculates the outer product of the output vectors of the left and right images from the output values of the Gabor filters (spatial filters 12L, 12R, 13L, 13R) by the following equation. op (x, y) = oLc (x, y) oRs (x, y) -oLs (x, y) oRc (x, y) (7)

【0025】正確には外積はベクトルであるが、ここで
は、(7)式に示すスカラー量であるop(x,y)
を、外積と呼ぶことにする。
To be precise, the outer product is a vector, but here, it is the scalar quantity op (x, y) shown in the equation (7).
Will be referred to as the cross product.

【0026】内積算出器15は、各ガボアフィルタ(空
間フィルタ12L,12R,13L,13R)の出力値
から、左右の画像の出力ベクトルの内積を、次式によっ
て計算する。 ip(x,y) =oLc(x,y)oRc(x,y)+oLs(x,y)oRs(x,y) ・・・(8)
The inner product calculator 15 calculates the inner product of the output vectors of the left and right images from the output values of the Gabor filters (spatial filters 12L, 12R, 13L, 13R) by the following equation. ip (x, y) = oLc (x, y) oRc (x, y) + oLs (x, y) oRs (x, y) (8)

【0027】外積op(x,y)と内積ip(x,y)
の値は、いずれも2つの出力ベクトルPL(x,y),
R(x,y)がなす角度、即ち、左右画像の位相差
(θR−θL)に応じて変化する。図3は、位相差(θR
−θL)に対する外積op(x,y)と内積ip(x,
y)の関係を示す。
Outer product op (x, y) and inner product ip (x, y)
Are two output vectors P L (x, y),
It changes according to the angle formed by P R (x, y), that is, the phase difference (θ R −θ L ) between the left and right images. Figure 3 shows the phase difference (θ R
Outer product op (x, y) and the inner product ip (x against - [theta] L),
The relationship of y) is shown.

【0028】位相差符号判定器16は、図3に示す外積
op(x,y)と内積ip(x,y)の大小関係を考慮
して、次のように、位相差の符号psgn(x,y)を
判定し、これを出力する。 if(ip(x,y)>|op(x,y)|) then psgn(x,y)←0 else if(op(x,y)>0) then psgn(x,y)←+ else psgn(x,y)←− ・・・(9)
In consideration of the magnitude relation between the outer product op (x, y) and the inner product ip (x, y) shown in FIG. 3, the phase difference code determiner 16 calculates the phase difference code psgn (x) as follows. , Y), and outputs this. if (ip (x, y)> | op (x, y) |) then psgn (x, y) ← 0 else if (op (x, y)> 0) then psgn (x, y) ← + else psgn (X, y) ← -... (9)

【0029】原理的には、(7)式で示す外積op
(x,y)だけから((8)式で示す内積ip(x,
y)を用いずに)、符号(0,+または−)を判定する
ことができる。しかしながら、0の符号は不安定であ
る。そこで、内積ip(x,y)を用い、その値が、外
積op(x,y)の絶対値より大きいとき、符号を0と
判定するようにしている。
In principle, the outer product op expressed by equation (7)
From (x, y) only, the inner product ip (x,
(without y)), the sign (0, + or-) can be determined. However, the sign of 0 is unstable. Therefore, the inner product ip (x, y) is used, and when the value is larger than the absolute value of the outer product op (x, y), the code is determined to be 0.

【0030】ここで、用いたガボアフィルタの選択的波
長λ(中心周波数usの逆数)に対して、位置(x,
y)における画像上のずれ量である視差δ(x,y)
が、 (−λ/2)<δ(x,y)<(λ/2) ・・・(10) を満足している場合、左右の画像の位相差は視差に対応
する。従って、位相差符号判定器16は、視差の符号を
出力することになるが、この視差符号は、図6からも判
るように、対象点P2と注視点P1との前後関係を反映し
ている。
Here, with respect to the selective wavelength λ (the reciprocal of the center frequency u s ) of the Gabor filter used, the position (x,
parallax δ (x, y) which is the amount of displacement on the image in y)
However, when (−λ / 2) <δ (x, y) <(λ / 2) (10), the phase difference between the left and right images corresponds to the parallax. Therefore, the phase difference code determiner 16 outputs the code of the parallax, and this parallax code reflects the front-back relationship between the target point P 2 and the gazing point P 1 , as can be seen from FIG. 6. ing.

【0031】すなわち、視差符号”0”は、対象点P2
と注視点P1が、ほぼ同程度の距離に存在することを示
し、視差符号”+”,”−”は、対象点P2が注視点P1
に対して、前方または後方に位置することを意味する
(但し、”+”と”−”のいずれが前方で、いずれが後
方を表すかは、撮像面上の座標軸の取り方によって変化
する)。従って、ガボアフィルタの出力値に対する
(7)式と(8)式の積和演算によって、対象点P2
おおまかな距離(奥行き)に関する情報を得ることがで
きる。
That is, the parallax code "0" is the target point P 2
And the gazing point P 1 are present at almost the same distance. For the parallax codes “+” and “−”, the target point P 2 is the gazing point P 1
On the other hand, it means to be located in front or rear (however, "+" or "-" represents front and which represents rear depends on how the coordinate axes on the imaging surface are taken). . Therefore, the information about the rough distance (depth) of the target point P 2 can be obtained by the product-sum calculation of the equations (7) and (8) for the output value of the Gabor filter.

【0032】図4に、本発明の他の実施例の構成を示
す。この実施例において、図1に示す実施例と対応する
部分には、同一の符号を付してある。この実施例におい
ては、カメラ10L,10Rにより出力された信号は、
A/D変換器11L,11Rによってデジタル化された
後、対応するフレームメモリ31L,31Rに保存され
る。
FIG. 4 shows the configuration of another embodiment of the present invention. In this embodiment, parts corresponding to those in the embodiment shown in FIG. 1 are designated by the same reference numerals. In this embodiment, the signals output by the cameras 10L and 10R are
After being digitized by the A / D converters 11L and 11R, they are stored in the corresponding frame memories 31L and 31R.

【0033】それぞれ振幅特性が等しく、位相特性の異
なる空間フィルタ12L1,13L1並びに12R1,
13R1は、図1の実施例と同様、(3)式および
(4)式に示すガボアフィルタの対を用いることができ
る。これらのフィルタで第1のチャンネルを構成する。
Spatial filters 12L1, 13L1 and 12R1, which have the same amplitude characteristic and different phase characteristics, respectively.
13R1 can use the pair of Gabor filters shown in the equations (3) and (4), as in the embodiment of FIG. These filters make up the first channel.

【0034】12L2,13L2並びに12R2,13
R2は、同様のフィルタ対であり、第2のチャンネルを
構成するが、第1のチャンネルよりも中心周波数の高い
ガボアフィルタを用いる。12L3,13L3並びに1
2R3,13R3は、さらに中心周波数の高いフィルタ
対で、第3のチャンネルを構成する。
12L2, 13L2 and 12R2, 13
R2 is a similar filter pair that constitutes the second channel but uses a Gabor filter with a higher center frequency than the first channel. 12L3, 13L3 and 1
2R3 and 13R3 are filter pairs having a higher center frequency and form a third channel.

【0035】第iチャンネルにおける空間フィルタ12
Li,13Li、並びに、空間フィルタ12Ri,13
Riは、対応するフレームメモリ31L,31Rに保存
された画像データを順次読み出してフィルタリング処理
を行い、外積算出器14と内積算出器15に出力する。
但し、第1チャンネルでは、フレームメモリ31L,3
1Rに必要なデータが格納され次第、フィルタリング処
理が開始されるが、第1チャンネル以外のチャンネルで
は、対応位置検出器32から送られてくるコントロール
信号cntlが、1つ前のチャンネルにおける処理の終
了を示した時点で、フィルタリング処理が開始される。
Spatial filter 12 in the i-th channel
Li, 13Li and spatial filters 12Ri, 13
The Ri sequentially reads the image data stored in the corresponding frame memories 31L and 31R, performs a filtering process, and outputs the image data to the outer product calculator 14 and the inner product calculator 15.
However, in the first channel, the frame memories 31L, 3
The filtering process starts as soon as the necessary data is stored in 1R, but in channels other than the first channel, the control signal cntl sent from the corresponding position detector 32 ends the process in the immediately preceding channel. The filtering process is started at the point of.

【0036】即ち、第2チャンネルの空間フィルタ12
L2,13L2,12R2,13R2は、第1チャンネ
ルの空間フィルタ12L1,13L1,12R1,13
R1の処理が完了した後、第3チャンネルの空間フィル
タ12L3,13L3,12R3,13R3は、第2チ
ャンネルの空間フィルタ12L2,13L2,12R
2,13R2の処理が完了した後、それぞれ処理を開始
する。
That is, the spatial filter 12 of the second channel
L2, 13L2, 12R2, 13R2 are spatial filters 12L1, 13L1, 12R1, 13 of the first channel.
After the processing of R1 is completed, the spatial filters 12L3, 13L3, 12R3, 13R3 of the third channel have the spatial filters 12L2, 13L2, 12R of the second channel.
After the processes of 2 and 13R2 are completed, the respective processes are started.

【0037】外積算出器14は、各チャンネルにおい
て、左右の画像に対するガボアフィルタ対の出力ベクト
ルの外積を、(11)式によって計算する。 op(x,y) =oLc(x,y)oRs(x'(x,y),y) −oLs(x,y)oRc(x'(x,y),y) ・・・(11)
The outer product calculator 14 calculates the outer product of the output vectors of the Gabor filter pair for the left and right images in each channel by the equation (11). op (x, y) = oLc (x, y) oRs (x '(x, y), y) -oLs (x, y) oRc (x' (x, y), y) ...・ (11)

【0038】また、内積算出器15は、各チャンネルに
おいて、左右画像に対するガボアフィルタ対の出力ベク
トルの内積を、(12)式によって計算する。 ip(x,y) =oLc(x,y)oRc(x'(x,y),y) +oLs(x,y)oRs(x'(x,y),y) ・・・(12)
Further, the inner product calculator 15 calculates the inner product of the output vectors of the Gabor filter pair for the left and right images in each channel by the expression (12). ip (x, y) = oLc (x, y) oRc (x '(x, y), y) + oLs (x, y) oRs (x' (x, y), y) ... (12)

【0039】ここで、(11)式と(12)式における
x'(x,y)は、左画像の位置(x,y)に対応する
右画像上の位置のx座標(直前のチャンネルのデータ処
理により得られた座標)を表しており、フレームメモリ
33に保存されている。フレームメモリ33のこの値
は、対応位置検出器32によって、より新しいチャンネ
ルのデータ処理が行われる毎に、更新されていく。但
し、その初期値は、x'(x,y)=xとなっている。
Here, x '(x, y) in the equations (11) and (12) is the x coordinate of the position on the right image corresponding to the position (x, y) on the left image (of the immediately preceding channel). The coordinates obtained by the data processing) are stored in the frame memory 33. This value in the frame memory 33 is updated each time the corresponding position detector 32 performs data processing on a newer channel. However, the initial value is x '(x, y) = x.

【0040】位相差符号判定器16は、(11)式と
(12)式の演算結果(外積算出器14と内積算出器1
5の出力)から、図1の実施例における場合と同様に、
(9)式で示した方法で、位相差符号を決定する。但
し、ここで得られる位相差符号は、図1の実施例におけ
る場合とは異なり、左画像における位置(x,y)と、
右画像における位置(x'(x,y),y)との間のも
のである(図1の実施例は、位置(x,y)と位置
(x,y)の間のものである)。対応位置検出器32
は、位相差符号検出器16によって得られた位相差符号
(0,+または−)から、左画像上の各位置に対応する
右画像上の位置を検出する。
The phase difference code decision unit 16 calculates the results of the equations (11) and (12) (the outer product calculator 14 and the inner product calculator 1).
5 output), as in the case of the embodiment of FIG.
The phase difference code is determined by the method shown in equation (9). However, the phase difference code obtained here is different from the case of the embodiment of FIG. 1 at the position (x, y) in the left image,
Between the position (x ′ (x, y), y) in the right image (the embodiment of FIG. 1 is between position (x, y) and position (x, y)). . Corresponding position detector 32
Detects the position on the right image corresponding to each position on the left image from the phase difference code (0, + or-) obtained by the phase difference code detector 16.

【0041】いま、第nチャンネルのガボアフィルタの
選択的波長をλnとし、(10)式の条件が成立してい
るものと仮定すると、得られた位相差符号が正である場
合には、実際の視差δ(x,y)は、 0<δ(x,y)<(λn/2) ・・・(13) の範囲にあると考えられる。このとき、左画像の位置
(x,y)に対応する右画像の位置のx座標xRは、 x<xR<x+(λn/2) ・・・(14) に存在することになる。そこで、(14)式で示された
範囲の中心の位置を、(15)式で示すように計算し、
これを対応候補位置として、フレームメモリ33の位置
(x,y)に保存する。 x'(x,y)=x+(λn/4) ・・・(15)
Now, assuming that the selective wavelength of the Gabor filter of the nth channel is λ n and the condition of the equation (10) is satisfied, when the obtained phase difference sign is positive, It is considered that the parallax δ (x, y) of is in the range of 0 <δ (x, y) <(λ n / 2) (13). At this time, the x-coordinate x R of the position of the right image corresponding to the position (x, y) of the left image is in the range of x <x R <x + (λ n / 2) (14) . Therefore, the position of the center of the range represented by the equation (14) is calculated as represented by the equation (15),
This is stored in the position (x, y) of the frame memory 33 as a correspondence candidate position. x '(x, y) = x + (λ n / 4) (15)

【0042】同様に、位相差符号が負(−)、またはゼ
ロ(0)の場合には、それぞれ、 x'(x,y)=x−(λn/4) (負の場合) ・・・(16) x'(x,y)=x (ゼロの場合) ・・・(17) を保存する。また、この処理が終了した時点で、第nチ
ャンネルの処理が終了したことを示すコントロール信号
cntlを出力する。
Similarly, when the phase difference sign is negative (-) or zero (0), x '(x, y) = x- (λ n / 4) (in the case of negative) ... -(16) x '(x, y) = x (when zero) ... (17) is stored. Further, when this processing is completed, the control signal cntl indicating that the processing of the nth channel is completed is output.

【0043】奥行き算出器34では、対応位置検出器3
2から出力されるコントロール信号cntlが、最も周
波数の高いチャンネルにおける処理が終了したことを示
した時点で、フレームメモリ33に保存された値を順次
読み出し、視差δ(x,y)を、(18)式のように計
算する。 δ(x,y)=x−x'(x,y) ・・・(18)
In the depth calculator 34, the corresponding position detector 3
When the control signal cntl output from 2 indicates that the process on the channel with the highest frequency is completed, the values stored in the frame memory 33 are sequentially read out, and the parallax δ (x, y) is set to (18 ) Calculate as δ (x, y) = x−x ′ (x, y) (18)

【0044】さらに、これを(19)式に代入して、注
視点P1に対する相対的な奥行きΔD(x,y)を算出
し、左画像上の位置(x,y)に対する距離情報とし
て、これを出力する。 ΔD(x,y)=δ(x,y)D2/ab ・・・(19) ここで、a,b,Dは、それぞれ、2台のカメラのレン
ズ間距離(a)、レンズと撮像面の距離(b)、レンズ
から注視点までの距離(D)であり、カメラの配置によ
って決まる定数である。
Further, by substituting this into the equation (19), the relative depth ΔD (x, y) with respect to the gazing point P 1 is calculated, and as distance information for the position (x, y) on the left image, Output this. ΔD (x, y) = δ (x, y) D 2 / ab (19) where a, b, and D are the lens-to-lens distances (a) of the two cameras, the lenses and the images, respectively. The surface distance (b) and the distance from the lens to the gazing point (D) are constants determined by the arrangement of the cameras.

【0045】ところで、(10)式からも明らかなよう
に、各チャンネルが扱うことのできる最大視差は、用い
たフィルタの選択的波長λに比例する。従って、広い範
囲の視差を検出するためには、選択周波数の低い(波長
の長い)チャンネルを用意する必要がある。
By the way, as is apparent from the equation (10), the maximum parallax that can be handled by each channel is proportional to the selective wavelength λ of the filter used. Therefore, in order to detect a wide range of parallax, it is necessary to prepare a channel with a low selection frequency (long wavelength).

【0046】一方、各チャンネルで得られる視差の情報
は、(13)式に示すような不等式で与えられ、曖昧性
を持っている。その曖昧さの程度は、用いるフィルタの
選択周波数が低い(波長が長い)ほど、大きくなる。そ
こで、図4の実施例では、(11)式と(12)式に示
すように、低周波数チャンネルから高周波数チャンネル
に視差情報を伝搬することによって、検出可能な視差範
囲と検出精度のトレードオフを解決している。
On the other hand, the parallax information obtained in each channel is given by an inequality as shown in equation (13) and has ambiguity. The degree of ambiguity increases as the selection frequency of the filter used is lower (the wavelength is longer). Therefore, in the embodiment of FIG. 4, as shown in Expressions (11) and (12), the parallax information is propagated from the low-frequency channel to the high-frequency channel, so that there is a trade-off between the detectable parallax range and the detection accuracy. Has been resolved.

【0047】図5に、視差がチャンネル間を伝搬される
様子の例を示す。この図では、簡単のために、画像を水
平方向の1次元のみで表している。図中、左側の波形が
左画像を、右側の波形が右画像を、それぞれ表してい
る。第1のチャンネルCH1では、左画像の位置x0に対
して、右画像上の同じ位置x0との位相差符号を検出す
る。これが正(+)である場合、(14)式に示したよ
うに、左画像のx0に対応する右画像上の位置は、斜線
で示した範囲(x0からx0+λ1/2までの範囲)に存
在することになる。そこで、この範囲の中心x1(=x0
+λ1/4)を、第2チャンネルCH2に送る。この処理
は、(15)式に従って、フレームメモリ33の
(x0,y)の位置に、x1を代入することに相当する。
FIG. 5 shows an example of how parallax is propagated between channels. In this figure, for simplicity, the image is represented by only one dimension in the horizontal direction. In the figure, the waveform on the left side represents the left image, and the waveform on the right side represents the right image. In the first channel CH 1 , the phase difference code between the position x 0 of the left image and the same position x 0 on the right image is detected. If this is a positive (+), as shown in equation (14), the position on the right image corresponding to x 0 of the left image is in the range (x 0 to x 0 + λ 1/2) indicated by the diagonal lines. Range). Therefore, the center of this range x 1 (= x 0
The + λ 1/4), sent to the second channel CH 2. This processing corresponds to substituting x 1 into the position (x 0 , y) of the frame memory 33 according to the equation (15).

【0048】第2のチャンネルCH2では、左画像のx0
に対して、右画像のx1との位相差符号を検出する。図
5は、この符号が負(−)であった場合を示しており、
斜線部分の中心x2(x0+λ1/8)を、第3のチャン
ネルCH3に送る。最後のチャンネルCH3では、左画像
のx0に対して右画像のx2との位相差符号を検出し、そ
の符号が示す範囲の中心を、左画像のx0に対応する右
画像上の位置とする。図5の例は、CH3で位相差符号
0が検出されたことを表しており、従って、右画像にお
けるx2が左画像のx0に対応することになる。
On the second channel CH 2 , x 0 of the left image
On the other hand, the phase difference code from x 1 of the right image is detected. FIG. 5 shows a case where this sign is negative (-),
The center of the hatched portion x 2 a (x 0 + λ 1/8 ), and sends to the third channel CH 3. In the last channel CH 3 , a phase difference code between x 0 of the left image and x 2 of the right image is detected, and the center of the range indicated by the code is detected on the right image corresponding to x 0 of the left image. Position. The example of FIG. 5 shows that the phase difference code 0 is detected in CH 3 , and therefore x 2 in the right image corresponds to x 0 in the left image.

【0049】尚、本発明はこれらの実施例に限られるも
のではなく、例えば、図4の実施例において、3つ以上
のチャンネルを用意することもできる。また、フレーム
メモリ31L,31Rを、各空間フィルタ(12Li,
13Li,12Ri,13Ri)の後段に配置し、フィ
ルタリング処理の出力を保存するようにすることもでき
る。この場合、各チャンネルに対して2枚ずつ(左右1
枚ずつ)のフレームメモリが必要となるが、全てのフィ
ルタリング処理が並列に行われるため、最終的な視差を
検出するまでの時間を大幅に短縮することができる。
The present invention is not limited to these embodiments, and for example, in the embodiment of FIG. 4, three or more channels can be prepared. Further, the frame memories 31L and 31R are connected to the respective spatial filters (12Li,
13Li, 12Ri, 13Ri) may be placed after the output of the filtering process. In this case, 2 for each channel (1 for left and right)
Although a frame memory for each frame is required, all the filtering processes are performed in parallel, so the time until the final parallax is detected can be significantly shortened.

【0050】[0050]

【発明の効果】以上説明したように、本発明によれば、
左右の第1と第2の画像は、それぞれ異なる位相特性で
フィルタリング処理されて、位相情報が抽出される。各
フィルタリング処理出力を組み合わせることによって、
左右画像の位相差の符号が検出され、対象物体が、注視
点に対して前方にあるのか、後方にあるのかの距離情報
(奥行き情報)が得られる。
As described above, according to the present invention,
The left and right first and second images are filtered with different phase characteristics to extract phase information. By combining each filtering output,
The sign of the phase difference between the left and right images is detected, and distance information (depth information) indicating whether the target object is in front of or behind the gazing point is obtained.

【0051】また、異なる周波数帯域の複数のチャンネ
ルに分割した場合においては、各チャンネルで得られた
位相差符号を組み合わせることによって、左右の画像の
視差が算出され、視差に対応する距離(ΔD)が計算さ
れる。
When divided into a plurality of channels of different frequency bands, the parallax between the left and right images is calculated by combining the phase difference codes obtained in each channel, and the distance (ΔD) corresponding to the parallax is calculated. Is calculated.

【0052】従って、正確かつ迅速に、距離情報が得ら
れる。
Therefore, distance information can be obtained accurately and quickly.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の距離演算装置の第1の実施例の構成を
示すブロック図である。
FIG. 1 is a block diagram showing a configuration of a first embodiment of a distance calculation device of the present invention.

【図2】図1の空間フィルタ12L,13Lおよび空間
フィルタ12R,13Rの出力を説明する図である。
FIG. 2 is a diagram illustrating outputs of spatial filters 12L and 13L and spatial filters 12R and 13R of FIG.

【図3】図1の外積算出器14と内積算出器15の出力
の関係を説明する図である。
FIG. 3 is a diagram illustrating a relationship between outputs of an outer product calculator 14 and an inner product calculator 15 of FIG.

【図4】本発明の距離演算装置の第2の実施例の構成を
示すブロック図である。
FIG. 4 is a block diagram showing a configuration of a second embodiment of the distance calculation device of the present invention.

【図5】図4の実施例における3つのチャンネルの空間
フィルタの動作を説明する図である。
FIG. 5 is a diagram for explaining the operation of the spatial filter of three channels in the embodiment of FIG.

【図6】両眼立体視の原理を示す図である。FIG. 6 is a diagram showing the principle of binocular stereoscopic vision.

【符号の説明】[Explanation of symbols]

10L,10R カメラ 11L,11R A/D変換器 12L,12R,13L,13R 空間フィルタ 14 外積算出器 15 内積算出器 16 位相差符号判定器 31L,31R フレームメモリ 32 対応位置検出器 33 フレームメモリ 34 奥行き算出器 10L, 10R Camera 11L, 11R A / D converter 12L, 12R, 13L, 13R Spatial filter 14 Outer product calculator 15 Inner product calculator 16 Phase difference code determiner 31L, 31R Frame memory 32 Corresponding position detector 33 Frame memory 34 Depth calculator

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】 水平方向に所定の距離だけ離れて配置さ
れた第1の撮像装置と第2の撮像装置により対象物体を
撮像して得た第1の画像と第2の画像から、前記対象物
体に関する距離情報を求める距離演算装置において、 前記第1の画像のデータをフィルタリング処理する、振
幅特性が等しく、かつ、位相特性が異なる複数の空間フ
ィルタからなる第1のフィルタリング手段と、 前記第2の画像のデータをフィルタリング処理する、振
幅特性が等しく、かつ、位相特性が異なる複数の空間フ
ィルタからなる第2のフィルタリング手段と、 前記第1のフィルタリング手段の出力と第2のフィルタ
リング手段の出力から、前記第1の画像と第2の画像の
位相差の符号を判定する判定手段とを備えることを特徴
とする距離演算装置。
1. The object is obtained from a first image and a second image obtained by imaging a target object with a first imaging device and a second imaging device which are arranged apart from each other in a horizontal direction by a predetermined distance. In a distance calculation device that obtains distance information about an object, a first filtering unit configured to perform a filtering process on the data of the first image, the first filtering unit including a plurality of spatial filters having equal amplitude characteristics and different phase characteristics; From the output of the first filtering means and the output of the second filtering means, the second filtering means including a plurality of spatial filters having the same amplitude characteristic and different phase characteristics for filtering the image data of A distance calculation device comprising: a determining unit that determines a sign of a phase difference between the first image and the second image.
【請求項2】 前記第1のフィルタリング手段と第2の
フィルタリング手段は、それぞれ異なる周波数帯域の複
数のチャンネルに分割され、 前記判定手段は、各チャンネル毎に、前記第1の画像と
第2の画像の位相差の符号を判定し、 前記各チャンネルの位相差の符号から、前記第1の画像
と第2の画像の視差を求め、前記視差を距離に変換する
変換手段をさらに備えることを特徴とする請求項1に記
載の距離演算装置。
2. The first filtering means and the second filtering means are divided into a plurality of channels each having a different frequency band, and the determining means is configured to determine the first image and the second image for each channel. It further comprises a conversion unit that determines the sign of the phase difference of the image, obtains the parallax between the first image and the second image from the sign of the phase difference of each channel, and converts the parallax into a distance. The distance calculation device according to claim 1.
【請求項3】 前記判定手段は、より低い周波数のチャ
ンネルの位相差の符号を利用して、より高い周波数の位
相差の符号の処理を行うことを特徴とする請求項2に記
載の距離演算装置。
3. The distance calculation according to claim 2, wherein the determination means uses the sign of the phase difference of the lower frequency channel to process the sign of the phase difference of the higher frequency. apparatus.
【請求項4】 前記第1および第2のフィルタリング手
段の空間フィルタは、空間的に局所性を有する空間フィ
ルタであることを特徴とする請求項1,2または3に記
載の距離演算装置。
4. The distance calculation device according to claim 1, wherein the spatial filters of the first and second filtering means are spatial filters having spatial locality.
【請求項5】 前記第1のフィルタリング手段と第2の
フィルタリング手段の空間フィルタは、同一の所定の空
間周波数を通過帯域の中心周波数とし、位相特性がπ/
2だけ異なる1対のバンドパスフィルタを含むことを特
徴とする請求項1乃至4のいずれかに記載の距離演算装
置。
5. The spatial filters of the first filtering unit and the second filtering unit have the same predetermined spatial frequency as the center frequency of the pass band and have phase characteristics of π /
The distance calculation device according to any one of claims 1 to 4, further comprising a pair of bandpass filters different by two.
【請求項6】 前記判定手段は、前記第1のフィルタリ
ング手段の出力と第2のフィルタリング手段の出力を積
和演算して、前記第1の画像と第2の画像の位相差の符
号を判定することを特徴とする請求項1乃至5のいずれ
かに記載の距離演算装置。
6. The determination means determines the sign of the phase difference between the first image and the second image by performing a sum of products operation on the output of the first filtering means and the output of the second filtering means. The distance calculation device according to any one of claims 1 to 5, wherein:
【請求項7】 前記判定手段は、 前記第1のフィルタリング手段の出力と第2のフィルタ
リング手段の出力の外積を演算する外積演算手段と、 前記第1のフィルタリング手段の出力と第2のフィルタ
リング手段の出力の内積を演算する内積演算手段と、 前記外積演算手段と内積演算手段の出力から、前記第1
の画像と第2の画像の位相差の符号を判定する位相差符
号判定手段とを備えることを特徴とする請求項6に記載
の距離演算装置。
7. The determining means includes an outer product calculating means for calculating an outer product of an output of the first filtering means and an output of the second filtering means, and an output of the first filtering means and a second filtering means. The inner product calculation means for calculating the inner product of the outputs of the first and second outputs from the outer product calculation means and the inner product calculation means.
7. The distance calculation apparatus according to claim 6, further comprising: a phase difference sign determination unit that determines a sign of a phase difference between the image and the second image.
JP17818894A 1994-07-29 1994-07-29 Distance calculation device and method Expired - Fee Related JP3503121B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP17818894A JP3503121B2 (en) 1994-07-29 1994-07-29 Distance calculation device and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP17818894A JP3503121B2 (en) 1994-07-29 1994-07-29 Distance calculation device and method

Publications (2)

Publication Number Publication Date
JPH0843081A true JPH0843081A (en) 1996-02-16
JP3503121B2 JP3503121B2 (en) 2004-03-02

Family

ID=16044142

Family Applications (1)

Application Number Title Priority Date Filing Date
JP17818894A Expired - Fee Related JP3503121B2 (en) 1994-07-29 1994-07-29 Distance calculation device and method

Country Status (1)

Country Link
JP (1) JP3503121B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014017719A1 (en) * 2012-07-25 2014-01-30 전주대학교 산학협력단 Method and system for guiding visually impaired person using multi-view camera having parallel image filtering module, and computer-readable recording medium

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014017719A1 (en) * 2012-07-25 2014-01-30 전주대학교 산학협력단 Method and system for guiding visually impaired person using multi-view camera having parallel image filtering module, and computer-readable recording medium

Also Published As

Publication number Publication date
JP3503121B2 (en) 2004-03-02

Similar Documents

Publication Publication Date Title
US5719954A (en) Stereo matching method and disparity measuring method
JPH08294143A (en) Method for corresponding between images and inter-image parallax measurement method
JP3349121B2 (en) Stereo camera mounting structure
KR20050002612A (en) Depth measuring method and depth measuring apparatus
JPH0843055A (en) Method and apparatus for recognizing shape of three dimensional object
JP2006250722A (en) Device, method and program for calibration
KR950001578B1 (en) Method and apparatus for 3-dimensional stereo vision
CN105261061A (en) Method and device for identifying redundant data
JP2003150940A (en) Stereo image processor
JP2011198098A (en) Plane detecting method by stereo camera, and mobile robot employing the same
JP3540005B2 (en) Obstacle detection device
JP3503121B2 (en) Distance calculation device and method
KR101995344B1 (en) A dual depth camera module without blind spot
WO2013069453A1 (en) Image processing apparatus and image processing method
JP7057717B2 (en) Phase difference detector, image processing device, and program
JPH11125522A (en) Image processor and method
JP3728460B2 (en) Method and system for determining optimal arrangement of stereo camera
KR20190092051A (en) Object detection method and robot system
JP4531921B2 (en) Distance measuring device
JP2001194128A (en) Method for estimating configuration of three-dimensional surface shape using stereoscopic camera with focal light source
JP2000028355A (en) Three-dimensional image processing device
JPH03238566A (en) Vanishing point detection device
JPH07174553A (en) Stereo camera apparatus and method for deriving distance
JP3060114B2 (en) Corresponding point search method
JP2979619B2 (en) Stereoscopic device

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20031117

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20031130

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071219

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081219

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091219

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091219

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101219

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111219

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111219

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121219

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121219

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131219

Year of fee payment: 10

LAPS Cancellation because of no payment of annual fees