JP2000213933A - Image processor - Google Patents

Image processor

Info

Publication number
JP2000213933A
JP2000213933A JP11017214A JP1721499A JP2000213933A JP 2000213933 A JP2000213933 A JP 2000213933A JP 11017214 A JP11017214 A JP 11017214A JP 1721499 A JP1721499 A JP 1721499A JP 2000213933 A JP2000213933 A JP 2000213933A
Authority
JP
Japan
Prior art keywords
correlation coefficient
image
pixel
block
reference block
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP11017214A
Other languages
Japanese (ja)
Inventor
Kazumi Arakage
蔭 和 美 荒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Victor Company of Japan Ltd
Original Assignee
Victor Company of Japan Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Victor Company of Japan Ltd filed Critical Victor Company of Japan Ltd
Priority to JP11017214A priority Critical patent/JP2000213933A/en
Publication of JP2000213933A publication Critical patent/JP2000213933A/en
Pending legal-status Critical Current

Links

Landscapes

  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

PROBLEM TO BE SOLVED: To search a corresponding point with a high speed without enlarging a scale of a hardware. SOLUTION: A corresponding point searching means 6 sets a reference block around one reference picture element under searcing, and an observing block around an observing picture element, when a corresponding picture element is searched, and computes a correlation coefficient between the reference block and the observing block. In this case, a correlation coefficient computing means 10 of the correponding point searching means 6 stops immediately the computing of the correlation coefficient with respect to the reference block when the correlation coefficient under computing exceeds a reference correlation coefficient. On the other hand, when the correlation coefficient under computing is smaller than the reference correlation coefficient, the correlation with respect to the same reference block is continued.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、3次元座標上の異
なる位置に設置された複数台の撮像手段からの入力画像
に基づき、所謂ステレオ画像計測法によって対象物まで
の距離データを求める機能を有する画像処理装置に関す
るものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention provides a function for obtaining distance data to an object by a so-called stereo image measuring method based on input images from a plurality of image pickup means installed at different positions on three-dimensional coordinates. The present invention relates to an image processing apparatus having the same.

【0002】[0002]

【従来の技術】図3は、従来の画像処理装置の構成を示
す平面図である。この図において、3次元座標上の任意
の位置に存在する対象物1の撮像を2台の撮像手段2L
(左側),2R (右側)が行うようになっており、これ
らの撮像手段からの入力画像に基づき、画像処理回路3
が対象物1に関する距離データzを求めるようになって
いる。撮像手段2L ,2R は互いに距離Bだけ離れて設
置されており、またそれぞれの設置高さは同一となって
いる。
2. Description of the Related Art FIG. 3 is a plan view showing the structure of a conventional image processing apparatus. In this figure, the imaging of the object 1 existing at an arbitrary position on the three-dimensional coordinates is performed by two imaging units 2L.
(Left side) and 2R (right side). The image processing circuit 3
Calculates distance data z on the object 1. The imaging means 2L and 2R are installed at a distance B from each other, and their installation heights are the same.

【0003】図4は、図3における画像処理回路3の構
成を示すブロック図である。この図に示すように、画像
処理回路3は、2つの画像入力手段4L ,4R 、2つの
特徴量抽出手段5L ,5R 、対応点探索手段6、及び距
離データ演算手段7により構成されている。
FIG. 4 is a block diagram showing a configuration of the image processing circuit 3 in FIG. As shown in this figure, the image processing circuit 3 is composed of two image input means 4L and 4R, two feature amount extracting means 5L and 5R, a corresponding point searching means 6, and a distance data calculating means 7.

【0004】図5は、ステレオ画像計測法を説明するた
めの説明図であり、この図5を用いて図4の動作を説明
する。図5において、撮像手段2L の画像をS1 、撮像
手段2R の画像をS2 とした場合に、これら対象物1及
び画像S1 ,S2 を含む空間内に3次元座標が設定され
ている。なお、この座標系での座標をx,y,zで表
す。また、画像S1 ,S2 上での位置を表す座標として
〔X1 ,Y1 〕、〔X2,Y2 〕を用いる。この例で
は、画像S1 ,S2 のうち画像S1 を基準画像としてお
り、画像S1 の光軸はz軸上すなわちx=0の位置に位
置し、画像S2 の光軸はx=Bの位置に位置している。
また、撮像手段2L ,2R の各光軸はx−z平面内で互
いに平行になっている。
FIG. 5 is an explanatory diagram for explaining a stereo image measuring method. The operation of FIG. 4 will be described with reference to FIG. In FIG. 5, when the image of the imaging means 2L is S1 and the image of the imaging means 2R is S2, three-dimensional coordinates are set in a space including the object 1 and the images S1 and S2. Note that coordinates in this coordinate system are represented by x, y, and z. [X1, Y1] and [X2, Y2] are used as coordinates indicating positions on the images S1 and S2. In this example, the image S1 of the images S1 and S2 is used as a reference image, the optical axis of the image S1 is located on the z axis, that is, at the position of x = 0, and the optical axis of the image S2 is located at the position of x = B. are doing.
The optical axes of the imaging means 2L and 2R are parallel to each other in the xz plane.

【0005】画像入力手段4L ,4R は、それぞれ撮像
手段2L ,2R から画像S1 ,S2の情報を入力し、こ
れを特徴量抽出手段5L ,5R に出力する。特徴量抽出
手段5L ,5R は、入力した画像情報から対象物1の存
在を示す特徴量を抽出する。特徴量としては、通常、画
素強度(例えば、輝度や濃淡度)を用いるが、特開平7
−336669号公報に開示されているように、ソーベ
ルフィルタ(1次微分)やラプラシアンフィルタ(2次
微分)を使用してエッジ抽出処理を行った後の値を用い
ることとしてもよい。
[0005] Image input means 4L and 4R input information of the images S1 and S2 from the image pickup means 2L and 2R, respectively, and output the information to the feature quantity extracting means 5L and 5R. The feature amount extracting means 5L and 5R extract feature amounts indicating the presence of the object 1 from the input image information. As the feature amount, pixel intensity (for example, luminance or shading) is usually used.
As disclosed in JP-A-336669, a value obtained after performing an edge extraction process using a Sobel filter (first derivative) or a Laplacian filter (second derivative) may be used.

【0006】対応点探索手段6は、特徴量抽出手段5L
,5R が抽出したそれぞれの特徴量を入力し、画像S1
の画素に対応する画像S2 の画素を探索する(この探
索は、画像S1 の全ての画素に対して行う。)。例え
ば、対象物1のある点P〔x,y,z〕が画像S1 上の点P1
〔X1,Y1 〕に投影されている場合、対応点探索手段
6は、この点P1 〔X1,Y1 〕に対応する点P2 〔X2,
Y2 〕を画像S2 の画素の中から探索する(なお、本明
細書中では、点P1 の画素を注目画素、点P2 の画素を
対応画素と呼ぶ。)。この場合、画像S1 において、エ
ピポーラ線は点P1〔X1,Y1 〕が存在する走査線Sc1
に一致している。したがって、画像S2 におけるエピポ
ーラ線も、走査線Sc1と同一高さの走査線Sc2に一致し
ており、点P1 〔X1,Y1 〕に対応する点P2 〔X2,Y
2 〕も、この走査線Sc2上のいずれかの位置に存在する
はずである。対応点探索手段6が行う探索とは、このよ
うに画像S2 内の走査線Sc2上を探索領域とし、走査
線Sc1上の或る点P1 〔X1,Y1 〕に対応する点P2
〔X2,Y2 〕を、画像S2 内の走査線Sc2上から求める
ことをいう。ところが、ステレオ画像計測法において上
記の対応点探索を正確に行うことは困難であり、この対
応点探索のための技術として従来から種々の手法が提案
されている。例えば、特開平9−33249号公報に
は、左右両画像の画素強度を演算して両画素間の相関関
係を表す相関関数を演算し、この相関関数の値に従って
対応点探索を行う手法が開示されている。
The corresponding point searching means 6 includes a feature amount extracting means 5L
, 5R are extracted, and the image S1 is input.
The pixel of the image S2 corresponding to the pixel of the image S1 is searched (this search is performed for all the pixels of the image S1). For example, a point P [x, y, z] of the object 1 is changed to a point P1 on the image S1.
When the image is projected on [X1, Y1], the corresponding point searching means 6 generates a point P2 [X2, X2] corresponding to the point P1 [X1, Y1].
Y2] is searched for from the pixels of the image S2 (in this specification, the pixel at the point P1 is referred to as a target pixel, and the pixel at the point P2 is referred to as a corresponding pixel). In this case, in the image S1, the epipolar line is the scanning line Sc1 where the point P1 [X1, Y1] exists.
Matches. Accordingly, the epipolar line in the image S2 also coincides with the scanning line Sc2 having the same height as the scanning line Sc1, and the point P2 [X2, Y1] corresponding to the point P1 [X1, Y1].
2] must exist at any position on the scanning line Sc2. The search performed by the corresponding point searching means 6 means that the search area is set on the scanning line Sc2 in the image S2 and the point P2 corresponding to a certain point P1 [X1, Y1] on the scanning line Sc1.
[X2, Y2] is obtained from the scanning line Sc2 in the image S2. However, it is difficult to accurately perform the above-described corresponding point search in the stereo image measurement method, and various techniques have been proposed as techniques for this corresponding point search. For example, Japanese Patent Application Laid-Open No. 9-33249 discloses a method in which pixel intensities of both left and right images are calculated to calculate a correlation function representing a correlation between the two pixels, and a corresponding point search is performed according to the value of the correlation function. Have been.

【0007】対応点探索手段6は、点P1 〔X1,Y1 〕
に対応する点P2 〔X2,Y2 〕を探索した後、さらに、
両点間の視差データを求めるようになっている。視差デ
ータとは、画像S1 及びS2 における両点の位置の差の
ことであり、D(X2−X1,Y2−Y1 )で表される。上
記の場合、Y1 =Y2 であるから、この視差データはD
(X2−X1,0 )と表されることになる。
[0007] Corresponding point searching means 6 generates a point P1 [X1, Y1].
After searching for a point P2 [X2, Y2] corresponding to
Parallax data between the two points is obtained. The disparity data is a difference between the positions of the two points in the images S1 and S2, and is represented by D (X2-X1, Y2-Y1). In the above case, since Y1 = Y2, this parallax data is D
(X2−X1,0).

【0008】距離データ演算手段7は、対応点探索手段
6が求めた視差データDを用いて対象物1との間の距離
データzを演算する。すなわち、撮像手段2L ,2R の
焦点距離をfとし、各光軸間の距離をBとすると、距離
zは、下式(1)に示すように、このf、Bと、X方向
のみの視差データ(X2−X1 )とにより表される。距
離データ演算手段7は、この(1)式によりzを各画素
毎に演算する。
The distance data calculating means 7 calculates distance data z between the object 1 using the parallax data D obtained by the corresponding point searching means 6. That is, assuming that the focal lengths of the imaging means 2L and 2R are f and the distance between the respective optical axes is B, the distance z is represented by f, B and parallax only in the X direction as shown in the following equation (1). Data (X2-X1). The distance data calculating means 7 calculates z for each pixel according to the equation (1).

【0009】z=B・f/(X2−X1 ) … (1) 距離データ演算手段7は、このようにして演算した距離
データzを、図示を省略してある外部装置に対して出力
する。外部装置とは、例えば、監視カメラ装置、視覚機
能を有する産業用ロボット、あるいはNCマシン等であ
り、多岐の分野において使用される装置を包含してい
る。
Z = B · f / (X 2 −X 1) (1) The distance data calculating means 7 outputs the distance data z thus calculated to an external device not shown. The external device is, for example, a surveillance camera device, an industrial robot having a visual function, an NC machine, or the like, and includes devices used in various fields.

【0010】ところで、上述した相関係数の演算は、例
えば、次のようにして行われている。すなわち、2つの
画像のうちいずれか一の画像を基準画像とし、この基準
画像の注目画素に対応する他方の画像の対応画素を探索
する場合、他方の画像中に探索領域を設定し、この探索
領域中のいずれか一の画素を参照画素とする。
The above-described calculation of the correlation coefficient is performed, for example, as follows. That is, when any one of the two images is used as a reference image and a corresponding pixel of the other image corresponding to a target pixel of the reference image is searched, a search area is set in the other image, and the search area is set. One of the pixels in the area is set as a reference pixel.

【0011】更に、参照画素を中心としたdX×dYの
矩形小領域である参照ブロックと、注目画素を中心とし
たdX×dYの矩形小領域である注目ブロックとをそれ
ぞれ設定し、下記の式(2)又は(3)のいずれかを用いて
二つのブロック内の同位置の画素同士の特徴量の差分の
二乗、または絶対値差分のブロック内での積和演算を行
い、その結果求まる相関係数E(X,Y)を注目画素と参
照画素との間の相関係数(注目ブロックと参照ブロック
との間の相関係数ともいう)とする。
Further, a reference block, which is a rectangular small area of dX × dY centered on the reference pixel, and a target block, which is a rectangular small area of dX × dY centered on the pixel of interest, are respectively set. Using either (2) or (3), the square of the difference between the feature values of the pixels at the same position in the two blocks, or the product sum operation in the block of the absolute value difference, and the phase obtained as a result The relation number E (X, Y) is defined as a correlation coefficient between the target pixel and the reference pixel (also referred to as a correlation coefficient between the target block and the reference block).

【0012】なお、式(2)及び(3)は、点P1 〔X1,Y
1 〕を注目画素とし、点P2 〔X2,Y2 〕を参照画素と
した場合の例であり、I1 〔XA,YB 〕及びI2 〔XC,
YD〕はそれぞれ点P1 〔XA,YB 〕及び点P2 〔XC,
YD 〕における各画素の特徴量である。
Equations (2) and (3) are based on the point P1 [X1, Y
1] as a target pixel, and a point P2 [X2, Y2] as a reference pixel, where I1 [XA, YB] and I2 [XC,
YD] is the point P1 [XA, YB] and the point P2 [XC,
YD].

【0013】[0013]

【数1】 上記のように或る参照画素(この場合は点P2)と注目
画素(この場合は点P1)との間の相関係数を演算した
後、この参照画素を一つずらして新たな参照ブロックを
設定し、この新たな参照ブロックと注目ブロックとの間
で相関係数を同様にして求める。このようにして、探索
領域内において参照画素を順次移動させて、探索領域内
の全ての画素とある一つの注目画素との間の相関係数を
求め(設定される参照画素の数だけ相関係数が求められ
る)、その中から値の最も小さな相関係数を選択する。
その最小の相関係数の参照画素を点P1 〔X1,Y1 〕に
対する対応画素と決定する。最小の相関係数となる参照
画素が点P2 〔X2,Y2 〕であれば、点P2 〔X2,Y2
〕を対応画素と決定する。
(Equation 1) After calculating the correlation coefficient between a certain reference pixel (in this case, point P2) and the target pixel (in this case, point P1) as described above, this reference pixel is shifted by one to create a new reference block. Then, the correlation coefficient is similarly obtained between the new reference block and the target block. In this way, the reference pixels are sequentially moved in the search area, and the correlation coefficient between all the pixels in the search area and a certain target pixel is obtained (the number of correlations is equal to the number of set reference pixels). The correlation coefficient having the smallest value is selected from among them.
The reference pixel having the smallest correlation coefficient is determined as the corresponding pixel for the point P1 [X1, Y1]. If the reference pixel having the minimum correlation coefficient is point P2 [X2, Y2], point P2 [X2, Y2]
] Is determined as the corresponding pixel.

【0014】ここで、図6を参照して、より具体的に相
関係数Eの求め方について説明する。図6に示すよう
に、基準画像上の注目画素をP、参照画像上の参照画素
をSとし、それを中心として3×3の注目ブロックと参
照ブロックとを設定し、その中の他の画素を図6の通り
としたとき、相関係数Eは、下記の式(4)又は(5)のい
ずれかにより表される。なお、式(4)は式(2)に対応す
るものであり、式(5)は式(3)に対応するものである。
また、|x|はxの絶対値、Si,Piは各画素の特徴量
とする。 E=(S−P)2+(S1−P1)2+(S2−P2)2+(S3−P3)2+(S4−P4)2 +(S5−P5)2+(S6−P6)2+(S7−P7)2+(S8−P8)2 … (4) E=|(S−P)|+|(S1−P1)|+|(S2−P2)|+|(S3−P3)|+ |(S4−P4)+|(S5−P5)|+|(S6−P6)|+|(S7−P7)|+|(S8−P 8)| … (5) 注目画素Pを固定して、参照画像上の探索範囲の全ての
画素についてSの探索を行い、各参照ブロック毎の相関
係数Eを求め、Eの値が最小となる時の参照画素を注目
画素Pの対応画素に決定する。さらに、Pを基準画像上
の全ての画素について上記の演算を行い、各注目画素に
対する対応画素を決定する。
Here, a method of obtaining the correlation coefficient E will be described more specifically with reference to FIG. As shown in FIG. 6, a target pixel on the reference image is P, a reference pixel on the reference image is S, and a 3 × 3 target block and a reference block are set around the target pixel. Is as shown in FIG. 6, the correlation coefficient E is represented by one of the following equations (4) and (5). Equation (4) corresponds to equation (2), and equation (5) corresponds to equation (3).
| X | is the absolute value of x, and Si and Pi are the feature values of each pixel. E = (S-P) 2 + (S1-P1) 2 + (S2-P2) 2 + (S3-P3) 2 + (S4-P4) 2 + (S5-P5) 2 + (S6-P6) 2 + (S7−P7) 2 + (S8−P8) 2 (4) E = | (S−P) | + | (S1−P1) | + | (S2−P2) | + | (S3−P3) | + | (S4−P4) + | (S5−P5) | + | (S6−P6) | + | (S7−P7) | + | (S8−P8) | (5) Fix the target pixel P Then, S is searched for all the pixels in the search range on the reference image, the correlation coefficient E for each reference block is obtained, and the reference pixel when the value of E is minimum is set to the corresponding pixel of the target pixel P. To decide. Further, the above calculation is performed for P on all the pixels on the reference image, and a corresponding pixel for each target pixel is determined.

【0015】なお、上記の式(2)又は(3)で表される相
関係数E(X,Y)は、探索領域及び参照領域が共にX
−Y平面上の2次平面領域である一般的な場合につき説
明しているが、前述した通り、図5の場合は探索領域が
走査線Sc2上に限られていることから、Y方向成分は
無視し、X方向成分のみを考えればよい。
It should be noted that the correlation coefficient E (X, Y) expressed by the above equation (2) or (3) indicates that the search area and the reference area are both X
The general case of the secondary plane area on the −Y plane has been described, but as described above, in the case of FIG. 5, since the search area is limited on the scanning line Sc2, the Y direction component is What is necessary is to ignore it and consider only the X-direction component.

【0016】[0016]

【発明が解決しようとする課題】しかし、上記のような
従来の対応点探索は、式(2)又は(3)の演算を探索領域
内の全ての参照画素につき行わなければならず、その演
算量が非常に大きなものとなっている。そのため、この
演算の実行に少なからず時間を要することとなり、高速
な対応点探索を行うことができなかった。
However, in the above-described conventional corresponding point search, the operation of equation (2) or (3) must be performed for all reference pixels in the search area. The amount is very large. As a result, it takes a considerable amount of time to execute this calculation, and a high-speed corresponding point search cannot be performed.

【0017】高速な対応点探索を行う技術としては、例
えば、特開平7−103734号に開示されているよう
に、より低解像度の画像である階層画像を作成し、この
画像上で求められた視差データを参照して探索範囲を絞
り込むことにより、演算時間を短縮する技術が従来から
提示されている。この従来技術によれば、たしかに或る
程度演算時間は短縮されるものの、各階層の画像に応じ
た大容量のメモリを設けなければならないというハード
ウエア上の別の問題が生じることになる。
As a technique for performing a high-speed corresponding point search, for example, as disclosed in Japanese Patent Application Laid-Open No. 7-103734, a hierarchical image, which is a lower resolution image, is created and obtained on this image. Techniques for shortening the calculation time by narrowing a search range with reference to disparity data have been conventionally proposed. According to this conventional technique, although the calculation time is reduced to some extent, another hardware problem arises in that a large-capacity memory corresponding to the image of each layer must be provided.

【0018】本発明は上記事情に鑑みてなされたもので
あり、ハードウエアの規模を拡大することなく、高速に
対応点探索を行うことができる画像処理装置を提供する
ことを目的としている。
The present invention has been made in view of the above circumstances, and it is an object of the present invention to provide an image processing apparatus capable of performing a corresponding point search at high speed without increasing the scale of hardware.

【0019】[0019]

【課題を解決するための手段】上記課題を解決するため
の手段として請求項1記載の発明は、予め設定された3
次元座標上で所定の位置関係を有するように設置された
複数の撮像手段から対象物に関する画像情報を入力する
画像入力手段と、前記画像入力手段から得られる複数の
画像における各特徴量を抽出する特徴量抽出手段と、前
記複数の画像のうちのいずれか一を基準画像とし、この
基準画像の注目画素に対応する他の画像の対応画素を前
記特徴量に基づいて探索し、両画素間の視差データを求
める対応点探索手段と、前記対応点探索手段が求めた視
差データに基づいて、前記対象物に関する距離データを
演算する距離データ演算手段と、を備え、前記対応点探
索手段は、前記対応画素を探索する場合に、前記他の画
像に探索領域を設定すると共に、この探索領域中の一の
参照画素を中心とした参照ブロックと、注目画素を中心
とした注目ブロックを設定し、この2つのブロック内の
対応する位置の画素同士の特徴量の差に基づき定格値を
順次積算して前記参照ブロックと注目ブロックとの間の
相関係数を演算することに基づき、前記探索領域中での
対応画素の探索を行う、画像処理装置において、前記対
応点探索手段は、前記参照ブロックと前記注目ブロック
との間の相関係数を演算する過程において、積算途中の
相関係数逐次を予め設定してある基準相関係数と比較
し、積算途中の相関係数が基準相関係数よりも大きな値
になった時には、直ちにその参照ブロックとの間の相関
係数のの演算を中止すると共に次の参照ブロックに移行
して同様に相関係数の演算を行い、一方、積算途中の相
関係数が基準相関係数よりも小さな場合には、同一参照
ブロックとの間の相関係数の演算が続行され、さらに
は、同一参照ブロックとの間の相関係数の演算が途中で
中止されることなく最後まで行われた結果得られた相関
係数が前記基準相関係数よりも小さな場合には、その相
関係数を新たな基準相関係数として設定し、次の参照ブ
ロックに移行して新たな相関係数の演算を行う際は、積
算途中の相関係数を逐次この新たに設定した基準相関係
数と比較するようにする、ことを特徴とする。
Means for Solving the Problems As means for solving the above problems, the invention according to claim 1 is based on a preset 3
Image input means for inputting image information on an object from a plurality of image pickup means installed so as to have a predetermined positional relationship on dimensional coordinates, and extracting each feature amount in a plurality of images obtained from the image input means A feature amount extracting unit, and using any one of the plurality of images as a reference image, searching for a corresponding pixel of another image corresponding to a target pixel of the reference image based on the feature amount, Corresponding point searching means for obtaining disparity data, and distance data calculating means for calculating distance data for the object based on the disparity data obtained by the corresponding point searching means, wherein the corresponding point searching means comprises: When searching for a corresponding pixel, a search area is set in the other image, and a reference block centered on one reference pixel in the search area and a target block centered on the target pixel are set. Based on calculating the correlation coefficient between the reference block and the block of interest by sequentially integrating the rated value based on the difference between the feature values of the pixels at the corresponding positions in the two blocks, In the image processing apparatus for searching for a corresponding pixel in the search area, the corresponding point searching means calculates a correlation coefficient between the reference block and the target block, The number correlation is compared with a preset reference correlation coefficient, and when the correlation coefficient during the integration becomes larger than the reference correlation coefficient, the calculation of the correlation coefficient with the reference block is immediately performed. Is stopped and the operation proceeds to the next reference block to calculate the correlation coefficient in the same manner. On the other hand, if the correlation coefficient during integration is smaller than the reference correlation coefficient, the correlation between the reference block and the same reference block is calculated. Calculation of relation number continues Further, if the correlation coefficient obtained as a result of performing the calculation of the correlation coefficient between the same reference block to the end without being stopped halfway is smaller than the reference correlation coefficient, When the correlation coefficient is set as a new reference correlation coefficient, and a transition is made to the next reference block to calculate a new correlation coefficient, the correlation coefficient in the course of integration is sequentially changed to the newly set reference phase. The number of relations is compared.

【0020】請求項2記載の発明は、請求項1記載の発
明において、前記対応点探索手段は、前回探索時の注目
画素に対応する対応画素の位置を今回探索時の初期探索
位置として設定するものである、ことを特徴とする。
According to a second aspect of the present invention, in the first aspect of the present invention, the corresponding point searching means sets a position of a corresponding pixel corresponding to a target pixel in a previous search as an initial search position in a current search. Is characterized by the following.

【0021】[0021]

【発明の実施の形態】以下、本発明の実施形態を図に基
づき説明する。但し、図4と同様の構成要素には同一の
符号を付して重複した説明を省略する。図1が図4と異
なる点は、対応点探索手段6が相関係数演算手段10及
び対応点記憶手段11を有している点である。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below with reference to the drawings. However, the same components as those in FIG. 4 are denoted by the same reference numerals, and redundant description will be omitted. FIG. 1 differs from FIG. 4 in that the corresponding point searching means 6 includes a correlation coefficient calculating means 10 and a corresponding point storing means 11.

【0022】次に、上記のように構成される本実施形態
の動作を図2のフローチャートを参照しつつ説明する。
まず、相関係数演算手段10は、画像S1側の或る注目
画素の位置P1に対応する画像S2側の対応点P2を探
索するため、前回の探索により求めた対応点の位置S
(i-1)を初期探索位置S(i)として設定する(ステップ
1)。但し、iは、i=1,2,3…等の整数である。このよ
うに、前回の探索により求めた対応点を初期探索位置と
しているのは、隣接する画素同士の視差データは、通
常、相関性が高いので、今回の探索においても前回探索
時の対応画素付近に対応画素が存在する可能性が高いと
考えられるからである。
Next, the operation of the present embodiment configured as described above will be described with reference to the flowchart of FIG.
First, the correlation coefficient calculating means 10 searches the corresponding point P2 on the image S2 side corresponding to the position P1 of a certain pixel of interest on the image S1 side.
(i-1) is set as an initial search position S (i) (step 1). Here, i is an integer such as i = 1, 2, 3,. In this way, the corresponding point obtained by the previous search is used as the initial search position because the disparity data between adjacent pixels usually has a high correlation. This is because it is considered that there is a high possibility that the corresponding pixel exists.

【0023】次いで、相関係数演算手段10は、この初
期探索位置S(i)における参照画素を中心として設定さ
れる参照ブロックと、注目画素を中心として設定される
注目ブロックとの間の相関係数を前述した式(2)又は
(3)を用いて演算し、この相関係数を基準相関係数Emi
nとして設定する(ステップ2)。
Next, the correlation coefficient calculating means 10 calculates a phase relationship between the reference block set around the reference pixel at the initial search position S (i) and the target block set around the target pixel. Equation (2) or the number
Calculation is performed using (3), and this correlation coefficient is used as a reference correlation coefficient Emi.
Set as n (step 2).

【0024】ここで、位置S(i)を中心として設定され
る参照ブロックとは、位置S(i)の画素の座標を〔X,
Y〕と表した場合に、この〔X,Y〕の画素の他に、例
えば、〔X+1,Y〕、〔X−1,Y〕、〔X+2,
Y〕、〔X−2,Y〕の画素により形成される領域を指
している。注目画素を中心として設定される注目ブロッ
クも同様である。そして、相関係数演算手段10は、式
(2)又は(3)により、これら二つのブロックの同位置の
画素の特徴量の差分値の二乗、絶対値差分のブロック内
での積算を行う。
Here, the reference block set with the position S (i) as the center is defined by the coordinates of the pixel at the position S (i) [X,
Y], besides the pixel of [X, Y], for example, [X + 1, Y], [X-1, Y], [X + 2,
Y] and [X-2, Y]. The same applies to the block of interest set around the pixel of interest. Then, the correlation coefficient calculating means 10 calculates the equation
According to (2) or (3), the square of the feature value difference value of the pixel at the same position of these two blocks and the integration of the absolute value difference within the block are performed.

【0025】上記のように基準相関係数Eminが設定さ
れた後、相関係数演算手段10は、参照画素の更新を行
う(ステップ3)。この更新により、例えば、ステップ1
で設定された初期探索位置から走査線Sc2上で例えば
1画素分だけ右方へ移動させた位置が新たな参照ブロッ
クの中心位置とされる。そして、相関係数演算手段10
は、この新たな参照画素において、式(2)又は(3)を用
いて相関係数Eの積算値の演算を行う(ステップ4)。こ
のステップ4における積算値Eの演算は、ステップ2に
おける初期相関係数Eminの演算と同様に行われる。
After the reference correlation coefficient Emin is set as described above, the correlation coefficient calculation means 10 updates the reference pixel (step 3). By this update, for example, step 1
The position moved to the right by, for example, one pixel on the scanning line Sc2 from the initial search position set in the above is set as the center position of the new reference block. Then, the correlation coefficient calculating means 10
Calculates the integrated value of the correlation coefficient E using equation (2) or (3) at this new reference pixel (step 4). The calculation of the integrated value E in step 4 is performed in the same manner as the calculation of the initial correlation coefficient Emin in step 2.

【0026】相関係数演算手段10は、画素単位の差分
値の二乗又は差分絶対値の積算を行う毎に、それまでの
積算値Eと基準相関係数Eminとの間の大小関係を比較
する(ステップ5)。図6の例では、E=(S−P)2の段
階でEとEminとの最初の比較を行い、E=(S−P)2+
(S1−P1)2の積算段階で2回目の比較を行い、さら
に、E=(S−P)2+(S1−P1)2+(S2−P2)2の積算
段階で3回目の比較を行うというように、積算途中の相
関係数Eを逐次基準相関係数Eminと比較する。
The correlation coefficient calculating means 10 compares the magnitude relation between the integrated value E and the reference correlation coefficient Emin each time the square of the difference value in pixel units or the integration of the absolute value of the difference is performed. (Step 5). In the example of FIG. 6, the first comparison between E and Emin is performed at the stage of E = (SP) 2, and E = (SP) 2+
The second comparison is performed in the integration stage of (S1-P1) 2, and the third comparison is performed in the integration stage of E = (SP) 2+ (S1-P1) 2+ (S2-P2) 2. As described above, the correlation coefficient E in the course of integration is sequentially compared with the reference correlation coefficient Emin.

【0027】そして、積算値Eが基準相関係数Eminよ
り小さな場合には、ブロック内での積算が終了している
か否かを判別し(ステップ6)、終了していなければ積算
を続行する(ステップ4)。また、ステップ6で、積算が
終了していると判別した場合には、この参照画素におけ
る積算値Eを新たな基準相関係数Eminとして設定する
(ステップ7)。
If the integrated value E is smaller than the reference correlation coefficient Emin, it is determined whether or not the integration in the block has been completed (step 6), and if not, the integration is continued (step 6). Step 4). If it is determined in step 6 that the integration has been completed, the integrated value E of the reference pixel is set as a new reference correlation coefficient Emin (step 7).

【0028】次いで、相関係数演算手段10は、探索領
域での探索が終了したか否か、すなわち走査線Sc2上
における全ての参照画素について、その積算値Eの演算
を行ったか否かについて判別する(ステップ8)。そし
て、未だ探索が終了していなければ、ステップ3に戻っ
て参照画素を更新する。また、ステップ5で、基準相関
係数Eminが積算値Eより大きいか又は等しいことを判
別した場合には、直ちにそのブロック内での積算値Eの
積算を中止してステップ8に移り、探索領域での探索が
終了したか否かについての判別を行う。これは、積算値
Eの値が基準相関係数Emin以上となったことは、もは
やその参照画素が対応画素である可能性が無くなったこ
とを意味するため、それ以上そのブロックでの積算を続
行しても無駄なことが明らかだからである。
Next, the correlation coefficient calculating means 10 determines whether or not the search in the search area has been completed, that is, whether or not the integrated value E has been calculated for all the reference pixels on the scanning line Sc2. (Step 8). If the search has not been completed, the process returns to step 3 to update the reference pixel. If it is determined in step 5 that the reference correlation coefficient Emin is greater than or equal to the integrated value E, the integration of the integrated value E in the block is immediately stopped, and the process proceeds to step 8, where the search area is determined. A determination is made as to whether the search at has been completed. This means that the fact that the value of the integrated value E is equal to or larger than the reference correlation coefficient Emin means that the reference pixel is no longer likely to be the corresponding pixel, so that the integration in the block is continued further. This is because it is obviously useless.

【0029】相関係数演算手段10は、ステップ8で探
索が終了したことを判別した後、それまで演算した相関
係数の値のうち最小のものを選択し、その時の点P2
〔X2,Y2 〕の位置S(i)を対応画素の位置P´(i)
に決定する。そして、この対応画素の位置P´(i)を
対応点記憶手段11に記憶させる(ステップ9)。この記
憶された位置P´(i)は、次の注目画素における初期
探索位置に設定されることになる。なお、最小の相関係
数の値は、ステップ7において基準相関係数Eminを下
回る積算値Eが算出された場合には、常にこの積算値E
が新たな基準相関係数Eminとして設定されていること
から、基準相関係数Eminとなる。
After determining that the search has been completed in step 8, the correlation coefficient calculation means 10 selects the smallest one of the correlation coefficient values calculated so far and selects the point P2 at that time.
The position S (i) of [X2, Y2] is changed to the position P '(i) of the corresponding pixel.
To decide. Then, the position P '(i) of the corresponding pixel is stored in the corresponding point storage means 11 (step 9). The stored position P ′ (i) is set as the initial search position in the next target pixel. When the integrated value E that is smaller than the reference correlation coefficient Emin is calculated in step 7, the minimum value of the correlation coefficient is always the integrated value E.
Is set as a new reference correlation coefficient Emin, so that the reference correlation coefficient Emin is obtained.

【0030】対応点探索手段6は、このように点P1
〔X1,Y1 〕に対応する点P2 〔X2,Y2 〕を探索した
後、両点間の視差データD(X2−X1,0 )を算出する
(ステップ10)。対応点探索手段6は、上記のステップ
1〜ステップ10までの処理を、画像S1の全ての画素
を注目画素として行う。
The corresponding point searching means 6 determines the point P1
After searching for the point P2 [X2, Y2] corresponding to [X1, Y1], the disparity data D (X2-X1, 0) between the two points is calculated.
(Step 10). The corresponding point search means 6 performs the above-described steps 1 to 10 with all the pixels of the image S1 as target pixels.

【0031】上述したように、本実施形態の対応点探索
手段6は、或るブロック内で積算値Eを演算している途
中で、この積算値Eが基準相関係数Emin以上となった
場合には直ちにその時点で参照ブロックでの演算を中止
し、次の参照画素に移行するようにしている。従来は、
積算値Eの値如何にかかわらず、参照ブロック内の全て
の画素について積算を行った後に、次の参照画素に移行
するようにしていたが、このように積算を行う過程にお
いて積算値Eと基準相関係数Eminとの大小関係を判別
する技術を導入することにより、無駄な演算を排除する
ことができ演算時間を短縮することができる。
As described above, the corresponding point searching means 6 of the present embodiment calculates the integrated value E in a certain block while the integrated value E becomes equal to or larger than the reference correlation coefficient Emin. Immediately stops the operation in the reference block at that point and shifts to the next reference pixel. conventionally,
Regardless of the value of the integrated value E, after the integration is performed for all the pixels in the reference block, the process is shifted to the next reference pixel. By introducing a technique for judging the magnitude relationship with the correlation coefficient Emin, useless computation can be eliminated and the computation time can be reduced.

【0032】この場合、基準相関係数Eminとしては、
できるだけ小さな値、すなわち対応点に係る相関係数の
値であることが、それだけ排除される無駄な演算が多く
なることから好ましくなるが、本実施形態では初期探索
位置を前回探索時の対応点としているので、演算当初か
ら最も小さな値となる可能性が大きな基準相関係数Emi
nを用いることができ、演算時間の短縮についてより適
切な構成となっている。また、本実施形態の構成は、大
容量のメモリ等を必要とするものではなく、ハードウエ
ア上の規模の拡大を伴うことはない。
In this case, the reference correlation coefficient Emin is
It is preferable that the value is as small as possible, that is, the value of the correlation coefficient relating to the corresponding point, since the wasteful calculation to be eliminated is increased. However, in the present embodiment, the initial search position is set as the corresponding point in the previous search. The reference correlation coefficient Emi is likely to be the smallest value from the beginning of the calculation.
Since n can be used, the configuration is more appropriate for reducing the operation time. The configuration of the present embodiment does not require a large-capacity memory or the like, and does not involve an increase in hardware scale.

【0033】なお、上記実施形態では、位置S(i)の及
び注目画素を中心として設定されるブロックについて、
位置S(i)の画素及び注目画素の座標を〔X,Y〕と表
した場合に、この〔X,Y〕の画素の他に、例えば、
〔X+1,Y〕、〔X−1,Y〕、〔X+2,Y〕、
〔X−2,Y〕の画素により形成される領域を指してい
ると説明したが、範囲については種々の条件を加味して
自由に設定することができ、また、ブロック内で積算を
行う順番についても自由に設定することが可能である。
In the above embodiment, the block set at the position S (i) and the pixel of interest is set as the center.
When the coordinates of the pixel at the position S (i) and the pixel of interest are represented by [X, Y], for example, in addition to the pixel at [X, Y], for example,
[X + 1, Y], [X-1, Y], [X + 2, Y],
Although it has been described that the area is formed by the pixels of [X-2, Y], the range can be freely set in consideration of various conditions, and the order in which the integration is performed in the block. Can also be set freely.

【0034】[0034]

【発明の効果】以上のように、本発明によれば、参照画
素を中心とする参照ブロックと注目画素を中心とする注
目ブロックとの間の相関係数を演算する過程において、
この演算途中の相関係数を予め設定してある基準相関係
数と比較し、演算途中の相関係数が基準相関係数よりも
大きな場合には、直ちにその参照ブロックとの間の演算
を中止すると共に次の参照画素に移行して同様に相関係
数の演算を行い、一方、演算途中の相関係数が基準相関
係数よりも小さな場合には、演算を続行すると共に、そ
の参照ブロックとの間の相関係数の演算がそれ以降も途
中で中止されることなく最後まで行われ、かつ、演算の
結果得られた相関係数が基準相関係数よりも小さな場合
には、その相関係数を新たな基準相関係数として設定
し、次の参照ブロックに移行した後は、演算途中の相関
係数をこの新たに設定した基準相関係数と比較する構成
としたので、ハードウエアの規模を拡大することなく、
高速に対応点探索を行うことが可能になる。
As described above, according to the present invention, in the process of calculating the correlation coefficient between the reference block centered on the reference pixel and the target block centered on the target pixel,
The halfway correlation coefficient is compared with a preset reference correlation coefficient. If the halfway calculation correlation coefficient is larger than the reference correlation coefficient, the calculation with the reference block is immediately stopped. At the same time, the process proceeds to the next reference pixel and calculates the correlation coefficient in the same manner. On the other hand, if the correlation coefficient during the calculation is smaller than the reference correlation coefficient, the calculation is continued and the reference block and the If the calculation of the correlation coefficient between is performed to the end without interruption, and the correlation coefficient obtained as a result of the calculation is smaller than the reference correlation coefficient, the correlation After the number is set as a new reference correlation coefficient, and after shifting to the next reference block, the correlation coefficient in the middle of calculation is compared with this newly set reference correlation coefficient. Without expanding
It is possible to perform a corresponding point search at high speed.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施形態の要部の構成を示すブロック
図。
FIG. 1 is a block diagram showing a configuration of a main part of an embodiment of the present invention.

【図2】図1の動作を説明するためのフローチャート
図。
FIG. 2 is a flowchart for explaining the operation of FIG. 1;

【図3】従来の画像処理装置の構成を示す平面図。FIG. 3 is a plan view showing a configuration of a conventional image processing apparatus.

【図4】図3における画像処理回路3の構成を示すブロ
ック図。
FIG. 4 is a block diagram showing a configuration of an image processing circuit 3 in FIG. 3;

【図5】ステレオ画像計測法についての説明図。FIG. 5 is a diagram illustrating a stereo image measurement method.

【図6】相関係数の具体的な求め方についての説明図。FIG. 6 is a diagram illustrating a specific method for obtaining a correlation coefficient.

【符号の説明】[Explanation of symbols]

1 対象物1 2L ,2R 撮像手段 3 画像処理回路 4L ,4R 画像入力手段 5L ,5R 特徴量抽出手段 6 対応点探索手段 7 距離データ演算手段 8 対応関係判別手段 9 対応点補正手段 10 相関係数演算手段 11 対応点記憶手段 DESCRIPTION OF SYMBOLS 1 Object 1 2L, 2R imaging means 3 Image processing circuit 4L, 4R Image input means 5L, 5R Feature extraction means 6 Corresponding point searching means 7 Distance data calculating means 8 Correspondence discriminating means 9 Corresponding point correcting means 10 Correlation coefficient Calculation means 11 Corresponding point storage means

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 2F065 AA04 AA53 BB05 BB24 DD06 FF01 FF05 JJ03 JJ19 JJ26 QQ21 QQ24 QQ32 QQ36 QQ39 QQ41 RR09 UU05 2F112 AC03 AC06 BA05 CA08 CA12 DA02 FA03 FA21 FA36 FA39 FA41 5B057 CC03 DA07 DB03 DC34  ──────────────────────────────────────────────────続 き Continuing on the front page F term (reference) 2F065 AA04 AA53 BB05 BB24 DD06 FF01 FF05 JJ03 JJ19 JJ26 QQ21 QQ24 QQ32 QQ36 QQ39 QQ41 RR09 UU05 2F112 AC03 AC06 BA05 CA08 CA12 DA02 FA03 FA21 FA36 FA39 DC043DB

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】予め設定された3次元座標上で所定の位置
関係を有するように設置された複数の撮像手段から対象
物に関する画像情報を入力する画像入力手段と、 前記画像入力手段から得られる複数の画像における各特
徴量を抽出する特徴量抽出手段と、 前記複数の画像のうちのいずれか一を基準画像とし、こ
の基準画像の注目画素に対応する他の画像の対応画素を
前記特徴量に基づいて探索し、両画素間の視差データを
求める対応点探索手段と、 前記対応点探索手段が求めた視差データに基づいて、前
記対象物に関する距離データを演算する距離データ演算
手段と、 を備え、前記対応点探索手段は、前記対応画素を探索す
る場合に、前記他の画像に探索領域を設定すると共に、
この探索領域中の一の参照画素を中心とした参照ブロッ
クと、注目画素を中心とした注目ブロックを設定し、こ
の2つのブロック内の対応する位置の画素同士の特徴量
の差に基づき定格値を順次積算して前記参照ブロックと
注目ブロックとの間の相関係数を演算することに基づ
き、前記探索領域中での対応画素の探索を行う、画像処
理装置において、 前記対応点探索手段は、 前記参照ブロックと前記注目ブロックとの間の相関係数
を演算する過程において、積算途中の相関係数逐次を予
め設定してある基準相関係数と比較し、積算途中の相関
係数が基準相関係数よりも大きな値になった時には、直
ちにその参照ブロックとの間の相関係数のの演算を中止
すると共に次の参照ブロックに移行して同様に相関係数
の演算を行い、一方、積算途中の相関係数が基準相関係
数よりも小さな場合には、同一参照ブロックとの間の相
関係数の演算が続行され、さらには、同一参照ブロック
との間の相関係数の演算が途中で中止されることなく最
後まで行われた結果得られた相関係数が前記基準相関係
数よりも小さな場合には、その相関係数を新たな基準相
関係数として設定し、次の参照ブロックに移行して新た
な相関係数の演算を行う際は、積算途中の相関係数を逐
次この新たに設定した基準相関係数と比較するようにす
る、 ことを特徴とする画像処理装置。
1. An image input means for inputting image information relating to an object from a plurality of image pickup means installed so as to have a predetermined positional relationship on predetermined three-dimensional coordinates, and obtained from the image input means. A feature amount extracting unit that extracts each feature amount in a plurality of images; and any one of the plurality of images is used as a reference image, and a corresponding pixel of another image corresponding to a target pixel of the reference image is used as the feature amount. A corresponding point searching means for searching for parallax data between the two pixels based on the distance data calculating means for calculating distance data on the object based on the parallax data obtained by the corresponding point searching means. And the corresponding point searching means, when searching for the corresponding pixel, sets a search area in the other image,
A reference block centered on one reference pixel in the search area and a target block centered on the target pixel are set, and a rated value is set based on a difference in feature amount between pixels at corresponding positions in the two blocks. In the image processing apparatus, based on calculating the correlation coefficient between the reference block and the block of interest by sequentially integrating the corresponding blocks, a corresponding pixel is searched in the search area. In the process of calculating the correlation coefficient between the reference block and the block of interest, the successive correlation coefficients in the course of integration are compared with a preset reference correlation coefficient, and the correlation coefficient in the course of integration is used as the reference phase. When the value becomes larger than the number of relations, the calculation of the correlation coefficient with the reference block is immediately stopped, and the operation proceeds to the next reference block to calculate the correlation coefficient in the same manner. On the way When the correlation coefficient is smaller than the reference correlation coefficient, the calculation of the correlation coefficient with the same reference block is continued, and the calculation of the correlation coefficient with the same reference block is stopped halfway. If the correlation coefficient obtained as a result of performing the calculation to the end without being performed is smaller than the reference correlation coefficient, the correlation coefficient is set as a new reference correlation coefficient, and the process proceeds to the next reference block. When calculating a new correlation coefficient, the correlation coefficient in the course of integration is sequentially compared with the newly set reference correlation coefficient.
【請求項2】前記対応点探索手段は、 前回探索時の注目画素に対応する対応画素の位置を今回
探索時の初期探索位置として設定するものである、 ことを特徴とする請求項1記載の画像処理装置
2. The apparatus according to claim 1, wherein said corresponding point searching means sets a position of a corresponding pixel corresponding to a target pixel in a previous search as an initial search position in a current search. Image processing device
JP11017214A 1999-01-26 1999-01-26 Image processor Pending JP2000213933A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11017214A JP2000213933A (en) 1999-01-26 1999-01-26 Image processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11017214A JP2000213933A (en) 1999-01-26 1999-01-26 Image processor

Publications (1)

Publication Number Publication Date
JP2000213933A true JP2000213933A (en) 2000-08-04

Family

ID=11937706

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11017214A Pending JP2000213933A (en) 1999-01-26 1999-01-26 Image processor

Country Status (1)

Country Link
JP (1) JP2000213933A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003322521A (en) * 2002-04-26 2003-11-14 Honda Motor Co Ltd Image recognition device
JP2007212430A (en) * 2006-08-07 2007-08-23 Kurabo Ind Ltd Photogrammetry device and system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003322521A (en) * 2002-04-26 2003-11-14 Honda Motor Co Ltd Image recognition device
JP2007212430A (en) * 2006-08-07 2007-08-23 Kurabo Ind Ltd Photogrammetry device and system

Similar Documents

Publication Publication Date Title
US7471809B2 (en) Method, apparatus, and program for processing stereo image
JP3576987B2 (en) Image template matching method and image processing apparatus
JP2006221603A (en) Three-dimensional-information reconstructing apparatus, method and program
JP6701930B2 (en) Authoring device, authoring method, and authoring program
KR960035351A (en) 3D display image generation method, image processing method using depth information, depth information generation method
JP4941565B2 (en) Corresponding point search apparatus and corresponding point searching method
US20100118125A1 (en) Method and apparatus for generating three-dimensional (3d) image data
US20160275691A1 (en) System and a method for generating a depth map
EP3460757B1 (en) Image processing apparatus and image processing system
JP3008875B2 (en) Subject extraction device
JP4102386B2 (en) 3D information restoration device
JP2966248B2 (en) Stereo compatible search device
JP4524514B2 (en) Image processing apparatus, image processing method, and recording medium
JP2802034B2 (en) 3D object measurement method
JP5316309B2 (en) Image processing apparatus and image processing method
JP2009282762A (en) Corresponding point retrieval device
JP2000213933A (en) Image processor
US6625301B2 (en) Image processing apparatus, image processing method and transmission medium
JP2007179236A (en) Image generation device and method
JP5446516B2 (en) Image processing device
KR101804157B1 (en) Disparity map generating method based on enhanced semi global matching
KR20060115237A (en) The stereo matching method using edge projection
KR20060007816A (en) Method for synthesizing image
JP3316682B2 (en) Stereo image measurement device
JPH11203476A (en) Method for aligning epipolar line and stereoscopic image device