JPH0981755A - Plane estimating method - Google Patents

Plane estimating method

Info

Publication number
JPH0981755A
JPH0981755A JP7234019A JP23401995A JPH0981755A JP H0981755 A JPH0981755 A JP H0981755A JP 7234019 A JP7234019 A JP 7234019A JP 23401995 A JP23401995 A JP 23401995A JP H0981755 A JPH0981755 A JP H0981755A
Authority
JP
Japan
Prior art keywords
plane
straight line
distance
plane passing
distance data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP7234019A
Other languages
Japanese (ja)
Other versions
JP3340599B2 (en
Inventor
Yasuyuki Domoto
泰之 道本
Masato Nishizawa
眞人 西澤
Katsumasa Onda
勝政 恩田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP23401995A priority Critical patent/JP3340599B2/en
Priority to US08/704,895 priority patent/US5825915A/en
Priority to CA002184561A priority patent/CA2184561C/en
Priority to DE69625423T priority patent/DE69625423T2/en
Priority to EP96114009A priority patent/EP0762326B1/en
Publication of JPH0981755A publication Critical patent/JPH0981755A/en
Application granted granted Critical
Publication of JP3340599B2 publication Critical patent/JP3340599B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To precisely measure distance data on a plane without being affected by bodies on a road and a floor by performing Hough transform for distance data measured partially on the observation plane, applying two abnormal straight lines running in the observation plane, estimating a plane position by using the straight lines, and acquiring undetermined distance data in the plane. SOLUTION: In photography phase A, two left and right images S1 and S2 are obtained by two image pickup devices. Then those left and right images S1 and S2 are made in correspondence phase B to correspond to each other S3. In the correspondence phase B, one reference image is divided into blocks of m×n pixels and the images are made to correspond to each other, block by block, S3. Parallax in block units which is obtained in the correspondence phase is passed to a trailing-stage plane estimation phase C. In plane estimation phase C, the blocks are grouped horizontally, straight lines running in the observation plane are applied, group by group, through the Hough transform, and the plane is estimated from the obtained straight line group.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、ステレオ画像処理にお
ける平面推定方法に関するものであり、観察平面上にお
いて部分的に計測された距離データに対してハフ変換を
行い、観察平面内を通る2本以上の直線を当てはめ、こ
の直線を用いて平面位置を推定し、平面内の未決定距離
データを獲得する方法である。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a plane estimation method in stereo image processing, in which Hough transform is performed on distance data partially measured on an observation plane, and two lines passing through the observation plane are passed. This is a method of fitting the above straight line, estimating the plane position using this straight line, and obtaining undetermined distance data within the plane.

【0002】[0002]

【従来の技術】図11はステレオ画像計測の原理を説明す
る図である。図11において、実空間を表す座標として
x,y,zを用い、画像(カメラ撮像面)上の位置を示す
座標としてX,Yを用いる。但し、左カメラ11L,右カ
メラ11Rを区別するために、左カメラ11Lの画像面上の
位置を示す座標としてXL,YLを用い、右カメラ11Rの
画像面上の位置を示す座標としてXR,YRを用いる。x
軸とXL軸、x軸とXR軸、y軸とYL軸、y軸とYR軸は
互いに平行であり、z軸は2台の左,右のカメラ11L,
11Rの光軸に平行であるものとする。実空間座標系の原
点を左,右のカメラ11L,11Rの投影中心の中点にと
り、投影中心間の距離を基線長と呼び、その長さを2a
で表すことにする。また、投影中心と画像面の距離(焦
点距離)をfで表す。
2. Description of the Related Art FIG. 11 is a diagram for explaining the principle of stereo image measurement. In FIG. 11, x, y, and z are used as the coordinates representing the real space, and X and Y are used as the coordinates indicating the position on the image (camera imaging surface). However, X in order to distinguish the left camera 11L, the right camera 11R, as X L, using a Y L, coordinates indicating the position on the image plane of the right camera 11R as coordinates indicating the position on the image plane of the left camera 11L R and Y R are used. x
The axis is parallel to the X L axis, the x axis is the X R axis, the y axis is the Y L axis, the y axis is the Y R axis, and the z axis is two left and right cameras 11L,
It is assumed to be parallel to the optical axis of 11R. The origin of the real space coordinate system is set to the midpoint of the projection centers of the left and right cameras 11L and 11R, and the distance between the projection centers is called the baseline length, which is 2a.
Will be represented by Also, the distance (focal length) between the projection center and the image plane is represented by f.

【0003】いま、実空間内の点pが左画面上の点P
L(XL,YL)、右画面上の点PR(XR,YR)にそれぞれ投
影されたものとする。ステレオ画像計測では、画像面上
においてPL,PRを決定し、三角測量の原理で点pの実
空間座標(x,y,z)を求める。ここでは、2台の左,
右のカメラ11L,11Rの光軸が同一平面上にあり、x軸
とX軸とを平行にとっていることからYL,YRは同じ値
をとる。画像面上の座標XL,YL,XR,YRと実空間内
の座標x,y,zとの関係は、
Now, a point p in the real space is a point P on the left screen.
It is assumed that L (X L , Y L ) and the point P R (X R , Y R ) on the right screen are projected. In stereo image measurement, P L and P R are determined on the image plane, and the real space coordinates (x, y, z) of the point p are obtained by the principle of triangulation. Here, the two left,
Right camera 11L, the optical axis of 11R are in the same plane, Y L from the fact that taking parallel the x-axis and the X-axis, Y R takes the same value. The relationship between the coordinates X L , Y L , X R , Y R on the image plane and the coordinates x, y, z in the real space is

【0004】[0004]

【数1】 [Equation 1]

【0005】あるいは、Alternatively,

【0006】[0006]

【数2】 [Equation 2]

【0007】と求められる。ここで、Is required. here,

【0008】[0008]

【数3】d=XL−XR は視差dを表している。(数2)から、a>0であるの
で、
Equation 3] d = X L -X R represents the parallax d. From (Equation 2), since a> 0,

【0009】[0009]

【数4】XL>XR かつ YL=YR これは、一方の画像面上の1点に対応した他方の画面上
での対応点は、エピポーラ線である同じ走査線上、かつ
L>XRの範囲に存在することを示す。従って、一方の
画像上の1点に対応した他方の画面上の点は、対応点が
存在する可能性のある直線に沿ったある小領域について
画像の類似性を調べて見出すことができる。
X L > X R and Y L = Y R This is because the corresponding point on the other screen corresponding to one point on one image plane is on the same scanning line which is an epipolar line, and X L It exists in the range of> X R. Therefore, a point on the other screen corresponding to one point on one image can be found by examining the similarity of the images for a small area along a straight line where the corresponding point may exist.

【0010】次に、両画像間の類似性の評価方法につい
て説明する。一例として、実吉 敬二他著「3次元画像
認識技術を用いた運転支援システム」(自動車技術学会
学術講演会前刷集9241992−10)に記載の左右画像を対
応付ける一方法を図12を用いて説明する。まず、図12
(1)に示す基準画像とする左画像12Lを水平方向M個、
垂直方向N個に分割し、M×N個の矩形領域に分割す
る。以下の説明では左画像12Lにおける矩形領域をブロ
ックと呼ぶことにする。このブロックを拡大図示した図
12(3)のブロック1201はm×n個の画素で構成されてい
る。このブロック1201内部におけるi番目の画素の明る
さをLiとする。また図12(2)に示す右画像12Rにも左画
像12Lと同様にm×n画素の矩形領域を設定し、矩形領
域内部におけるi番目の画素の明るさをRiとする。こ
れら左右画像間の矩形領域の類似度評価値Cは(数5)で
与えられる。
Next, a method of evaluating the similarity between both images will be described. As an example, a method of associating the left and right images described in Keiji Mitsuyoshi et al., “Driving Support System Using 3D Image Recognition Technology” (Preliminary Collection 9241992-10, Academic Conference of the Society of Automotive Engineers of Japan) will be described with reference to FIG. To do. First, Fig. 12
The left image 12L as the reference image shown in (1) is M in the horizontal direction,
It is divided into N pieces in the vertical direction and divided into M × N rectangular areas. In the following description, the rectangular area in the left image 12L will be called a block. Enlarged view of this block
The 12 (3) block 1201 is composed of m × n pixels. The brightness of the i-th pixel inside this block 1201 is L i . Similarly to the left image 12L, a rectangular region of m × n pixels is set in the right image 12R shown in FIG. 12 (2), and the brightness of the i-th pixel inside the rectangular region is set to R i . The similarity evaluation value C of the rectangular area between these left and right images is given by (Equation 5).

【0011】[0011]

【数5】 (Equation 5)

【0012】対応領域が存在する可能性のある右画像12
R中の探索範囲1202において、矩形領域を水平方向に1
画素ずつ移動させて類似度評価値Cを計算し、この値が
最小になる領域を対応領域とする。この方法では、対応
領域を左画像12Lにおけるブロック単位で決定すること
ができ、また対応領域が決まれば、その対応領域の座標
位置から即座に(数3)を用いて視差dを求めることがで
きる。基準とする左画像12Lにおいてブロックごとに得
られた視差dから(数1)を用いてz(以下では距離デー
タK)を求める。距離データKは説明の便宜上以下のよ
うに示すことにする。
A right image 12 in which a corresponding area may exist
In the search range 1202 in R, the rectangular area is set to 1 in the horizontal direction.
The similarity evaluation value C is calculated by moving pixel by pixel, and the area where this value is the minimum is set as the corresponding area. In this method, the corresponding area can be determined in block units in the left image 12L, and if the corresponding area is determined, the parallax d can be immediately obtained from the coordinate position of the corresponding area using (Equation 3). . From the parallax d obtained for each block in the reference left image 12L, z (below, distance data K) is obtained using (Equation 1). The distance data K will be shown as follows for convenience of explanation.

【0013】距離データK(X,Y,t) X:水平方向のインデックス 1≦X≦M Y:垂直方向のインデックス 1≦Y≦N t:画像が撮影された時刻 図13はハフ変換において必要な各直線パラメータの説明
図であり、図13に示すx−y平面上の直線1301に対し、
座標原点0からおろした垂線1302(直線のパラメータで
ある原点までの距離)の長さをρ、前記垂線1302が直線
のパラメータである垂線1302とx軸となす角1303をθと
すると前記直線1301は(数6)のように示される。
Distance data K (X, Y, t) X: horizontal index 1≤X≤MY: vertical index 1≤Y≤N t: time when the image was taken FIG. 13 is necessary for Hough transform FIG. 14 is an explanatory diagram of each straight line parameter, with respect to a straight line 1301 on the xy plane shown in FIG.
If the length of a perpendicular 1302 (distance to the origin which is a parameter of a straight line) drawn from the coordinate origin 0 is ρ, and the angle 1303 between the perpendicular 1302 which is a parameter of a straight line and the x axis is θ, the straight line 1301 Is shown as (Equation 6).

【0014】[0014]

【数6】ρ=xcosθ+ysinθ x−y平面上の点列(xi,yi)に対して決まる[Equation 6] ρ = xcos θ + y sin θ Determined for the point sequence (x i , y i ) on the xy plane

【0015】[0015]

【数7】ρ=xisinθ+yicosθ をρ−θ平面上で表すと図14(横軸はθ,縦軸はρ)のよ
うに合成三角関数となる。この正弦曲線をハフ曲線と呼
ぶことにする。このハフ曲線は点列(xi,yi)を通るす
べての直線を示している。x−y平面上の点列(xi,y
i)が直線上にある場合、この点列(xi,yi)を順次ρ−
θ平面でのハフ曲線にすると、図14のようにハフ曲線が
一点1401で交差するようになる。最も多くの曲線が交差
する点(ρ0,θ0)がx−y平面における直線(数6)の
(ρ,θ)である。以上の操作をハフ変換による直線当て
はめという。ハフ変換による直線当てはめは、データ点
列の大局的状況を把握する直線検出法であるため、直線
上にはない点が混在していても直線検出が行える。
## EQU7 ## When ρ = x i sin θ + y i cos θ is expressed on the ρ-θ plane, a composite trigonometric function is obtained as shown in FIG. 14 (the horizontal axis is θ and the vertical axis is ρ). This sine curve will be called a Hough curve. This Hough curve shows all straight lines passing through the point sequence (x i , y i ). A sequence of points (x i , y on the xy plane
i ) is on a straight line, this point sequence (x i , y i ) is sequentially ρ−
When the Hough curve on the θ plane is used, the Hough curves intersect at one point 1401 as shown in FIG. The point (ρ 0 , θ 0 ) where the most curves intersect is the straight line (Equation 6) in the xy plane.
(ρ, θ). The above operation is called straight line fitting by Hough transform. Since the straight line fitting by the Hough transform is a straight line detection method for grasping the global situation of the data point sequence, the straight line detection can be performed even if the points which are not on the straight line are mixed.

【0016】[0016]

【発明が解決しようとする課題】上記したように、左右
画像間の矩形領域を対応付ける際には、(数5)で表され
る類似度評価値Cが最小となる位置を対応領域としてい
たが、観察平面上の矩形領域の中には特徴が少ないため
に、類似度評価値Cの最小点が明確に得られず、そのた
め距離データが求められない場合がある。
As described above, when the rectangular areas between the left and right images are associated with each other, the position where the similarity evaluation value C represented by (Equation 5) is the minimum is used as the corresponding area. Since there are few features in the rectangular area on the observation plane, the minimum point of the similarity evaluation value C may not be clearly obtained, and therefore the distance data may not be obtained.

【0017】このことは、例えば、ある時刻t0に得ら
れた距離データK(X,Y,t0)とその後一定時間間隔
Δtごとに得られる距離データK(X,Y,t0+nΔ
t)、(n=1,2,3,…)の時間変化で平面上の物体の
有無を判定しようとする場合に不都合を生じる。距離デ
ータの時間変化は、|K(X,Y,t0)−K(X,Y,t0
+nΔt)|で示されるが、これからも分かるように、距
離データK(X,Y,t0)、K(X,Y,t0+nΔt)のい
ずれか一方でも不確定であると物体の有無の判定は行え
ない。
[0017] This can, for example, distance data K obtained at a certain time t 0 (X, Y, t 0) and then fixed distance time obtained for each interval Δt data K (X, Y, t 0 + nΔ
Inconvenience occurs when it is attempted to determine the presence or absence of an object on a plane based on the time change of t), (n = 1, 2, 3, ...). The time change of the distance data is | K (X, Y, t 0 ) −K (X, Y, t 0).
+ NΔt) |, but as will be understood from this, it can be seen from the presence or absence of the object that any one of the distance data K (X, Y, t 0 ), K (X, Y, t 0 + nΔt) is uncertain. The judgment cannot be made.

【0018】本発明は、上記距離データKの不確定に基
づく物体の有無の判定ができない問題を解決し、物体の
影響を受けず、平面上の距離データを精度よく測定でき
るようにすることを目的とする。
The present invention solves the problem that the presence / absence of an object cannot be determined based on the uncertainty of the distance data K, and enables accurate measurement of distance data on a plane without being influenced by the object. To aim.

【0019】[0019]

【課題を解決するための手段】本発明は、上記目的を達
成するために、所定間隔で配置される2台の撮像手段に
より得られる2画像間で対応領域を対応付けることで三
角測量の原理で物体までの距離を計測するステレオ画像
処理において、画像を水平方向M、垂直方向Nに分割し
て得られる矩形小領域 BL(X,Y) 1≦X≦M, 1≦Y≦N ごとに距離データK(X,Y)を求め、前記矩形小領域B
L(X,Y)を水平方向にグループ化した大領域 GL(Y) 1≦Y≦N ごとに、大領域GL(Y)中に含まれるM個の距離データ
K(X,Y)からハフ変換により平面通過直線L(Y)を当
てはめ、これをすべての前記大領域GL(Y)について行
うことによって撮像空間に存在する平面を推定すること
を特徴とする。
In order to achieve the above object, the present invention is based on the principle of triangulation by associating corresponding regions between two images obtained by two image pickup means arranged at a predetermined interval. In stereo image processing for measuring the distance to an object, a distance is obtained for each rectangular small region BL (X, Y) 1 ≦ X ≦ M, 1 ≦ Y ≦ N obtained by dividing the image in the horizontal direction M and the vertical direction N. Data K (X, Y) is obtained and the rectangular small area B
For each large area GL (Y) 1 ≤ Y ≤ N in which L (X, Y) is grouped in the horizontal direction, Huffs are obtained from M distance data K (X, Y) included in the large area GL (Y). It is characterized in that the plane passing straight line L (Y) is fitted by conversion, and this is performed for all the large regions GL (Y) to estimate the plane existing in the imaging space.

【0020】[0020]

【作用】本発明によれば、観察平面を直線群で近似する
ことにより、観察平面上で距離データが得られなかった
領域の距離を推定する。そして、観察平面内を通る直線
の推定にはハフ変換を用いる。さらに、直線群は同一平
面内にあるという性質を利用して、直線群に再度ハフ変
換を行うことで、誤った位置にある直線を補正し、推定
される距離データの信頼性を向上させる。
According to the present invention, by approximating the observation plane with a group of straight lines, the distance of the region on the observation plane for which distance data cannot be obtained is estimated. The Hough transform is used to estimate the straight line passing through the observation plane. Furthermore, by utilizing the property that the straight line group is in the same plane, Hough transform is performed again on the straight line group to correct the straight line at the wrong position and improve the reliability of the estimated distance data.

【0021】この平面推定方法を用いることで、道路平
面や床平面等の特徴が少ない平面であっても、距離デー
タが得られた部分を利用して平面を推定することができ
る。しかも直線を当てはめる際、ハフ変換の大局的性質
を利用するため、観察平面上に高さのある物体が存在し
ていても、平面上の正確な距離データを得ることが可能
である。
By using this plane estimation method, it is possible to estimate the plane by utilizing the portion where the distance data is obtained, even if the plane has few features such as a road plane or a floor plane. Moreover, since the global property of the Hough transform is used when a straight line is fitted, accurate distance data on the plane can be obtained even if there is an object with a height on the observation plane.

【0022】[0022]

【実施例】図1は、本発明の一実施例におけるステレオ
画像獲得から観察平面の推定までの処理の流れを説明す
るフロー図である。まず、撮影フェーズ(A)では、2台
の撮像装置(例えば、前記図11の左右カメラ11L,11R)
にて左右の2画像を得る(S1,S2)。次に、撮影フェ
ーズ(A)で得られた左右画像(S1,S2)は、対応付け
フェーズ(B)において左右2つの画像間で対応付けが行
われる(S3)。対応付けフェーズ(B)では、基準とする
一方の画像をm×n画素のブロックに分割し、例えば従
来例の記載の方法によりブロック単位で対応付けを行
う。対応付けの結果得られるブロック単位の視差は後段
の平面推定フェーズ(C)に渡される。平面推定フェーズ
(C)では、前記ブロックを水平方向にグループ化し、グ
ループ毎に観察平面を通る直線をハフ変換によって当て
はめ、これによって得られる直線群から平面を推定する
(S4)。
DESCRIPTION OF THE PREFERRED EMBODIMENTS FIG. 1 is a flow chart for explaining the processing flow from stereo image acquisition to observation plane estimation in one embodiment of the present invention. First, in the imaging phase (A), two imaging devices (for example, the left and right cameras 11L and 11R in FIG. 11) are used.
Two left and right images are obtained at (S1, S2). Next, the left and right images (S1, S2) obtained in the imaging phase (A) are associated with each other in the left and right images in the association phase (B) (S3). In the association phase (B), one reference image is divided into m × n pixel blocks, and the association is performed in block units by, for example, the method described in the conventional example. The parallax in block units obtained as a result of the association is passed to the plane estimation phase (C) in the subsequent stage. Plane estimation phase
In (C), the blocks are grouped in the horizontal direction, a straight line passing through the observation plane is fitted to each group by Hough transform, and a plane is estimated from the resulting straight line group.
(S4).

【0023】以下の説明では、図12で説明したように、
基準画像とした左画像(S1)を水平方向M個、垂直方向
N個のブロックに分割し、視差dが決定できたブロック
では距離データK(X,Y,t)が得られているものとす
る。そして平面推定フェーズ(C)については、図2のフ
ロー図に基いて説明する。なお、従来例において記述し
た距離データK(X,Y,t)の表記に関して、時刻パラ
メータtについては省略し、距離データK(X,Y)をも
って距離データの表記とする。
In the following explanation, as explained in FIG.
It is assumed that the left image (S1) as the reference image is divided into M blocks in the horizontal direction and N blocks in the vertical direction, and the distance data K (X, Y, t) is obtained in the block for which the parallax d can be determined. To do. The plane estimation phase (C) will be described with reference to the flowchart of FIG. Regarding the notation of the distance data K (X, Y, t) described in the conventional example, the time parameter t is omitted, and the distance data K (X, Y) is used as the notation of distance data.

【0024】(C)平面推定フェーズ 平面推定フェーズ(C)では、視差が決定されたブロック
の距離データK(X,Y)を利用して観察平面を推定し、
未決定データを獲得する。
(C) Plane estimation phase In the plane estimation phase (C), the observation plane is estimated using the distance data K (X, Y) of the block for which the parallax is determined,
Acquire undecided data.

【0025】(C1)平面通過直線の当てはめ 図3は本実施例の距離データ決定の単位であるブロック
の左画面上での配置を説明する図である。ここで、説明
の便宜上、ブロックを以下のように表記する。
(C1) Fitting a plane passing straight line FIG. 3 is a diagram for explaining the arrangement of blocks on the left screen, which is the unit for determining distance data in this embodiment. Here, for convenience of description, the blocks are expressed as follows.

【0026】ブロック:BL(X,Y)、 1≦X≦
M, 1≦Y≦N また平面推定フェーズ(C)の説明においては、インデッ
クスX,Yに距離データK(X,Y)を加えた図4のよう
な3次元のK−X−Y基準座標系を用いる。
Block: BL (X, Y), 1≤X≤
M, 1 ≦ Y ≦ N In the description of the plane estimation phase (C), three-dimensional K-X-Y reference coordinates as shown in FIG. 4 in which the distance data K (X, Y) is added to the indexes X, Y. Use the system.

【0027】図3において、太線で囲まれた領域301L
N(Y)はm×n画素からなるブロックBL(X,Y)302
を水平方向にグルーピングした領域を示し、これはイン
デックスYを固定し、インデックスXのみを変化させる
ことによって生成される領域である。この領域301をL
Nと呼び、各LNを以下のように表記する。
In FIG. 3, a region 301L surrounded by a thick line
N (Y) is a block BL (X, Y) 302 composed of m × n pixels
Shows a region grouped in the horizontal direction, which is a region generated by fixing the index Y and changing only the index X. This area 301 is L
It is called N and each LN is described as follows.

【0028】領域:LN(Y)、 1≦Y≦N LN中にはM個のブロックBL(X,Y)302が含まれ
る。LN中に含まれる各ブロックBL(X,Y)302ごと
に図5(A)のように縦軸をブロックの距離データK
(X,Y)、横軸をブロックのインデックスXとして距離
データKをプロットする。平面通過直線L(Y)を当ては
める際に、インデックスYは固定してあるので、K−X
−Y基準座標空間上の点をK−X平面に投射して説明す
る。プロットした各点(K(X,Y),X)を(数8)に代入
し、θを特定区間で変化させることによって1点(K
(X,Y),X)に対応する1本のハフ曲線が得られる。
各点(K(X,Y),X)全てに対応するハフ曲線をρ−θ
平面にプロットすると図5(B)のようになる。
Area: LN (Y), 1≤Y≤N LN includes M blocks BL (X, Y) 302. For each block BL (X, Y) 302 included in LN, the vertical axis is the block distance data K as shown in FIG.
The distance data K is plotted with (X, Y) and the horizontal axis as the block index X. When fitting the plane passing straight line L (Y), the index Y is fixed, so K-X
A point on the -Y reference coordinate space is projected on the K-X plane for description. By substituting each plotted point (K (X, Y), X) into (Equation 8) and changing θ in a specific section, one point (K
One Hough curve corresponding to (X, Y), X) is obtained.
The Hough curve corresponding to each point (K (X, Y), X) is ρ−θ
When plotted on a plane, it becomes as shown in FIG.

【0029】[0029]

【数8】ρ=Xcosθ+K(X,Y)sinθ、 θSTART
θ≦θEND ρ−θ平面でハフ曲線が最も多く交差する点(ρK(Y),
θK(Y))と(数6)からK−X平面での直線501が(数9)
のように決定される。
[Equation 8] ρ = Xcos θ + K (X, Y) sin θ, θ START
θ ≤ θ END ρ − The point where the Hough curves intersect the most in the plane (ρ K (Y),
From θ K (Y)) and (Equation 6), the straight line 501 on the K-X plane is (Equation 9)
Is determined as follows.

【0030】[0030]

【数9】 [Equation 9]

【0031】図5(B)のρ−θ平面において、ハフ曲線
が最も多く交差する点を検索する方法として、ρ−θ平
面上の各点を図5(B)のように2次元配列HG(ρj,θ
j)とみなし、点(ρj,θj)をハフ曲線が通過するごとに
2次元配列HG(ρj,θj)をインクリメントする。これ
により最も度数の大きい2次元配列HG(ρj,θj)を探
索することで、ハフ曲線が最も多く通過するρ−θ平面
上の点(ρK(Y)、θK(Y))が求められる。
On the ρ-θ plane of FIG. 5B, as a method for searching the points where the Hough curves intersect most, each point on the ρ-θ plane is arranged in a two-dimensional array HG as shown in FIG. 5B. (ρ j , θ
j ), and the two-dimensional array HG (ρ j , θ j ) is incremented every time the Hough curve passes through the point (ρ j , θ j ). By searching the two-dimensional array HG (ρ j , θ j ) with the highest frequency, the points (ρ K (Y), θ K (Y)) on the ρ-θ plane where the Huff curve passes most are obtained. Is required.

【0032】すべての領域(301)LN(Y)、1≦Y≦N
に含まれる距離データについて同様の処理を行い、合計
N本の平面通過直線L(Y)を得る。各平面通過直線L
(Y)をK−X−Y基準座標で示すと、図6のようにな
る。垂線の傾きθK(Y)やY軸からの距離ρK(Y)にそれ
ぞれ誤差成分θE,ρEが含まれるので、それぞれの最適
値θR(Y),ρR(Y)に対して
All areas (301) LN (Y), 1≤Y≤N
The same process is performed on the distance data included in the above to obtain a total of N plane passing straight lines L (Y). Each plane passing straight line L
FIG. 6 shows (Y) in K-X-Y reference coordinates. Since the inclination θ K (Y) of the perpendicular and the distance ρ K (Y) from the Y axis include the error components θ E and ρ E , respectively, for each optimum value θ R (Y) and ρ R (Y) hand

【0033】[0033]

【数10】θK(Y)=θR(Y)+θE ρK(Y)=ρR(Y)+ρE となる。そのため平面通過直線L(Y)は必ずしも観察平
面内にはないが、以降の処理で補正する。
## EQU10 ## θ K (Y) = θ R (Y) + θ E ρ K (Y) = ρ R (Y) + ρ E Therefore, the plane passing straight line L (Y) is not necessarily in the observation plane, but will be corrected in the subsequent processing.

【0034】(C2)平面通過直線の傾き補正 平面通過直線L(Y)が全て同じ観察平面内にあるとすれ
ば、全ての平面通過直線のY軸への垂線とX軸がなす角
は同じになるはずである。そこで、各平面通過直線の垂
線とX軸がなす角θK(Y)を大きさでソートし、中央値
をもって全ての平面通過直線のX軸からの傾きとして置
き換える。これにより、各平面通過直線がもつ垂線のX
軸からの傾きを最適値θR(Y)で統一することができ
る。この操作を(数11)に示し、このように垂線のX軸
からの傾きθK(Y)には各平面通過直線毎にそれぞれ誤
差成分が含まれていたが、上記処理により(数12)のよう
に全ての平面通過直線の傾きから誤差成分を除去できる
とともに、最も信頼性の高い傾きθR(Y)に置き換える
ことができる。
(C2) Inclination correction of plane passing straight lines If all plane passing straight lines L (Y) are in the same observation plane, the angles formed by the normals to the Y axis of all plane passing straight lines and the X axis are the same. Should be. Therefore, the angle θ K (Y) formed by the perpendicular of each plane passing straight line and the X axis is sorted by size, and the median value is replaced as the inclination of all plane passing straight lines from the X axis. As a result, the X of the perpendicular line of each plane passing straight line
The inclination from the axis can be unified with the optimum value θ R (Y). This operation is shown in (Equation 11), and thus the inclination θ K (Y) of the perpendicular from the X-axis includes an error component for each plane passing straight line. As described above, the error component can be removed from the inclinations of all plane passing straight lines, and the inclinations can be replaced with the most reliable inclination θ R (Y).

【0035】[0035]

【数11】 [Equation 11]

【0036】[0036]

【数12】 (Equation 12)

【0037】この操作により、観察平面のY軸回りの傾
きとは異なる傾きを示していた平面通過直線を、傾きに
ついては補正することができる。この傾きを補正した直
線L′(Y)は(数12)で示される。各平面通過直線をK
−X−Y基準座標で示すと図7のように、全ての平面通
過直線L(Y)の傾きが同一になっている。
By this operation, it is possible to correct the inclination of the plane passing straight line which shows an inclination different from the inclination of the observation plane about the Y axis. A straight line L '(Y) in which this inclination is corrected is shown by (Equation 12). K for each plane passing straight line
In the -XY reference coordinates, all the plane passing straight lines L (Y) have the same inclination as shown in FIG.

【0038】(C3)平面通過直線の距離補正 3次元空間上に2つの平面があるとし、互いの平面が平
行ではない場合、2つの平面が交わる部分は直線になる
はずである。このことを利用して推定する観察平面と図
8に示されるY−ρ平面801が交わる直線をハフ変換を
用いて当てはめる。各平面通過直線のY軸からの距離、
即ちρK(Y)を、図9のようにY−ρ平面にプロットす
る。Y−ρ平面上でプロットした点(Y,ρK(Y))に(数
13)を用いてハフ変換を施す。
(C3) Distance correction of plane passing straight line If there are two planes in the three-dimensional space and the planes are not parallel to each other, the intersection of the two planes should be a straight line. A straight line where the observation plane estimated using this fact and the Y-ρ plane 801 shown in FIG. 8 intersect is fitted using the Hough transform. The distance from the Y axis of each plane passing straight line,
That is, ρ K (Y) is plotted on the Y-ρ plane as shown in FIG. At the point (Y, ρ K (Y)) plotted on the Y-ρ plane,
Hough transform is performed using 13).

【0039】[0039]

【数13】ρ′=Ycosθ′+ρK(Y)sinθ′、 θ′
START≦θ′≦θ′END ρ′−θ′平面でハフ曲線が最も多く交差した点(ρ′
S,θ′S)を得、(数6)により直線901を当てはめる。こ
の直線は各平面通過直線の最もふさわしいと思われるY
軸からの距離を示すことから、距離補正直線と呼ぶこと
にする。この距離補正直線はK−Y−Y座標において図
8の802のように存在する。また距離補正直線802は(数1
4)のように示される。
Equation 13 ρ ′ = Ycos θ ′ + ρ K (Y) sin θ ′, θ ′
START ≦ θ '≦ θ' END ρ'-θ ' that Hough curve is most intersecting a plane ([rho'
S , θ ′ S ) is obtained, and the straight line 901 is fitted according to (Equation 6). This line seems to be the most suitable Y of each plane passing line
Since it indicates the distance from the axis, it is called a distance correction straight line. This distance correction straight line exists at KY coordinates as shown by 802 in FIG. The distance correction straight line 802 is
It is shown as in 4).

【0040】[0040]

【数14】 [Equation 14]

【0041】距離補正直線を利用して各平面通過直線の
Y軸からの距離を最適値ρR(Y)に補正すると、(数12)
は、
If the distance from the Y axis of each plane passing straight line is corrected to the optimum value ρ R (Y) using the distance correction straight line, (Equation 12)
Is

【0042】[0042]

【数15】 (Equation 15)

【0043】となり、完全に誤差成分が除去される。こ
こで、前記(数12)で示される傾きを補正した直線L′
(Y)に対し、さらにY軸からの距離を補正した直線群
L′′(Y)は(数15)で示される。各平面通過直線をK−
X−Y基準座標で示すと図10に示す通り全て同一平面上
に存在するようになる。
Then, the error component is completely removed. Here, the straight line L'corrected for the inclination shown in (Equation 12) is used.
A straight line group L ″ (Y) in which the distance from the Y axis is further corrected with respect to (Y) is expressed by (Equation 15). K-
When shown in XY reference coordinates, they all exist on the same plane as shown in FIG.

【0044】(C4)平面の確定 以上のフェーズによって各平面通過直線が全て観察平面
内に存在するようになり、観察平面は平面通過直線群で
近似される。観察平面上の距離データK(X,Y)が未決
定であれば、LN(Y)に対応する平面通過直線(数15)を
用いて観察平面上の距離データを得られる。
(C4) Determining the plane All the plane passing straight lines are present in the observation plane by the above phase, and the observation plane is approximated by the plane passing straight line group. If the distance data K (X, Y) on the observation plane has not been determined, the distance data on the observation plane can be obtained using the plane passage straight line (Equation 15) corresponding to LN (Y).

【0045】[0045]

【発明の効果】以上説明したように、本発明の平面推定
方法を用いれば、道路、床などの画像上では特徴が少な
い平面でも、部分的に距離データを得ることができれば
平面全体の距離データを得ることができる。さらにハフ
変換を用いたことで大局的に平面を近似することがで
き、道路や床に高さのある物体が置かれていても、物体
の影響を受けずに、平面上の距離データを精度よく得る
ことができる。
As described above, if the plane estimation method of the present invention is used, the distance data of the entire plane can be obtained if partial distance data can be obtained even on a plane having few features on an image such as a road or a floor. Can be obtained. Furthermore, by using the Hough transform, it is possible to approximate a plane globally, and even if there is a high object on the road or floor, the distance data on the plane can be accurately measured without being affected by the object. You can get well.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例におけるステレオ画像獲得か
ら観察平面の推定までの処理の流れを説明するフロー図
である。
FIG. 1 is a flowchart illustrating a processing flow from stereo image acquisition to observation plane estimation according to an embodiment of the present invention.

【図2】図1に示す平面推定フェーズの処理の流れを説
明するフロー図である。
FIG. 2 is a flowchart illustrating a processing flow of a plane estimation phase shown in FIG.

【図3】図2の平面通過直線の当てはめ処理を説明する
距離データ決定の単位であるブロックの画像上での配置
の説明図である。
FIG. 3 is an explanatory diagram of an arrangement of blocks on an image, which is a unit for determining distance data, for explaining the plane passing straight line fitting process of FIG. 2;

【図4】図2の平面通過直線の当てはめ処理を説明する
基準とする3次元のK−X−Y基準座標系を示す図であ
る。
4 is a diagram showing a three-dimensional K-X-Y reference coordinate system which serves as a reference for explaining the fitting process of the plane passing straight line in FIG.

【図5】距離データ群から平面通過直線の直線パラメー
タを検出する方法の説明図である。
FIG. 5 is an explanatory diagram of a method of detecting a straight line parameter of a plane passing straight line from a distance data group.

【図6】当てはめられた平面通過直線を3次元基準座標
系で示した様子を示す図である。
FIG. 6 is a diagram showing the fitted plane passing straight line in a three-dimensional reference coordinate system.

【図7】傾きについて補正した平面通過直線を3次元基
準座標系で示した様子を示す図である。
FIG. 7 is a diagram showing a state in which a plane passing straight line corrected for inclination is shown in a three-dimensional reference coordinate system.

【図8】平面通過直線のY軸からの距離を補正するため
に用いる距離補正直線を獲得する様子を示す図である。
FIG. 8 is a diagram showing how a distance correction straight line used to correct the distance of a plane passing straight line from the Y axis is obtained.

【図9】各平面通過直線のY軸からの距離値に直線を当
てはめる様子を示す図である。
FIG. 9 is a diagram showing how a straight line is fitted to a distance value from a Y axis of each plane passing straight line.

【図10】傾きが補正されている平面通過直線をさらに
Y軸からの距離について補正し、3次元基準座標系で示
した様子を示す図である。
FIG. 10 is a diagram showing a state where the plane passing straight line whose inclination is corrected is further corrected for the distance from the Y axis and is shown in a three-dimensional reference coordinate system.

【図11】ステレオ画像計測の原理の説明図である。FIG. 11 is an explanatory diagram of the principle of stereo image measurement.

【図12】従来の左右画像を対応付ける一方法の説明図
である。
FIG. 12 is an explanatory diagram of a conventional method of associating left and right images.

【図13】ハフ変換において必要な各直線パラメータの
説明図である。
FIG. 13 is an explanatory diagram of each straight line parameter required in Hough transform.

【図14】ハフ曲線が最も多く交差する点が直線パラメ
ータを示していることの説明図である。
FIG. 14 is an explanatory diagram that a point at which the Hough curve intersects the most indicates a straight line parameter.

【符号の説明】[Explanation of symbols]

(A)…撮像フェーズ、 (B)…対応付けフェーズ、
(C)…平面推定フェーズ、(S1)…左画像、 (S2)…
右画像、 (S3)…対応付け、 (S4)…平面推定、
301…ブロックBL(X,Y)を水平方向にグルーピング
した領域LN(Y)、 302…m×n画素からなるブロッ
クBL(X,Y)、 501…距離データKにハフ変換によ
り当てはめた直線、 801…インデックスYと平面通過
直線からY軸までの距離値を示すY−ρ平面、 802,9
01…平面通過直線のY軸からの距離を補正する際に用い
る距離補正直線、 11L…左カメラ、 11R…右カメ
ラ、 1201…m×n画素のブロック、 1202…ブロック
1201の右画像における対応領域の探索範囲、 1301…ハ
フ変換により当てはめられた直線、 1302…直線のパラ
メータである原点までの距離、 1303…直線のパラメー
タである垂線とX軸がなす傾き、 1401…最も多くの曲
線が交差する点(ρ0,θ0)。
(A) ... Imaging phase, (B) ... Correlation phase,
(C) ... Plane estimation phase, (S1) ... Left image, (S2) ...
Right image, (S3) ... Correlation, (S4) ... Plane estimation,
301 ... A region LN (Y) in which blocks BL (X, Y) are grouped in the horizontal direction, 302 ... Block BL (X, Y) consisting of m × n pixels, 501 ... A straight line fitted to the distance data K by Hough transform, 801 ... Y-ρ plane showing index Y and distance value from plane passing straight line to Y axis, 802, 9
01… distance correction straight line used to correct the distance from the Y axis of the plane passing straight line, 11L… left camera, 11R… right camera, 1201… m × n pixel block, 1202… block
A search range of the corresponding area in the right image of 1201, 1301 ... A straight line fitted by Hough transform, 1302 ... A distance to the origin which is a parameter of the straight line, 1303 ... A slope formed by the perpendicular line which is the parameter of the straight line and the X axis, 1401 ... The point where the most curves intersect (ρ 0 , θ 0 ).

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 所定間隔で配置される2台の撮像手段に
より得られる2画像間で対応領域を対応付けることで三
角測量の原理で物体までの距離を計測するステレオ画像
処理において、画像を水平方向M、垂直方向Nに分割し
て得られる矩形小領域 BL(X,Y) 1≦X≦M, 1≦Y≦N ごとに距離データK(X,Y)を求め、前記矩形小領域B
L(X,Y)を水平方向にグループ化した大領域 GL(Y) 1≦Y≦N ごとに、大領域GL(Y)中に含まれるM個の距離データ
K(X,Y)からハフ変換により平面通過直線L(Y)を当
てはめ、これをすべての前記大領域GL(Y)について行
うことによって撮像空間に存在する平面を推定すること
を特徴とする平面推定方法。
1. In stereo image processing for measuring a distance to an object on the principle of triangulation by associating corresponding areas between two images obtained by two image pickup means arranged at a predetermined interval, the images are horizontally aligned. A rectangular small area BL (X, Y) obtained by dividing the rectangular small area B in the vertical direction N by obtaining distance data K (X, Y) for each 1 ≦ X ≦ M, 1 ≦ Y ≦ N
For each large area GL (Y) 1 ≤ Y ≤ N in which L (X, Y) is grouped in the horizontal direction, Huffs are obtained from M distance data K (X, Y) included in the large area GL (Y). A plane estimation method characterized by estimating a plane existing in an imaging space by fitting a plane passing straight line L (Y) by conversion and performing this for all the large regions GL (Y).
【請求項2】 前記大領域GL(Y)ごとに当てはめられ
た平面通過直線L(Y)、1≦Y≦Nの直線パラメータの
一つである直線の傾きθ(Y)を用い、各平面通過直線L
(Y)、1≦Y≦Nの合計N個の傾きθ(Y)を大きさでソ
ートすることで中央値θmを求め、全ての平面通過直線
L(Y)の傾きθ(Y)を前記中央値θmで置き換えること
によって得られ、傾きが補正された平面通過直線L′
(Y)を用いて撮像空間に存在する平面を推定することを
特徴とする請求項1記載の平面推定方法。
2. A plane passing straight line L (Y) fitted to each of the large regions GL (Y), and using a slope θ (Y) of the straight line which is one of the straight line parameters of 1 ≦ Y ≦ N, each plane Straight line L
(Y) The median value θ m is obtained by sorting the total N slopes θ (Y) of 1 ≦ Y ≦ N by size, and the slopes θ (Y) of all plane passing straight lines L (Y) are calculated. The plane passing straight line L ′ obtained by replacing with the median value θ m and having the inclination corrected
The plane estimation method according to claim 1, wherein the plane existing in the imaging space is estimated using (Y).
【請求項3】 前記傾きが補正された平面通過直線L′
(Y)の直線パラメータである原点からの距離ρ(Y)に対
し、ハフ変換により距離補正直線hを当てはめ、該距離
補正直線hに交わるように傾きが補正された平面通過直
線L′(Y)を平行移動することによって得られる平面通
過直線群L′′(Y)、1≦Y≦Nを用いて撮像空間に存
在する平面を推定することを特徴とする請求項1または
2記載の平面推定方法。
3. A plane passing straight line L ′ whose inclination is corrected
A distance correction straight line h is applied by Hough transform to the distance ρ (Y) from the origin which is a straight line parameter of (Y), and the plane passing straight line L ′ (Y is corrected to have the inclination corrected so as to intersect with the distance correction straight line h. 3. The plane according to claim 1 or 2, wherein the plane existing in the imaging space is estimated by using a plane passing straight line group L ″ (Y), 1 ≦ Y ≦ N obtained by translating Estimation method.
JP23401995A 1995-09-12 1995-09-12 Plane estimation method Expired - Fee Related JP3340599B2 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP23401995A JP3340599B2 (en) 1995-09-12 1995-09-12 Plane estimation method
US08/704,895 US5825915A (en) 1995-09-12 1996-08-30 Object detecting apparatus in which the position of a planar object is estimated by using hough transform
CA002184561A CA2184561C (en) 1995-09-12 1996-08-30 Object detecting apparatus in which the position of a planar object is estimated by using hough transform
DE69625423T DE69625423T2 (en) 1995-09-12 1996-09-02 Device for recognizing an object in which the position of a flat object is estimated using a Hough transformation
EP96114009A EP0762326B1 (en) 1995-09-12 1996-09-02 Object detecting apparatus in which the position of a planar object is estimated by using Hough transform

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP23401995A JP3340599B2 (en) 1995-09-12 1995-09-12 Plane estimation method

Publications (2)

Publication Number Publication Date
JPH0981755A true JPH0981755A (en) 1997-03-28
JP3340599B2 JP3340599B2 (en) 2002-11-05

Family

ID=16964292

Family Applications (1)

Application Number Title Priority Date Filing Date
JP23401995A Expired - Fee Related JP3340599B2 (en) 1995-09-12 1995-09-12 Plane estimation method

Country Status (1)

Country Link
JP (1) JP3340599B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009186364A (en) * 2008-02-07 2009-08-20 Nec Corp Data processing apparatus, pose estimation system, pose estimation method, and program
US7583817B2 (en) 2005-02-25 2009-09-01 Kabushiki Kaisha Toyota Chuo Kenkyusho Object determining apparatus
JP2015082288A (en) * 2013-10-24 2015-04-27 キヤノン株式会社 Information processing device and control method of the same
US9633450B2 (en) 2012-11-30 2017-04-25 Sharp Kabushiki Kaisha Image measurement device, and recording medium

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7583817B2 (en) 2005-02-25 2009-09-01 Kabushiki Kaisha Toyota Chuo Kenkyusho Object determining apparatus
JP2009186364A (en) * 2008-02-07 2009-08-20 Nec Corp Data processing apparatus, pose estimation system, pose estimation method, and program
US8401295B2 (en) 2008-02-07 2013-03-19 Nec Corporation Pose estimation
US9633450B2 (en) 2012-11-30 2017-04-25 Sharp Kabushiki Kaisha Image measurement device, and recording medium
JP2015082288A (en) * 2013-10-24 2015-04-27 キヤノン株式会社 Information processing device and control method of the same

Also Published As

Publication number Publication date
JP3340599B2 (en) 2002-11-05

Similar Documents

Publication Publication Date Title
JP3539788B2 (en) Image matching method
US7471809B2 (en) Method, apparatus, and program for processing stereo image
JP4095491B2 (en) Distance measuring device, distance measuring method, and distance measuring program
Wang et al. Robust active stereo vision using Kullback-Leibler divergence
US7804586B2 (en) Method and system for image processing for profiling with uncoded structured light
CN109544628B (en) Accurate reading identification system and method for pointer instrument
EP0686942A2 (en) Stereo matching method and disparity measuring method
JP2010071782A (en) Three-dimensional measurement apparatus and method thereof
JPS6161002A (en) Automatic measuring system of sectional shape
JP3710548B2 (en) Vehicle detection device
Kannala et al. Measuring and modelling sewer pipes from video
WO2008075632A1 (en) Test method for compound-eye distance measuring device, its test device and chart used for same
CN110044266A (en) Digital Photogrammetric System based on speckle projection
JPH1019562A (en) Surveying equipment and surveying method
JPH1089960A (en) Three-dimensional image measuring method
JP2009092551A (en) Method, apparatus and system for measuring obstacle
JPH0981755A (en) Plane estimating method
JPH1096607A (en) Object detector and plane estimation method
JPH0875454A (en) Range finding device
JP2923063B2 (en) Multi-view stereo image measurement method
JP2970835B2 (en) 3D coordinate measuring device
JPH11194027A (en) Three-dimensional coordinate measuring instrument
JP3452188B2 (en) Tracking method of feature points in 2D video
Frohlinghaus et al. Real-time phase-based stereo for a mobile robot
JP2809348B2 (en) 3D position measuring device

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees