JP2008097444A - Image processor - Google Patents
Image processor Download PDFInfo
- Publication number
- JP2008097444A JP2008097444A JP2006280343A JP2006280343A JP2008097444A JP 2008097444 A JP2008097444 A JP 2008097444A JP 2006280343 A JP2006280343 A JP 2006280343A JP 2006280343 A JP2006280343 A JP 2006280343A JP 2008097444 A JP2008097444 A JP 2008097444A
- Authority
- JP
- Japan
- Prior art keywords
- image
- inclination angle
- corresponding points
- points
- plane
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、画像処理装置に係り、特に、撮像した画像から、共通平面、たとえば地面を導出することができる画像処理装置に関する。 The present invention relates to an image processing apparatus, and more particularly to an image processing apparatus capable of deriving a common plane, for example, the ground, from captured images.
たとえば、車両の周囲を撮像手段で撮像して得られる画像に基づいて車両の周囲における高さが低いか高いかを検出することにより、周囲の障害物や側溝などを認識することが求められている。このような画像処理を行うには、車両の周囲における高さを求めるにあたり、その基準となる地面などの共通平面を求めることが要求される。このような共通平面を求める技術として、特開2004−94707号公報(特許文献1)に開示されたステレオ画像による平面推定方法がある。 For example, it is required to recognize surrounding obstacles and side grooves by detecting whether the height around the vehicle is low or high based on an image obtained by imaging the surroundings of the vehicle with an imaging means. Yes. In order to perform such image processing, it is required to obtain a common plane such as the ground as a reference when obtaining the height around the vehicle. As a technique for obtaining such a common plane, there is a plane estimation method using a stereo image disclosed in Japanese Patent Application Laid-Open No. 2004-94707 (Patent Document 1).
この平面推定方法では、撮像装置で撮像されたステレオ画像における基準画像から複数の特徴点を抽出し、各特徴点について参照画像中の対応点を探索する対応付け処理を行い、視差を求める。この各特徴点について視差および画像上の座標点に基づいて他の特徴点との対比を行い、当該特徴点が道路(平面)示す点か道路上の物体を示す点かを判別する。そして、物体を示すと判別された特徴点を除いた残りの特徴点から道路の三次元位置を算出して共通平面を導出するものである。
ところで、このような共通平面を導出する際には、たとえば共通平面が相対水平面に対して所定の角度以下の範囲に収まることが求められる。しかし、上記特許文献1に開示された発明では、撮像装置で撮像されたステレオ画像から、特徴点を抽出し、物体を示すと判別された特徴点を除いた残りの特徴点から道路の三次元位置を算出して共通平面を導出する平面推定を行っている。このため、ステレオ画像(複数の画像)を取得する撮像装置の分解能等に起因して誤差が生じる場合、この誤差によって共通平面を導出する際の精度が低くなってしまい、結果として共通平面が相対水平面に対して大きく傾斜してしまうことがあるという問題があった。 By the way, when deriving such a common plane, for example, the common plane is required to fall within a predetermined angle or less with respect to a relative horizontal plane. However, in the invention disclosed in Patent Document 1, a feature point is extracted from a stereo image captured by an imaging device, and the three-dimensional road is extracted from the remaining feature points excluding the feature point determined to indicate an object. Plane estimation is performed to derive the common plane by calculating the position. For this reason, when an error occurs due to the resolution or the like of an imaging apparatus that acquires a stereo image (a plurality of images), the accuracy in deriving the common plane is lowered due to this error, and as a result, the common plane becomes relative. There was a problem that it might be greatly inclined with respect to the horizontal plane.
そこで、本発明の課題は、撮像した画像に誤差が生じた場合であっても、相対水平面に対する共通平面の傾斜角度を小さくして、所定の範囲内に収めることができる画像処理装置を提供することにある。 Accordingly, an object of the present invention is to provide an image processing apparatus capable of reducing the inclination angle of the common plane with respect to the relative horizontal plane and keeping it within a predetermined range even when an error occurs in the captured image. There is.
上記課題を解決した本発明に係る画像処理装置は、少なくとも一部が共通する共通領域を異なる複数の位置から撮像した複数の画像を取得する画像取得手段と、画像取得手段で取得された複数の画像間で対応する対応点を複数抽出する対応点抽出手段と、対応点に検出誤差が見込まれる際、画像内における1組の対応点を通る直線と相対水平面とがなす傾斜角度が、共通平面に対する予め設定された許容傾斜角度以下となるか否かを判定する傾斜角度判定手段と、複数の対応点から得られる複数の1組の対応点を通る複数の直線のすべてについて、相対水平面との傾斜角度が許容傾斜角度以下となる判定された場合に、複数の対応点に基づいて共通平面を導出する共通平面導出手段と、を備えるものである。 An image processing apparatus according to the present invention that has solved the above problems includes an image acquisition unit that acquires a plurality of images obtained by imaging a common area at least partially shared from a plurality of different positions, and a plurality of images acquired by the image acquisition unit. Corresponding point extraction means for extracting a plurality of corresponding points between images, and when a detection error is expected in the corresponding points, an inclination angle formed by a straight line passing through a pair of corresponding points in the image and a relative horizontal plane is a common plane. An inclination angle determination means for determining whether or not the inclination angle is equal to or less than a preset allowable inclination angle with respect to all of a plurality of straight lines passing through a plurality of sets of corresponding points obtained from the plurality of corresponding points; And a common plane deriving unit that derives a common plane based on a plurality of corresponding points when it is determined that the tilt angle is equal to or smaller than the allowable tilt angle.
本発明に係る画像処理装置においては、対応点における検出誤差が見込まれる際、画像内における1組の対応点を通る直線と相対水平面とがなす傾斜角度が、共通平面に対する予め設定された許容傾斜角度以下となるか否かを判定する。そして複数の対応点から得られる複数の1組の対応点を通る複数の直線のすべてについて、相対水平面との傾斜角度が許容傾斜角度以下となる判定された場合に、複数の対応点に基づいて共通平面を導出する。このように、1組の対応点を結んだ直線と相対水平面とのなす傾斜角度が許容傾斜角度以下となる場合に共通平面を導出することから、撮像した画像における対応点に誤差が生じた場合であっても、相対水平面に対する共通平面の傾斜角度を小さくして、所定の範囲内に収めることができる。 In the image processing apparatus according to the present invention, when a detection error at a corresponding point is expected, an inclination angle formed by a straight line passing through a set of corresponding points in the image and a relative horizontal plane is a preset allowable inclination with respect to the common plane. It is determined whether the angle is equal to or smaller than the angle. Then, when it is determined that the inclination angle with the relative horizontal plane is less than or equal to the allowable inclination angle for all of the plurality of straight lines passing through the plurality of sets of corresponding points obtained from the plurality of corresponding points, based on the plurality of corresponding points. Deriving a common plane. In this way, when the inclination angle formed by the straight line connecting the pair of corresponding points and the relative horizontal plane is equal to or smaller than the allowable inclination angle, the common plane is derived, and thus an error occurs in the corresponding points in the captured image. Even so, the inclination angle of the common plane with respect to the relative horizontal plane can be reduced to fall within a predetermined range.
ここで、1組の対応点間の距離を求める対応点距離算出手段と、傾斜角度判定手段における判定基準に基づき、1組の対応点についての対応点間の距離しきい値を算出する距離しきい値算出手段と、を備え、傾斜角度判定手段は、1組の対応点間の距離と、対応点間の距離しきい値とを比較する態様とすることができる。 Here, a distance for calculating a distance threshold between corresponding points for one set of corresponding points based on a determination criterion in the inclination angle determining means and a corresponding point distance calculating means for obtaining a distance between a set of corresponding points. Threshold value calculating means, and the tilt angle determining means can compare the distance between a set of corresponding points with a distance threshold value between the corresponding points.
このように、1組の対応点についての対応点間の距離しきい値を算出し、1組の対応点間の距離と、対応点間の距離しきい値とを比較することにより、傾斜角度が許容傾斜角度以下となるか否かを簡素な演算によって判定することができる。 Thus, by calculating the distance threshold between corresponding points for a set of corresponding points, and comparing the distance between the corresponding points with the distance threshold between the corresponding points, the inclination angle Can be determined by a simple calculation.
さらに、傾斜角度判定手段は、対応点において見込まれる検出誤差が最大検出誤差であるときの傾斜角度について判定する態様とすることができる。 Furthermore, the inclination angle determination means can determine the inclination angle when the detection error expected at the corresponding point is the maximum detection error.
このように、検出誤差が最大検出誤差であることにより、確実に相対水平面に対する共通平面の傾斜角度を確実に所定の範囲内に収めることができる。 As described above, when the detection error is the maximum detection error, the inclination angle of the common plane with respect to the relative horizontal plane can be reliably within the predetermined range.
本発明に係る画像処理装置によれば、撮像した画像に誤差が生じた場合であっても、相対水平面に対する共通平面の傾斜角度を小さくして、所定の範囲内に収めることができる。 According to the image processing apparatus of the present invention, even when an error occurs in the captured image, the inclination angle of the common plane with respect to the relative horizontal plane can be reduced and fall within a predetermined range.
以下、図面を参照して、本発明の好適な実施形態について説明する。図1は、本発明の実施形態に係る画像処理装置のブロック構成図である。 Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram of an image processing apparatus according to an embodiment of the present invention.
図1に示すように、本実施形態における画像処理装置1は、センサ情報取込部11、俯瞰図作成部12、画像一時保管部13、対応点候補抽出部14、対応点選択部15、共通平面導出部16、画像視点変換部17、および物体高さ判断部18を備えている。さらに、画像処理装置1には、カメラ2(2F,2R,2L,2B)および情報出力部3が接続されており、カメラ2F,2R,2L,2Bから出力された画像に基づいて、カメラ2F,2R,2L,2Bの周囲における高低を検出する。
As shown in FIG. 1, the image processing apparatus 1 according to the present embodiment includes a sensor
前方カメラ2Fは、図2に示すように、車両Sの前方中央のフロントグリル部分に取り付けられており、車両Sの前方を撮像している。また、右方カメラ2Rは、車両Sの右ドア位置、左方カメラ2Lは車両Sの左ドア、後方カメラ2Bは車両Sのリアトランクカバーにそれぞれ取り付けられて、車両Sの右方、左方、および後方をそれぞれ撮像している。カメラ2F,2R,2L,2Bは、それぞれいわゆる魚眼カメラなどの広視野カメラからなり、それぞれのカメラ2F,2R,2L,2Bで撮像領域EF,ER,EL,EBを撮像可能とされている。カメラ2F,2R,2L,2Bは、それぞれ撮像して得られた画像を画像処理装置1におけるセンサ情報取込部11に出力する。
As shown in FIG. 2, the
画像処理装置1におけるセンサ情報取込部11では、カメラ2から出力された画像を取り込み、俯瞰図作成部12に出力する。俯瞰図作成部12では、これらのカメラ2から出力された画像の各画素の輝度を検出し、空白の俯瞰図にマッピングすることにより、俯瞰図を作成する。
The sensor
俯瞰図作成部12は、作成した俯瞰図を画像一時保管部13および対応点候補抽出部14に出力する。画像一時保管部13は、俯瞰図作成部12から出力された俯瞰図(俯瞰画像)を一時的に記憶して保管するとともに、前回に保管した俯瞰画像を対応点候補抽出部14の読み出し要求に応じて出力する。対応点候補抽出部14は、画像一時保管部13に保管された俯瞰画像を俯瞰図作成部12から出力された際に、画像一時保管部13に保管された俯瞰画像を読み出す。ここで読み出す俯瞰画像は、俯瞰図作成部12から出力された俯瞰画像の1つ前に作成され一時保管された一時保管画像(以下「前俯瞰画像」という)である。対応点候補抽出部14は、俯瞰図作成部12から出力された俯瞰画像および画像一時保管部13から読み出した前俯瞰画像を比較して、対応点候補を抽出する。対応点候補抽出部14は、抽出した対応点候補を対応点選択部15に出力する。
The overhead
対応点選択部15は、対応点候補抽出部14から出力された対応点候補の中から、画像の比較に用い易い対応点を選択する。対応点選択部15は、選択した対応点を含む俯瞰画像および前俯瞰画像を共通平面導出部16に出力する。共通平面導出部16は、対応点選択部15から出力された対応点候補、俯瞰画像および前俯瞰画像に基づいて共通平面を導出する。
The corresponding
ここで、選択された対応点を通る直線と相対水平面とのなす傾斜角度が許容傾斜角度以下であるとなる選択点が4点選択されていた際には、選択した対応点を含む共通平面、俯瞰画像、および前俯瞰画像を画像視点変換部17に出力する。また、選択された対応点を通る直線と相対水平面とのなす傾斜角度が許容傾斜角度を超える場合には、対応点選択部15に対して、選択点の選択をやり直させる。画像視点変換部17では、共通平面導出部16から出力された前俯瞰図の画像を視点変換して視点変換画像を生成し、俯瞰図の視点と同一視点となるようにする。画像視点変換部17は、俯瞰画像、視点変換画像、および各対応点を物体高さ判断部18に出力する。
Here, when four selection points at which the inclination angle between the straight line passing through the selected corresponding point and the relative horizontal plane is equal to or less than the allowable inclination angle are selected, the common plane including the selected corresponding point, The overhead view image and the previous overhead view image are output to the image
物体高さ判断部18では、画像視点変換部17から出力された俯瞰画像、視点変換画像、および各対応点に基づいて、車両の周囲における物体の高さを判断する。物体高さ判断部18は、物体の高さを判断したら、物体の高さに応じた彩色を施した俯瞰画像を生成し、情報出力部3に出力する。情報出力部3は、たとえば画像を表示するディスプレイからなり、物体高さ判断部18から出力された俯瞰画像を表示する。
The object
次に、本実施形態に係る画像処理装置の処理手順について説明する。図3は、本実施形態に係る画像処理装置の処理手順を示すフローチャート、図4は、図3に続く処理手順を示すフローチャートである。 Next, a processing procedure of the image processing apparatus according to the present embodiment will be described. FIG. 3 is a flowchart showing a processing procedure of the image processing apparatus according to the present embodiment, and FIG. 4 is a flowchart showing a processing procedure following FIG.
図3に示すように、本実施形態に係る画像処理装置1においては、センサ情報取込部11において、カメラ2から出力された画像を取得する(S1)。次に、俯瞰図作成部12において、カメラ2で撮像された画像を視点変換して俯瞰画像を生成する(S2)。俯瞰画像を生成する際には、図5に示すように、カメラ2から出力された魚眼画像の視点を平面視する上方からの視点に視点変換し、下記の手順で俯瞰画像Itを作成する。
As shown in FIG. 3, in the image processing apparatus 1 according to the present embodiment, the sensor
まず、図5に示すカメラ(仮想カメラ)2αの仮想視点Ocから、仮想スクリーン(本発明の基準平面となる水平面に相当する)Kまでの距離Zvを下記(0)式によって求める。 First, a distance Z v from a virtual viewpoint O c of the camera (virtual camera) 2α shown in FIG. 5 to a virtual screen (corresponding to a horizontal plane serving as a reference plane of the present invention) K is obtained by the following equation (0).
Zv=W/{2tan(Ω/2)} ・・・(0)
ここで、W:作成する俯瞰図の横幅(Pixel)
Ω:投影視野角度(deg)
Z v = W / {2 tan (Ω / 2)} (0)
Here, W: Width of the overhead view to be created (Pixel)
Ω: projection viewing angle (deg)
次に、仮想スクリーンの像点(Xp,Yp,Zp)から魚眼画像座標値(up,vp)を算出する(S2)。そのため、まず下記(1)式〜(3)式によって、各座標を(Xse,Yse,Zse)を求め、これらの座標から、下記(4)式によって魚眼画像座標値(up,vp)を算出する
ただし、 L:魚眼画像の半径
f():魚眼カメラ特性係数
Next, the image point of the virtual screen (X p, Y p, Z p) fisheye image coordinates from (u p, v p) to calculate the (S2). Therefore, first by the following (1) to (3), each coordinate (X se, Y se, Z se) the determined from these coordinates, the fish-eye image coordinate value by the following equation (4) (u p , V p )
Where L: radius of fisheye image f (): fisheye camera characteristic coefficient
それから、これらの座標を下記(5)式および(6)式によって、水平面を見る方向へアフィン変換する。
ただし、 λ:カメラ向き横角度(deg)
ξ:カメラ向き縦角度(deg)
ω:カメラ向き回転角度(deg)
Where λ: Camera-oriented lateral angle (deg)
ξ: Camera vertical angle (deg)
ω: Camera rotation angle (deg)
これらの計算を各カメラから出力された画像における各画素について行い、俯瞰画像を生成する。 These calculations are performed for each pixel in the image output from each camera to generate an overhead image.
俯瞰図作成部12は、俯瞰画像を生成したら、生成した俯瞰画像を画像一時保管部13および対応点候補抽出部14に出力する。画像一時保管部13では、俯瞰図作成部12から出力された俯瞰画像Itを一時的に記録して保管する(S3)。また、対応点候補抽出部14は、俯瞰図作成部12から俯瞰画像Itが出力された際に、画像一時保管部13に一時的に保管されている前俯瞰画像It−1を読み出す(S4)。
When the overhead
それから、対応点候補抽出部14では、俯瞰図作成部12から出力された俯瞰画像Itおよび画像一時保管部13から読み出した前俯瞰画像It−1を比較し、探索範囲を設定する(S5)。探索範囲としては、相対水平面が必ず存在する領域、たとえば車両の近傍数メートルの探索可能範囲を予め設定しておき、俯瞰画像Itおよび前俯瞰画像It−1における探索可能範囲のうちの共通する共通領域を探索範囲として設定する。また、カメラ2による撮像をたとえば20msごとに行うことにより、車両Sが通常速度で走行する場合に、俯瞰画像Itおよび前俯瞰画像It−1が重複する範囲を異なる複数の位置から撮像した画像を取得することができる。この重複する範囲である共通領域を探索範囲として設定する。
Then, the corresponding point
続いて、探索範囲内において、対応点候補を抽出する(S6)。対応点候補の抽出では、たとえばハリスオペレータやラプラシアン・オブ・ガウシアンフィルタなどの特徴部抽出処理を利用して特徴点を抽出する。これらの抽出法により、ステップS5で設定した探索範囲内において抽出された特徴点に対して、俯瞰画像Itと前俯瞰画像It−1との間で対応点候補を抽出する。対応点候補を抽出する際には、特徴点の周辺の小領域(たとえば3×3画素、5×5画素、7×7画素)の間の相関値を求め、最高値となる相関値をもつ点がお互い同士の組だけを抽出し、抽出された2点を対応点候補とする。相関値の導出には、たとえば正規化相関によるテンプレートマッチングや差分総和などのパターン認識技術を用いることができる。あるいは、俯瞰画像の元となる画像を撮像した時刻tと、前俯瞰画像の元となる画像を撮像した時刻t−1との間隔Δtが微小であると仮定して、オプティカルフローを用いて対応点候補を抽出することもできる。 Subsequently, corresponding point candidates are extracted within the search range (S6). In extracting corresponding point candidates, for example, feature points are extracted using a feature extraction process such as a Harris operator or a Laplacian of Gaussian filter. By these extraction methods, corresponding point candidates are extracted between the overhead image It and the previous overhead image It-1 for the feature points extracted in the search range set in step S5. When extracting corresponding point candidates, a correlation value between small regions (for example, 3 × 3 pixels, 5 × 5 pixels, and 7 × 7 pixels) around the feature point is obtained, and the correlation value that is the highest value is obtained. Only a pair of points is extracted, and the extracted two points are set as corresponding point candidates. For the derivation of the correlation value, for example, a pattern recognition technique such as template matching based on normalized correlation or difference summation can be used. Alternatively, it is assumed that the interval Δt between the time t when the image that is the source of the bird's-eye view image is captured and the time t-1 when the image that is the source of the previous bird's-eye view is captured is small, and the optical flow is used. Point candidates can also be extracted.
対応点候補を抽出したら、対応点選択部15において、俯瞰画像It内から4点以上の多数の対応点候補を無作為に抽出する(S6)。対応点選択部15は、抽出した対応点の中から4つの対応点P1、P2、P3、P4を選択し(S7)、選択した対応点P1、P2、P3、P4を共通平面導出部16に出力する。なお、これらの対応点候補は、俯瞰画像Itではなく、前俯瞰画像It−1内から抽出する態様とすることもできる。
When the corresponding point candidates are extracted, the corresponding
共通平面導出部16では、出力された4つの対応点から共通平面を導出するが、対応点を撮像したカメラ2には、ある程度の検出誤差が見込まれる。この検出誤差が大きくなると、共通平面が相対水平面に対して大きく傾斜してしまい、周囲の物体を精度よく検出することが困難となることが想定される。そこで、ここでは、4点の対応点候補を正式に採用するか否かについての検討を行う。そのため、まず、出力された4つの対応点P1、P2、P3、P4について、2つの対応点を1組とした6組の対応点に対する相対距離しきい値Th12,Th13,Th14,Th23,Th24,Th34を、その対応点の位置とカメラ2の分解能から導出する(S8)。
The common
相対距離しきい値の導出は次のようにして行う。ここで、対応点P1、P2についての相対距離しきい値Th12の導出について図6を参照して説明する。ここでの説明における各記号は、それぞれ以下の意味である。
L1:時刻tのカメラ位置から点P1までの水平距離
L2:時刻tのカメラ位置から点P2までの水平距離
r1:点P1における距離分解能
r2:点P2における距離分解能
hc:カメラの設置高さ
H1:第一傾斜平面
H2:第二傾斜平面
RL:相対水平面
α1:点P1と点P2とで最大誤差を持ったときの第一傾斜平面H1の相対水平面RLに対する傾き
α2:点P1と点P2とで最大誤差を持ったときの第二傾斜平面H2の相対水平面RLに対する傾き
B:時刻tと時刻t−1とでカメラが移動した距離
d12:点P1と点P2との間の相対距離
The relative distance threshold is derived as follows. Here, the derivation of the relative distance threshold Th12 for the corresponding points P1 and P2 will be described with reference to FIG. Each symbol in the description here has the following meaning.
L 1 : Horizontal distance from the camera position at time t to point P 1 L 2 : Horizontal distance from the camera position at time t to point P 2 r 1: Distance resolution at point P 1 r 2: Distance resolution at point P 2 h c : Camera installation Height H1: First inclined plane H2: Second inclined plane RL: Relative horizontal plane α 1 : Inclination of first inclined plane H1 with respect to relative horizontal plane RL when there is a maximum error between point P1 and point P2 α 2 : Point The inclination of the second inclined plane H2 with respect to the relative horizontal plane RL when P1 and the point P2 have the maximum error B: Distance the camera has moved at time t and time t−1 d 12 : between the points P1 and P2 Relative distance between
図6に示すように、点P1における距離分解能r1は、下記(7)式で表すことができる。ここで、カメラ2が移動した距離は、車速×Δtで表すことができる。この分解能は、時刻tと時刻t−1とのカメラのステレオ視原理に基づいて求められる。
r1=(B2+L1 2)tanδθ/B−L1tanδθ ・・・(7)
ただし、δθ:カメラ視野/垂直画角
As shown in FIG. 6, the distance resolution r1 at the point P1 can be expressed by the following equation (7). Here, the distance traveled by the
r1 = (B 2 + L 1 2 ) tan δθ / B−L 1 tan δθ (7)
Where δθ: camera field of view / vertical angle of view
同様に、点p2における距離分解能r2は、下記(8)式で表すことができる。
r2=(B2+L2 2)tanδθ/B−L2tanδθ ・・・(8)
Similarly, the distance resolution r2 at the point p2 can be expressed by the following equation (8).
r2 = (B 2 + L 2 2 ) tan δθ / B−L 2 tan δθ (8)
また、点P1および点P2における高さ方向の分解能G1,G2は、それぞれ下記(9)式および(10)式によって求めることができる。
G1=r1sin(β1) ・・・(9)
G2=r2sin(β2) ・・・(10)
ただし、β1=tan−1(hc/L1)、β2=tan−1(hc/L2)
Further, the resolutions G 1 and G 2 in the height direction at the points P1 and P2 can be obtained by the following equations (9) and (10), respectively.
G 1 = r 1 sin (β 1 ) (9)
G 2 = r 2 sin (β 2 ) (10)
However, β 1 = tan −1 (h c / L 1 ), β 2 = tan −1 (h c / L 2 )
このとき、点P1と点P2とが最大誤差を持ったときに算出できる平面は、図6に示す第一傾斜平面H1と第二傾斜平面H2とがある。このうち、カメラ2に対して距離が近い点P1から遠ざかる方向に持った誤差に対応する第二傾斜平面H2の相対水平面RLに対する最大傾斜α2の方が、第一傾斜平面H1の相対水平面RLに対する最大傾斜α1よりも大きくなっている。
At this time, planes that can be calculated when the point P1 and the point P2 have the maximum error include a first inclined plane H1 and a second inclined plane H2 shown in FIG. Among them, towards the maximum inclination alpha 2 with respect to the relative horizontal RL of the second inclined plane H2, the distance to the
そこで、第二傾斜平面H2の相対水平面RLに対する最大傾斜α2を導出すると、第二傾斜平面H2の相対水平面RLに対する最大傾斜α2は、下記(11)式によって求めることができる。
tanα2=(G1+G2)/(d12−r2cos(β2)−r1cos(β1)) ・・・(11)
Accordingly, when deriving the maximum inclination alpha 2 with respect to the relative horizontal RL of the second inclined plane H2, the maximum inclination alpha 2 with respect to the relative horizontal RL of the second inclined plane H2 may be calculated according to the following equation (11).
tan α 2 = (G 1 + G 2 ) / (d 12 −r 2 cos (β 2 ) −r 1 cos (β 1 )) (11)
ここで、傾斜平面に対しては、許容傾斜角度である傾斜しきい値αが予め設定されている。この傾斜しきい値αは、検出対象の高さ等によって適宜設定する。本実施形態における傾斜しきい値αの設定手順について、図7を参照して説明する。ここでは、検出対象の最低高さ位置にある物体として縁石ESを設定し、この縁石ESより高い位置にある物体を車両Sからの最大距離Laの位置で検出可能とする設定としている。 Here, an inclination threshold value α that is an allowable inclination angle is preset for the inclination plane. This inclination threshold value α is appropriately set depending on the height of the detection target. A procedure for setting the inclination threshold value α in the present embodiment will be described with reference to FIG. Here, the curb ES is set as the object at the lowest height position to be detected, and the object at a position higher than the curb ES is set to be detectable at the position of the maximum distance La from the vehicle S.
縁石ESの高さをHminとして、縁石ESの高さ以下とすることにより、縁石ESより高い位置にある物体を車両Sからの最大距離Laの位置で検出可能とできる。ここでは、さらに余裕を持たせて、縁石ESの高さHminの半分の高さHmin/2を基準として、傾斜しきい値αを設定すると、傾斜しきい値αは、(12)式で求めることができる。
α=tan−1(Hmin/2La) ・・・(12)
By setting the height of the curb ES to Hmin and not more than the height of the curb ES, an object located higher than the curb ES can be detected at the position of the maximum distance La from the vehicle S. Here, if the slope threshold value α is set with a margin, with the height Hmin / 2 that is half of the height Hmin of the curb ES being set as a reference, the slope threshold value α is obtained by the equation (12). be able to.
α = tan −1 (Hmin / 2La) (12)
上記(12)式によって傾斜しきい値αを設定できる。具体的な例として、車両Sからの最大距離Laを2(m)、縁石ESの高さをHmin=10(cm)とすると、傾斜しきい値α≒1.4(deg)となる。 The inclination threshold value α can be set by the above equation (12). As a specific example, assuming that the maximum distance La from the vehicle S is 2 (m) and the height of the curb ES is Hmin = 10 (cm), the inclination threshold value α≈1.4 (deg).
この傾斜しきい値αを用いて、第二傾斜平面H2の相対水平面RLに対する最大傾斜α2が傾斜しきい値αより小さくなるか否かの判断として、下記(13)式によって点P1,P2に対応する相対距離しきい値Th12を求める。また、下記(14)式によって、点P1と点P2との間の相対距離d12を求める。
Th12=r1cos(β1)+r2cos(β2)+(G1+G2)/tanα ・・・(13)
d12=L2−L1 ・・・(14)
Using this gradient threshold alpha, a maximum inclination alpha 2 is whether smaller than the inclination threshold alpha determine the relative horizontal RL of the second inclined plane H2, point by the following equation (13) P1, P2 A relative distance threshold Th12 corresponding to is obtained. Further, by the following equation (14), determining the relative distance d 12 between the points P1 and P2.
Th12 = r 1 cos (β 1 ) + r 2 cos (β 2 ) + (G1 + G2) / tan α (13)
d 12 = L 2 −L 1 (14)
こうして、点P1と点P2についての相対距離しきい値Th12および相対距離d12を求めたら、相対距離d12が相対距離しきい値Th12よりも大きいか否かを判断する(S9)。 Thus, when asked the relative distance threshold Th12 and relative distance d 12 for points P1 and P2, the relative distance d 12 determines whether greater than the relative distance threshold Th12 (S9).
以後、同様の手順によって点P1と点P3、点P1と点P4、点P2と点P3、点P2と点P4、および点P3と点P4についても相対距離しきい値Th13、Th14、Th23、Th24、Th34、および相対距離d13、d14、d23、d24、d34を求める。それから、それぞれ対応する相対距離diが相対距離しきい値Thiよりも大きいか否かを判断する(S9)。 Thereafter, the relative distance threshold values Th13, Th14, Th23, Th24 are also applied to the points P1 and P3, the points P1 and P4, the points P2 and P3, the points P2 and P4, and the points P3 and P4 by the same procedure. , Th34, and obtains the relative distances d 13, d 14, d 23 , d 24, d 34. Then, it is determined whether or not the corresponding relative distance di is larger than the relative distance threshold Thi (S9).
その結果、すべての対応する2点について、相対距離diが相対距離しきい値Thiよりも大きいと判断された場合には、選択された4点P1、P2、P3、P4を正式な対応点として採用する(S10)。一方、相対距離diが相対距離しきい値Thi以下であると判断された場合には、ステップS7に戻って対応点選択部15において対応点候補から4点の対応点を選択し直し、ステップS10の条件を満たすまでステップS7〜ステップS9の工程を繰り返す。
As a result, if it is determined that the relative distance di is greater than the relative distance threshold value Thi for all the corresponding two points, the selected four points P1, P2, P3, and P4 are used as formal corresponding points. Adopt (S10). On the other hand, if it is determined that the relative distance di is equal to or less than the relative distance threshold Thi, the process returns to step S7, and the corresponding
他方、相対距離しきい値Th12を求めることなく、傾斜しきい値を直接用いることもできる。この場合には、第二傾斜平面H2の相対水平面RLに対する最大傾斜α2が小さくなるように、α≧α2、すなわちtanα≧tanα2(α<π/2)の条件式を満たすか否かを判断する。そして、すべての対応する2点について、tanα≧tanα2(α<π/2)の条件式を満たすと判断された場合には、選択された4点P1、P2、P3、P4を正式な対応点として採用する On the other hand, the inclination threshold value can be directly used without obtaining the relative distance threshold value Th12. In this case, whether or not the conditional expression of α ≧ α 2 , that is, tan α ≧ tan α 2 (α <π / 2) is satisfied so that the maximum inclination α 2 of the second inclined plane H2 with respect to the relative horizontal plane RL becomes small. Judging. When it is determined that all the corresponding two points satisfy the condition of tan α ≧ tan α 2 (α <π / 2), the selected four points P1, P2, P3, and P4 are officially corresponded. Adopt as a point
こうして、4点P1、P2、P3、P4を正式に採用したら、共通平面ホモフラフィ行列を導出する(S11)。共通平面ホモグラフィの導出は、下記の手順で行われる。まず、図8に示すように、ある任意の平面H上にある点P1〜P4のいずれかである点Pを第1カメラの視点C1および第2カメラの視点C2で見たときにそれぞれのカメラ座標がp1(u1,v1)、p2(u2,v2)であったとする。このとき、両座標の関係は、下記(15)式で表すことができる。また、共通平面のホモグラフィ行列を(16)式に示す。
ここで、ホモグラフィ行列Hは3×3の行列であることから、平面H上に存在する点のそれぞれの画像への投影点の画像座標の組はすべて上記(16)式で表すことができる。言い換えると、平面上にある点は、その平面のホモグラフィ行列がわかっていれば、ステレオ画像の一方の画像点からもう一方の画像上の対応点の位置が決定できることになる。したがって、ホモグラフィ行列Hは、三次元空間内で同一平面上にある4点の画像上での対応がわかれば、直接に求めることができる。
When the four points P1, P2, P3, and P4 are formally adopted in this way, a common plane homofluffy matrix is derived (S11). The common plane homography is derived in the following procedure. First, as shown in FIG. 8, when a point P that is one of the points P1 to P4 on an arbitrary plane H is viewed from the viewpoint C1 of the first camera and the viewpoint C2 of the second camera, the respective cameras Assume that the coordinates are p1 (u 1 , v 1 ), p2 (u 2 , v 2 ). At this time, the relationship between the two coordinates can be expressed by the following equation (15). Further, the homography matrix of the common plane is shown in Equation (16).
Here, since the homography matrix H is a 3 × 3 matrix, all sets of image coordinates of the projection points onto the respective images of the points existing on the plane H can be expressed by the above equation (16). . In other words, for a point on a plane, if the homography matrix of the plane is known, the position of the corresponding point on the other image can be determined from one image point of the stereo image. Therefore, the homography matrix H can be obtained directly if the correspondence on the four-point image on the same plane in the three-dimensional space is known.
いま、3次元空間内におけるある平面に存在するn個の点について、図9に示すように、2つの画像間で対応が与えられているとする。ここで、第1カメラで第1点P1および第2点P2を見た際の第1画像における1番目の点P11および2番目の点P12の座標をそれぞれp11(u11,v11)、p12(u12,v1i2)とする。また、第2カメラで第1点P1および第2点P2を見た際の第2画像における1番目の点P11および2番目の点P12の座標をそれぞれp11(u11,v11)、p12(u12,v112)とする。 Assume that correspondence between two images is given to n points existing on a certain plane in the three-dimensional space, as shown in FIG. Here, the coordinates of the first point P11 and the second point P12 in the first image when viewing the first point P1 and the second point P2 with the first camera are p11 (u 11 , v 11 ) and p12, respectively. (U 12 , v 1i2 ). Further, the coordinates of the first point P11 and the second point P12 in the second image when the first point P1 and the second point P2 are viewed with the second camera are p11 (u 11 , v 11 ), p12 ( u 12 , v 112 ).
これを一般化して第1カメラで撮像した第1画像におけるi番目の点の座標を(u1i,v1i)とし、第2カメラで撮像した第2画像におけるi番目の点の座標を(u2i,v2i)とする。さらに、この点についての上記(15)式の定数αをα1とおくと、上記(15)式は下記(17)式のように表すことができる。
この(17)式を変形すると、下記(18)式のようになる。
さらに、第1画像と第2画像との間でn個の対応が取れている場合には、上記(18)式は下記(19)式のように表すことができる。
BJ=0 ・・・(19)
BJ = 0 (19)
ここで、上記(19)式における行列Jにおける任意の1つの要素を1とおいて、線形方程式の最小二乗法によって上記(19)式を解いていく。このとき、J=0という意味にない解を避けるために、|J|2=1とした上で、その下でのmin|BJ|2の最小化問題として捉えることにより、解は行列BTBの最小固有値に対応する固有ベクトルとして与えられる。こうして共通平面ホモグラフィ行列を導出することができる。 Here, assuming that one arbitrary element in the matrix J in the above equation (19) is 1, the above equation (19) is solved by the least square method of a linear equation. At this time, in order to avoid solutions not in the sense of J = 0, | J | 2 = 1 and in terms of and, min under the | BJ | by capturing a second minimization problem, the solution matrix B T It is given as an eigenvector corresponding to the smallest eigenvalue of B. In this way, a common plane homography matrix can be derived.
共通平面ホモグラフィ行列を導出したら、画像視点変換部17において、導出した共通平面ホモグラフィ行列によって、前俯瞰画像It−1を変換し(S12)、変換俯瞰画像It′を作成する。ここで作成される変換俯瞰画像It′は、いわば時刻t−1における画像を変換して時刻tの画像を推測したものとなる。いま、図10(a)に前俯瞰画像It−1の模式図、(b)に俯瞰画像Itの模式図、(c)に変換俯瞰画像It′の模式図をそれぞれ示す。図10からわかるように、俯瞰画像Itと変換俯瞰画像It′とを比較すると、相対水平面RLの位置は一致している。これに対して、相対水平面RL以外の位置は一致せずにずれが生じており、たとえば物体Mの位置は俯瞰画像Itと変換俯瞰画像It′との間では、ずれている。
When the common plane homography matrix is derived, the image
また、適切な対応点を使わずに不適切なホモグラフィ行列を用いて前俯瞰画像を変換してしまった場合には、図11(a)に示す前俯瞰画像It−1、図11(b)に示す俯瞰画像Itに対して、前俯瞰画像It−1から変換俯瞰画像を作成すると、図11(c)に示すように、変換俯瞰画像It′では画像がぼやけてしまう。このような画像が変換俯瞰画像として得られた場合には、不適切なホモグラフィ行列による変換であるとしてたとえば対応点の選定をやり直す態様とすることができる。 Further, when the front overhead image is converted using an inappropriate homography matrix without using appropriate corresponding points, the front overhead image It-1 shown in FIG. 11A and FIG. If a converted overhead image is created from the previous overhead image It-1 with respect to the overhead image It shown in FIG. 11C, the image is blurred in the converted overhead image It ′ as shown in FIG. When such an image is obtained as a converted overhead image, for example, it is possible to re-select corresponding points by assuming that the conversion is based on an inappropriate homography matrix.
図10に示した俯瞰画像Itと変換俯瞰画像It′との関係に戻り、俯瞰画像Itと変換俯瞰画像It′の間におけるずれを検出するために、両俯瞰画像の局所領域がどのように変化しているのかを調べる。そのために、物体高さ判断部18において、俯瞰画像Itと変換俯瞰画像It′との間の局所移動ベクトルを導出する(S13)。
Returning to the relationship between the overhead image It and the converted overhead image It ′ shown in FIG. 10, how the local regions of both overhead images change in order to detect a shift between the overhead image It and the converted overhead image It ′. Find out what you are doing. For this purpose, the object
局所移動ベクトルを導出するために、図12(a)に示すように、俯瞰画像Itと変換俯瞰画像It′とを重畳させた重畳画像を生成する。この図12(a)に示す重畳画像では、俯瞰画像Itの画像を破線で、変換俯瞰画像It′の画像を一点鎖線でそれぞれ示している。図12(a)に示す重畳画像において、まず変換俯瞰画像It′における局所領域Xt−1A,Xt−1Bを選択する。これらの局所領域は適宜選択することができるが、たとえば周囲の領域と大きく輝度が異なる領域を選択することができる。 In order to derive the local movement vector, as shown in FIG. 12A, a superimposed image is generated by superimposing the overhead image It and the converted overhead image It ′. In the superimposed image shown in FIG. 12A, the image of the overhead image It is indicated by a broken line, and the image of the converted overhead image It ′ is indicated by an alternate long and short dash line. In the superimposed image shown in FIG. 12A, first, local regions Xt-1A and Xt-1B in the converted overhead image It ′ are selected. These local areas can be selected as appropriate. For example, an area having a brightness greatly different from that of the surrounding area can be selected.
変換俯瞰画像It′における局所領域Xt−1A,Xt−1Bを選択したら、俯瞰画像Itにおけるこれらの局所領域Xt−1A,Xt−1Bに対応する対応局所領域XtA,XtBを導出する。対応局所領域XtA,XtBを導出する際には、たとえば正規化相関によるテンプレートマッチングや差分総和などのパターン認識技術を用いることができる。また、時刻tと時刻t1−との間隔Δtが微小であると仮定して、オプティカルフローを用いて対応局所領域XtA,XtBを導出することもできる。 When the local regions Xt-1A and Xt-1B in the converted overhead image It ′ are selected, corresponding local regions XtA and XtB corresponding to these local regions Xt-1A and Xt-1B in the overhead image It are derived. When deriving the corresponding local regions XtA and XtB, for example, a pattern recognition technique such as template matching by normalized correlation or sum of differences can be used. Further, it is possible to derive the corresponding local regions XtA and XtB using the optical flow, assuming that the interval Δt between the time t and the time t1− is very small.
こうして局所領域Xt−1A,Xt−1Bに対応する対応局所領域XtA,XtBを抽出したら、局所領域Xt−1A,Xt−1Bから対応局所領域XtA,XtBに対する移動ベクトルViA,ViBを局所移動ベクトルとしてそれぞれ求める。 When the corresponding local regions XtA and XtB corresponding to the local regions Xt-1A and Xt-1B are thus extracted, the movement vectors ViA and ViB for the corresponding local regions XtA and XtB are used as local movement vectors from the local regions Xt-1A and Xt-1B. Ask for each.
局所移動ベクトルを求めたら、物体高さ判断部18において、物体高さ判断を行う(S14)。物体高さ判断部18では、局所移動ベクトルの移動量に基づいて、相対水平面RLであるか、相対水平面RLより高い立体物であるか、あるいは相対水平面RLよりも低い溝や下り段差などであるかを判断する。具体的には、局所移動ベクトルの移動量の絶対値が所定のしきい値を超えるか否かを判定し、所定のしきい値を超えないと判定した場合には、相対水平面RLにあると判定する。
After obtaining the local movement vector, the object
また、局所移動ベクトルの移動量が所定のしきい値を超えると判定した場合には、水平面に対する高低を判定し、局所領域Xt−1Aと対応局所領域XtAは水平面より低い位置にあると判定した場合には「側溝または下り段差」であると判定する。一方、局所領域Xt−1Aと対応局所領域XtAは水平面より低い位置にあると判定した場合には、「立体物」であると判定する。 Further, when it is determined that the amount of movement of the local movement vector exceeds a predetermined threshold value, the level relative to the horizontal plane is determined, and it is determined that the local region Xt-1A and the corresponding local region XtA are at a position lower than the horizontal plane. In this case, it is determined that it is a “side groove or descending step”. On the other hand, if it is determined that the local region Xt-1A and the corresponding local region XtA are at a position lower than the horizontal plane, it is determined to be a “three-dimensional object”.
こうして、局所位置の水平面に対する高さを判定したら、判定した高さ情報を俯瞰図に記録する(S15)。この高さ情報に基づいて、俯瞰図の高さ情報を完成させる。ここで完成された俯瞰図は、たとえば図13に示すようになる。この俯瞰図では、「相対水平面」「側溝・下り段差」「立体物」の領域に分けた色付表示を行っている。このような色付表示を行うことにより、「相対水平面」「側溝・下り段差」「立体物」について強調表示を行うことができる。 Thus, if the height with respect to the horizontal surface of a local position is determined, the determined height information will be recorded on an overhead view (S15). Based on the height information, the height information of the overhead view is completed. The overhead view completed here is as shown in FIG. 13, for example. In this overhead view, the colored display is divided into the areas of “relative horizontal plane”, “side groove / down step”, and “three-dimensional object”. By performing such colored display, it is possible to highlight the “relative horizontal plane”, “side groove / down step”, and “three-dimensional object”.
こうして俯瞰図を完成させたら、完成した俯瞰図を情報出力部3に出力し(S16)、ディスプレイなどで表示したり、他の装置に情報提供を行ったりする。 When the bird's-eye view is completed in this way, the completed bird's-eye view is output to the information output unit 3 (S16) and displayed on a display or the like, or information is provided to other devices.
このように、本実施形態に係る画像処理装置においては、共通平面を導出するにあたり、複数のカメラで撮像された画像から得られる画像について、1組の対応点を通る直線と相対水平面RLとがなす傾斜角度が、予め設定された共通平面に対する許容傾斜角度以下となるか否かを判定する。そして、1組の対応点を結んだ直線のすべてについて、相対水平面RLとの傾斜角度が許容傾斜角度以下となる判定された場合に、複数の対応点に基づいて共通平面を導出する。このように、1組の対応点を結んだ直線と相対水平面RLとのなす傾斜角度が許容傾斜角度以下となる場合に共通平面を導出することから、複数の画像に誤差が生じた場合であっても、相対水平面RLに対する共通平面の傾斜角度を小さくして、所定の範囲内に収めることができる。また、選択された2点間の距離と距離しきい値とを比較して相対水平面RLとの傾斜角度が許容傾斜角度以下となるか否かを判定しているので、その演算を簡素なものとすることができる。 As described above, in the image processing apparatus according to the present embodiment, when deriving a common plane, a straight line passing through a set of corresponding points and a relative horizontal plane RL are obtained for an image obtained from images captured by a plurality of cameras. It is determined whether or not the inclination angle formed is equal to or smaller than a preset allowable inclination angle with respect to the common plane. When it is determined that the inclination angle with respect to the relative horizontal plane RL is equal to or less than the allowable inclination angle for all the straight lines connecting a pair of corresponding points, a common plane is derived based on the plurality of corresponding points. As described above, the common plane is derived when the inclination angle formed by the straight line connecting the pair of corresponding points and the relative horizontal plane RL is equal to or smaller than the allowable inclination angle. However, the inclination angle of the common plane with respect to the relative horizontal plane RL can be reduced to fall within a predetermined range. In addition, since the distance between the two selected points and the distance threshold value are compared to determine whether the inclination angle with the relative horizontal plane RL is equal to or less than the allowable inclination angle, the calculation is simple. It can be.
以上、本発明の好適な実施形態について説明したが、本発明は上記実施形態に限定されるものではない。たとえば、上記実施形態では車両にカメラを搭載して車両の移動に伴って複数の画像を取得しているが、カメラを移動させる移動手段や撮像する撮像者などがカメラを移動させて複数の画像を取得する態様とすることができる。 The preferred embodiment of the present invention has been described above, but the present invention is not limited to the above embodiment. For example, in the above embodiment, a camera is mounted on a vehicle and a plurality of images are acquired as the vehicle moves. However, a moving unit that moves the camera, a photographer that captures an image, and the like move the camera to move the plurality of images. It can be set as the aspect which acquires.
また、上記実施形態では、2点を結んだ直線から相対距離しきい値を求め、2点の距離が相対距離しきい値と2点間の距離とを比較しているが、2点を結んだ直線の相対水平面に対する角度と、傾斜しきい値αとを比較し、2点を結んだ直線の相対水平面に対する角度が傾斜しきい値αを超える場合に、対応点を選択しなおす態様とすることもできる。 In the above embodiment, the relative distance threshold is obtained from the straight line connecting the two points, and the distance between the two points is compared with the relative distance threshold and the distance between the two points. The angle of the straight line relative to the relative horizontal plane is compared with the inclination threshold α, and when the angle of the straight line connecting the two points to the relative horizontal plane exceeds the inclination threshold α, the corresponding point is selected again. You can also.
1…画像処理装置、2(2R,2B,2L,2F)…カメラ、3…情報出力部、11…センサ情報取込部、12…俯瞰図作成部、13…画像一時保管部、14…対応点候補抽出部、15…対応点選択部、16…共通平面導出部、17…画像視点変換部、18…物体高さ判断部。 DESCRIPTION OF SYMBOLS 1 ... Image processing apparatus, 2 (2R, 2B, 2L, 2F) ... Camera, 3 ... Information output part, 11 ... Sensor information taking-in part, 12 ... Overhead view creation part, 13 ... Temporary image storage part, 14 ... Correspondence Point candidate extraction unit, 15 ... corresponding point selection unit, 16 ... common plane derivation unit, 17 ... image viewpoint conversion unit, 18 ... object height determination unit.
Claims (3)
画像取得手段で取得された複数の画像間で対応する対応点を複数抽出する対応点抽出手段と、
対応点に検出誤差が見込まれる際、画像内における1組の対応点を通る直線と相対水平面とがなす傾斜角度が、共通平面に対する予め設定された許容傾斜角度以下となるか否かを判定する傾斜角度判定手段と、
複数の対応点から得られる複数の1組の対応点を通る複数の直線のすべてについて、相対水平面との傾斜角度が許容傾斜角度以下となる判定された場合に、複数の対応点に基づいて共通平面を導出する共通平面導出手段と、
を備えることを特徴とする画像処理装置。 Image acquisition means for acquiring a plurality of images captured from a plurality of different positions in a common area at least partially in common;
Corresponding point extracting means for extracting a plurality of corresponding points between a plurality of images acquired by the image acquiring means;
When a detection error is expected at the corresponding point, it is determined whether or not the inclination angle formed by the straight line passing through the pair of corresponding points in the image and the relative horizontal plane is equal to or smaller than a preset allowable inclination angle with respect to the common plane. An inclination angle determination means;
Commonly based on a plurality of corresponding points when it is determined that the inclination angle with the relative horizontal plane is less than or equal to the allowable inclination angle for all of the plurality of straight lines passing through a set of corresponding points obtained from the plurality of corresponding points. A common plane deriving means for deriving a plane;
An image processing apparatus comprising:
傾斜角度判定手段における判定基準に基づき、1組の対応点についての対応点間の距離しきい値を算出する距離しきい値算出手段と、を備え、
傾斜角度判定手段は、1組の対応点間の距離と、対応点間の距離しきい値とを比較する請求項1に記載の画像処理装置。 A corresponding point distance calculating means for obtaining a distance between a pair of corresponding points;
Distance threshold value calculating means for calculating a distance threshold value between corresponding points for a set of corresponding points based on a determination criterion in the inclination angle determining means,
The image processing apparatus according to claim 1, wherein the inclination angle determination unit compares a distance between the pair of corresponding points with a distance threshold value between the corresponding points.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006280343A JP2008097444A (en) | 2006-10-13 | 2006-10-13 | Image processor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006280343A JP2008097444A (en) | 2006-10-13 | 2006-10-13 | Image processor |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008097444A true JP2008097444A (en) | 2008-04-24 |
Family
ID=39380207
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006280343A Pending JP2008097444A (en) | 2006-10-13 | 2006-10-13 | Image processor |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2008097444A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012527787A (en) * | 2009-05-21 | 2012-11-08 | インテル・コーポレーション | A method for high-speed 3D construction from images |
CN108007386A (en) * | 2016-11-02 | 2018-05-08 | 光宝电子(广州)有限公司 | 3-D scanning method and its device and system based on structure light |
-
2006
- 2006-10-13 JP JP2006280343A patent/JP2008097444A/en active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012527787A (en) * | 2009-05-21 | 2012-11-08 | インテル・コーポレーション | A method for high-speed 3D construction from images |
CN108007386A (en) * | 2016-11-02 | 2018-05-08 | 光宝电子(广州)有限公司 | 3-D scanning method and its device and system based on structure light |
CN108007386B (en) * | 2016-11-02 | 2021-04-20 | 光宝电子(广州)有限公司 | Three-dimensional scanning method based on structured light and device and system thereof |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11170466B2 (en) | Dense structure from motion | |
CN109034047B (en) | Lane line detection method and device | |
JP4553072B1 (en) | Image integration apparatus and image integration method | |
JP5870273B2 (en) | Object detection apparatus, object detection method, and program | |
JP3868876B2 (en) | Obstacle detection apparatus and method | |
US10909395B2 (en) | Object detection apparatus | |
JP5404263B2 (en) | Parallax calculation method and parallax calculation device | |
US20150356357A1 (en) | A method of detecting structural parts of a scene | |
JP4521235B2 (en) | Apparatus and method for extracting change of photographed image | |
WO2017138245A1 (en) | Image processing device, object recognition device, device control system, and image processing method and program | |
JP4609603B2 (en) | 3D information display device and 3D information display method | |
JP6617150B2 (en) | Object detection method and object detection apparatus | |
JP2005217883A (en) | Method for detecting flat road area and obstacle by using stereo image | |
JP6410231B2 (en) | Alignment apparatus, alignment method, and computer program for alignment | |
JP4553071B1 (en) | 3D information display device and 3D information display method | |
JP4935769B2 (en) | Plane region estimation apparatus and program | |
JP4946896B2 (en) | Distance measuring device and distance measuring method | |
JP2009282762A (en) | Corresponding point retrieval device | |
JP2008097444A (en) | Image processor | |
JP2008286648A (en) | Distance measuring device, distance measuring system, and distance measuring method | |
CN113674361B (en) | Vehicle-mounted all-round-looking calibration implementation method and system | |
JP6886136B2 (en) | Alignment device, alignment method and computer program for alignment | |
JP3994954B2 (en) | Object detection apparatus and object detection method | |
JP2009077022A (en) | Driving support system and vehicle | |
JP5256508B2 (en) | 3D information calculation apparatus and 3D information calculation method |