JP2008097444A - Image processor - Google Patents

Image processor Download PDF

Info

Publication number
JP2008097444A
JP2008097444A JP2006280343A JP2006280343A JP2008097444A JP 2008097444 A JP2008097444 A JP 2008097444A JP 2006280343 A JP2006280343 A JP 2006280343A JP 2006280343 A JP2006280343 A JP 2006280343A JP 2008097444 A JP2008097444 A JP 2008097444A
Authority
JP
Japan
Prior art keywords
image
inclination angle
corresponding points
points
plane
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006280343A
Other languages
Japanese (ja)
Inventor
Mamoru Furuta
守 古田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2006280343A priority Critical patent/JP2008097444A/en
Publication of JP2008097444A publication Critical patent/JP2008097444A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processor capable of keeping a plurality of images within a predetermined range, even if error occurs to the plurality of images, by reducing an inclination angle of a common plane to a relative horizontal plane. <P>SOLUTION: The image processor 1 converts an image acquired by a camera 2 into a bird's eye view image and stores it as bird's eye view image It-1 in a temporary image storage part 13. The image processor 1 also acquires an image, including a common area common to the bird's eye view image and converts it into a bird's eye view image It. A common plane is derived from the bird's eye view image It-1 and the bird's eye view image It and both images are compared. In deriving the common plane, two or more pairs of corresponding points, corresponding between both images, are extracted to select four that correspond to points, arranged such that the inclination angle defined by the relative horizontal plane and a straight line passing through a pair of corresponding points is an allowable inclination angle or smaller. The common plane is derived based on these four corresponding points. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、画像処理装置に係り、特に、撮像した画像から、共通平面、たとえば地面を導出することができる画像処理装置に関する。   The present invention relates to an image processing apparatus, and more particularly to an image processing apparatus capable of deriving a common plane, for example, the ground, from captured images.

たとえば、車両の周囲を撮像手段で撮像して得られる画像に基づいて車両の周囲における高さが低いか高いかを検出することにより、周囲の障害物や側溝などを認識することが求められている。このような画像処理を行うには、車両の周囲における高さを求めるにあたり、その基準となる地面などの共通平面を求めることが要求される。このような共通平面を求める技術として、特開2004−94707号公報(特許文献1)に開示されたステレオ画像による平面推定方法がある。   For example, it is required to recognize surrounding obstacles and side grooves by detecting whether the height around the vehicle is low or high based on an image obtained by imaging the surroundings of the vehicle with an imaging means. Yes. In order to perform such image processing, it is required to obtain a common plane such as the ground as a reference when obtaining the height around the vehicle. As a technique for obtaining such a common plane, there is a plane estimation method using a stereo image disclosed in Japanese Patent Application Laid-Open No. 2004-94707 (Patent Document 1).

この平面推定方法では、撮像装置で撮像されたステレオ画像における基準画像から複数の特徴点を抽出し、各特徴点について参照画像中の対応点を探索する対応付け処理を行い、視差を求める。この各特徴点について視差および画像上の座標点に基づいて他の特徴点との対比を行い、当該特徴点が道路(平面)示す点か道路上の物体を示す点かを判別する。そして、物体を示すと判別された特徴点を除いた残りの特徴点から道路の三次元位置を算出して共通平面を導出するものである。
特開2004−94707号公報
In this plane estimation method, a plurality of feature points are extracted from a standard image in a stereo image captured by an imaging device, and a matching process for searching for a corresponding point in a reference image is performed for each feature point to obtain a parallax. Each feature point is compared with other feature points based on the parallax and the coordinate points on the image to determine whether the feature point is a point indicating a road (plane) or an object on the road. Then, the three-dimensional position of the road is calculated from the remaining feature points excluding the feature points determined to indicate an object, and a common plane is derived.
JP 2004-94707 A

ところで、このような共通平面を導出する際には、たとえば共通平面が相対水平面に対して所定の角度以下の範囲に収まることが求められる。しかし、上記特許文献1に開示された発明では、撮像装置で撮像されたステレオ画像から、特徴点を抽出し、物体を示すと判別された特徴点を除いた残りの特徴点から道路の三次元位置を算出して共通平面を導出する平面推定を行っている。このため、ステレオ画像(複数の画像)を取得する撮像装置の分解能等に起因して誤差が生じる場合、この誤差によって共通平面を導出する際の精度が低くなってしまい、結果として共通平面が相対水平面に対して大きく傾斜してしまうことがあるという問題があった。   By the way, when deriving such a common plane, for example, the common plane is required to fall within a predetermined angle or less with respect to a relative horizontal plane. However, in the invention disclosed in Patent Document 1, a feature point is extracted from a stereo image captured by an imaging device, and the three-dimensional road is extracted from the remaining feature points excluding the feature point determined to indicate an object. Plane estimation is performed to derive the common plane by calculating the position. For this reason, when an error occurs due to the resolution or the like of an imaging apparatus that acquires a stereo image (a plurality of images), the accuracy in deriving the common plane is lowered due to this error, and as a result, the common plane becomes relative. There was a problem that it might be greatly inclined with respect to the horizontal plane.

そこで、本発明の課題は、撮像した画像に誤差が生じた場合であっても、相対水平面に対する共通平面の傾斜角度を小さくして、所定の範囲内に収めることができる画像処理装置を提供することにある。   Accordingly, an object of the present invention is to provide an image processing apparatus capable of reducing the inclination angle of the common plane with respect to the relative horizontal plane and keeping it within a predetermined range even when an error occurs in the captured image. There is.

上記課題を解決した本発明に係る画像処理装置は、少なくとも一部が共通する共通領域を異なる複数の位置から撮像した複数の画像を取得する画像取得手段と、画像取得手段で取得された複数の画像間で対応する対応点を複数抽出する対応点抽出手段と、対応点に検出誤差が見込まれる際、画像内における1組の対応点を通る直線と相対水平面とがなす傾斜角度が、共通平面に対する予め設定された許容傾斜角度以下となるか否かを判定する傾斜角度判定手段と、複数の対応点から得られる複数の1組の対応点を通る複数の直線のすべてについて、相対水平面との傾斜角度が許容傾斜角度以下となる判定された場合に、複数の対応点に基づいて共通平面を導出する共通平面導出手段と、を備えるものである。   An image processing apparatus according to the present invention that has solved the above problems includes an image acquisition unit that acquires a plurality of images obtained by imaging a common area at least partially shared from a plurality of different positions, and a plurality of images acquired by the image acquisition unit. Corresponding point extraction means for extracting a plurality of corresponding points between images, and when a detection error is expected in the corresponding points, an inclination angle formed by a straight line passing through a pair of corresponding points in the image and a relative horizontal plane is a common plane. An inclination angle determination means for determining whether or not the inclination angle is equal to or less than a preset allowable inclination angle with respect to all of a plurality of straight lines passing through a plurality of sets of corresponding points obtained from the plurality of corresponding points; And a common plane deriving unit that derives a common plane based on a plurality of corresponding points when it is determined that the tilt angle is equal to or smaller than the allowable tilt angle.

本発明に係る画像処理装置においては、対応点における検出誤差が見込まれる際、画像内における1組の対応点を通る直線と相対水平面とがなす傾斜角度が、共通平面に対する予め設定された許容傾斜角度以下となるか否かを判定する。そして複数の対応点から得られる複数の1組の対応点を通る複数の直線のすべてについて、相対水平面との傾斜角度が許容傾斜角度以下となる判定された場合に、複数の対応点に基づいて共通平面を導出する。このように、1組の対応点を結んだ直線と相対水平面とのなす傾斜角度が許容傾斜角度以下となる場合に共通平面を導出することから、撮像した画像における対応点に誤差が生じた場合であっても、相対水平面に対する共通平面の傾斜角度を小さくして、所定の範囲内に収めることができる。   In the image processing apparatus according to the present invention, when a detection error at a corresponding point is expected, an inclination angle formed by a straight line passing through a set of corresponding points in the image and a relative horizontal plane is a preset allowable inclination with respect to the common plane. It is determined whether the angle is equal to or smaller than the angle. Then, when it is determined that the inclination angle with the relative horizontal plane is less than or equal to the allowable inclination angle for all of the plurality of straight lines passing through the plurality of sets of corresponding points obtained from the plurality of corresponding points, based on the plurality of corresponding points. Deriving a common plane. In this way, when the inclination angle formed by the straight line connecting the pair of corresponding points and the relative horizontal plane is equal to or smaller than the allowable inclination angle, the common plane is derived, and thus an error occurs in the corresponding points in the captured image. Even so, the inclination angle of the common plane with respect to the relative horizontal plane can be reduced to fall within a predetermined range.

ここで、1組の対応点間の距離を求める対応点距離算出手段と、傾斜角度判定手段における判定基準に基づき、1組の対応点についての対応点間の距離しきい値を算出する距離しきい値算出手段と、を備え、傾斜角度判定手段は、1組の対応点間の距離と、対応点間の距離しきい値とを比較する態様とすることができる。   Here, a distance for calculating a distance threshold between corresponding points for one set of corresponding points based on a determination criterion in the inclination angle determining means and a corresponding point distance calculating means for obtaining a distance between a set of corresponding points. Threshold value calculating means, and the tilt angle determining means can compare the distance between a set of corresponding points with a distance threshold value between the corresponding points.

このように、1組の対応点についての対応点間の距離しきい値を算出し、1組の対応点間の距離と、対応点間の距離しきい値とを比較することにより、傾斜角度が許容傾斜角度以下となるか否かを簡素な演算によって判定することができる。   Thus, by calculating the distance threshold between corresponding points for a set of corresponding points, and comparing the distance between the corresponding points with the distance threshold between the corresponding points, the inclination angle Can be determined by a simple calculation.

さらに、傾斜角度判定手段は、対応点において見込まれる検出誤差が最大検出誤差であるときの傾斜角度について判定する態様とすることができる。   Furthermore, the inclination angle determination means can determine the inclination angle when the detection error expected at the corresponding point is the maximum detection error.

このように、検出誤差が最大検出誤差であることにより、確実に相対水平面に対する共通平面の傾斜角度を確実に所定の範囲内に収めることができる。   As described above, when the detection error is the maximum detection error, the inclination angle of the common plane with respect to the relative horizontal plane can be reliably within the predetermined range.

本発明に係る画像処理装置によれば、撮像した画像に誤差が生じた場合であっても、相対水平面に対する共通平面の傾斜角度を小さくして、所定の範囲内に収めることができる。   According to the image processing apparatus of the present invention, even when an error occurs in the captured image, the inclination angle of the common plane with respect to the relative horizontal plane can be reduced and fall within a predetermined range.

以下、図面を参照して、本発明の好適な実施形態について説明する。図1は、本発明の実施形態に係る画像処理装置のブロック構成図である。   Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram of an image processing apparatus according to an embodiment of the present invention.

図1に示すように、本実施形態における画像処理装置1は、センサ情報取込部11、俯瞰図作成部12、画像一時保管部13、対応点候補抽出部14、対応点選択部15、共通平面導出部16、画像視点変換部17、および物体高さ判断部18を備えている。さらに、画像処理装置1には、カメラ2(2F,2R,2L,2B)および情報出力部3が接続されており、カメラ2F,2R,2L,2Bから出力された画像に基づいて、カメラ2F,2R,2L,2Bの周囲における高低を検出する。   As shown in FIG. 1, the image processing apparatus 1 according to the present embodiment includes a sensor information capturing unit 11, an overhead view creation unit 12, a temporary image storage unit 13, a corresponding point candidate extraction unit 14, a corresponding point selection unit 15, A plane deriving unit 16, an image viewpoint converting unit 17, and an object height determining unit 18 are provided. Furthermore, a camera 2 (2F, 2R, 2L, 2B) and an information output unit 3 are connected to the image processing apparatus 1, and the camera 2F is based on images output from the cameras 2F, 2R, 2L, 2B. , 2R, 2L, and 2B are detected.

前方カメラ2Fは、図2に示すように、車両Sの前方中央のフロントグリル部分に取り付けられており、車両Sの前方を撮像している。また、右方カメラ2Rは、車両Sの右ドア位置、左方カメラ2Lは車両Sの左ドア、後方カメラ2Bは車両Sのリアトランクカバーにそれぞれ取り付けられて、車両Sの右方、左方、および後方をそれぞれ撮像している。カメラ2F,2R,2L,2Bは、それぞれいわゆる魚眼カメラなどの広視野カメラからなり、それぞれのカメラ2F,2R,2L,2Bで撮像領域EF,ER,EL,EBを撮像可能とされている。カメラ2F,2R,2L,2Bは、それぞれ撮像して得られた画像を画像処理装置1におけるセンサ情報取込部11に出力する。   As shown in FIG. 2, the front camera 2 </ b> F is attached to a front grill portion at the front center of the vehicle S, and images the front of the vehicle S. The right camera 2R is attached to the right door position of the vehicle S, the left camera 2L is attached to the left door of the vehicle S, and the rear camera 2B is attached to the rear trunk cover of the vehicle S. , And the rear are respectively imaged. The cameras 2F, 2R, 2L, and 2B are each composed of a wide-field camera such as a so-called fisheye camera, and can capture images of the imaging areas EF, ER, EL, and EB with the respective cameras 2F, 2R, 2L, and 2B. . The cameras 2F, 2R, 2L, and 2B output images obtained by capturing images to the sensor information capturing unit 11 in the image processing apparatus 1, respectively.

画像処理装置1におけるセンサ情報取込部11では、カメラ2から出力された画像を取り込み、俯瞰図作成部12に出力する。俯瞰図作成部12では、これらのカメラ2から出力された画像の各画素の輝度を検出し、空白の俯瞰図にマッピングすることにより、俯瞰図を作成する。   The sensor information capturing unit 11 in the image processing apparatus 1 captures an image output from the camera 2 and outputs it to the overhead view creation unit 12. The overhead view creation unit 12 detects the brightness of each pixel of the image output from these cameras 2 and maps it to a blank overhead view to create an overhead view.

俯瞰図作成部12は、作成した俯瞰図を画像一時保管部13および対応点候補抽出部14に出力する。画像一時保管部13は、俯瞰図作成部12から出力された俯瞰図(俯瞰画像)を一時的に記憶して保管するとともに、前回に保管した俯瞰画像を対応点候補抽出部14の読み出し要求に応じて出力する。対応点候補抽出部14は、画像一時保管部13に保管された俯瞰画像を俯瞰図作成部12から出力された際に、画像一時保管部13に保管された俯瞰画像を読み出す。ここで読み出す俯瞰画像は、俯瞰図作成部12から出力された俯瞰画像の1つ前に作成され一時保管された一時保管画像(以下「前俯瞰画像」という)である。対応点候補抽出部14は、俯瞰図作成部12から出力された俯瞰画像および画像一時保管部13から読み出した前俯瞰画像を比較して、対応点候補を抽出する。対応点候補抽出部14は、抽出した対応点候補を対応点選択部15に出力する。   The overhead view creation unit 12 outputs the created overhead view to the image temporary storage unit 13 and the corresponding point candidate extraction unit 14. The image temporary storage unit 13 temporarily stores and stores the bird's-eye view (overhead image) output from the bird's-eye view creation unit 12, and uses the previously stored bird's-eye view image as a read request of the corresponding point candidate extraction unit 14. Output in response. The corresponding point candidate extraction unit 14 reads the overhead image stored in the temporary image storage unit 13 when the overhead image stored in the temporary image storage unit 13 is output from the overhead map creation unit 12. The bird's-eye view image read out here is a temporary storage image created immediately before the bird's-eye view image output from the bird's-eye view creation unit 12 (hereinafter referred to as “front bird's-eye view image”). The corresponding point candidate extraction unit 14 compares the overhead image output from the overhead view creation unit 12 with the previous overhead image read from the image temporary storage unit 13 and extracts a corresponding point candidate. The corresponding point candidate extraction unit 14 outputs the extracted corresponding point candidates to the corresponding point selection unit 15.

対応点選択部15は、対応点候補抽出部14から出力された対応点候補の中から、画像の比較に用い易い対応点を選択する。対応点選択部15は、選択した対応点を含む俯瞰画像および前俯瞰画像を共通平面導出部16に出力する。共通平面導出部16は、対応点選択部15から出力された対応点候補、俯瞰画像および前俯瞰画像に基づいて共通平面を導出する。   The corresponding point selection unit 15 selects a corresponding point that can be easily used for image comparison from the corresponding point candidates output from the corresponding point candidate extraction unit 14. The corresponding point selection unit 15 outputs the overhead view image and the previous overhead view image including the selected corresponding point to the common plane deriving unit 16. The common plane deriving unit 16 derives a common plane based on the corresponding point candidates, the bird's-eye view image, and the previous bird's-eye view image output from the corresponding point selection unit 15.

ここで、選択された対応点を通る直線と相対水平面とのなす傾斜角度が許容傾斜角度以下であるとなる選択点が4点選択されていた際には、選択した対応点を含む共通平面、俯瞰画像、および前俯瞰画像を画像視点変換部17に出力する。また、選択された対応点を通る直線と相対水平面とのなす傾斜角度が許容傾斜角度を超える場合には、対応点選択部15に対して、選択点の選択をやり直させる。画像視点変換部17では、共通平面導出部16から出力された前俯瞰図の画像を視点変換して視点変換画像を生成し、俯瞰図の視点と同一視点となるようにする。画像視点変換部17は、俯瞰画像、視点変換画像、および各対応点を物体高さ判断部18に出力する。   Here, when four selection points at which the inclination angle between the straight line passing through the selected corresponding point and the relative horizontal plane is equal to or less than the allowable inclination angle are selected, the common plane including the selected corresponding point, The overhead view image and the previous overhead view image are output to the image viewpoint conversion unit 17. When the inclination angle formed by the straight line passing through the selected corresponding point and the relative horizontal plane exceeds the allowable inclination angle, the corresponding point selection unit 15 is made to select the selected point again. The image viewpoint conversion unit 17 generates a viewpoint conversion image by performing viewpoint conversion on the image of the previous overhead view output from the common plane deriving unit 16 so as to have the same viewpoint as the viewpoint of the overhead view. The image viewpoint conversion unit 17 outputs the overhead image, the viewpoint conversion image, and each corresponding point to the object height determination unit 18.

物体高さ判断部18では、画像視点変換部17から出力された俯瞰画像、視点変換画像、および各対応点に基づいて、車両の周囲における物体の高さを判断する。物体高さ判断部18は、物体の高さを判断したら、物体の高さに応じた彩色を施した俯瞰画像を生成し、情報出力部3に出力する。情報出力部3は、たとえば画像を表示するディスプレイからなり、物体高さ判断部18から出力された俯瞰画像を表示する。   The object height determination unit 18 determines the height of the object around the vehicle based on the overhead view image, the viewpoint conversion image, and the corresponding points output from the image viewpoint conversion unit 17. When the object height determination unit 18 determines the height of the object, the object height determination unit 18 generates a bird's-eye view image that is colored according to the height of the object, and outputs it to the information output unit 3. The information output unit 3 includes a display that displays an image, for example, and displays the overhead view image output from the object height determination unit 18.

次に、本実施形態に係る画像処理装置の処理手順について説明する。図3は、本実施形態に係る画像処理装置の処理手順を示すフローチャート、図4は、図3に続く処理手順を示すフローチャートである。   Next, a processing procedure of the image processing apparatus according to the present embodiment will be described. FIG. 3 is a flowchart showing a processing procedure of the image processing apparatus according to the present embodiment, and FIG. 4 is a flowchart showing a processing procedure following FIG.

図3に示すように、本実施形態に係る画像処理装置1においては、センサ情報取込部11において、カメラ2から出力された画像を取得する(S1)。次に、俯瞰図作成部12において、カメラ2で撮像された画像を視点変換して俯瞰画像を生成する(S2)。俯瞰画像を生成する際には、図5に示すように、カメラ2から出力された魚眼画像の視点を平面視する上方からの視点に視点変換し、下記の手順で俯瞰画像Itを作成する。   As shown in FIG. 3, in the image processing apparatus 1 according to the present embodiment, the sensor information capturing unit 11 acquires an image output from the camera 2 (S1). Next, the overhead view creation unit 12 converts the viewpoint of the image captured by the camera 2 to generate an overhead view image (S2). When generating the bird's-eye view image, as shown in FIG. 5, the viewpoint of the fisheye image output from the camera 2 is converted to the viewpoint from above which is viewed from above, and the overhead image It is created in the following procedure. .

まず、図5に示すカメラ(仮想カメラ)2αの仮想視点Oから、仮想スクリーン(本発明の基準平面となる水平面に相当する)Kまでの距離Zを下記(0)式によって求める。 First, a distance Z v from a virtual viewpoint O c of the camera (virtual camera) 2α shown in FIG. 5 to a virtual screen (corresponding to a horizontal plane serving as a reference plane of the present invention) K is obtained by the following equation (0).

=W/{2tan(Ω/2)} ・・・(0)
ここで、W:作成する俯瞰図の横幅(Pixel)
Ω:投影視野角度(deg)
Z v = W / {2 tan (Ω / 2)} (0)
Here, W: Width of the overhead view to be created (Pixel)
Ω: projection viewing angle (deg)

次に、仮想スクリーンの像点(X,Y,Z)から魚眼画像座標値(u,v)を算出する(S2)。そのため、まず下記(1)式〜(3)式によって、各座標を(Xse,Yse,Zse)を求め、これらの座標から、下記(4)式によって魚眼画像座標値(u,v)を算出する

Figure 2008097444

Figure 2008097444

ただし、 L:魚眼画像の半径
f():魚眼カメラ特性係数 Next, the image point of the virtual screen (X p, Y p, Z p) fisheye image coordinates from (u p, v p) to calculate the (S2). Therefore, first by the following (1) to (3), each coordinate (X se, Y se, Z se) the determined from these coordinates, the fish-eye image coordinate value by the following equation (4) (u p , V p )
Figure 2008097444

Figure 2008097444

Where L: radius of fisheye image f (): fisheye camera characteristic coefficient

それから、これらの座標を下記(5)式および(6)式によって、水平面を見る方向へアフィン変換する。

Figure 2008097444

ただし、 λ:カメラ向き横角度(deg)
ξ:カメラ向き縦角度(deg)
ω:カメラ向き回転角度(deg)
Figure 2008097444
Then, these coordinates are affine-transformed in the direction of viewing the horizontal plane by the following equations (5) and (6).
Figure 2008097444

Where λ: Camera-oriented lateral angle (deg)
ξ: Camera vertical angle (deg)
ω: Camera rotation angle (deg)
Figure 2008097444

これらの計算を各カメラから出力された画像における各画素について行い、俯瞰画像を生成する。   These calculations are performed for each pixel in the image output from each camera to generate an overhead image.

俯瞰図作成部12は、俯瞰画像を生成したら、生成した俯瞰画像を画像一時保管部13および対応点候補抽出部14に出力する。画像一時保管部13では、俯瞰図作成部12から出力された俯瞰画像Itを一時的に記録して保管する(S3)。また、対応点候補抽出部14は、俯瞰図作成部12から俯瞰画像Itが出力された際に、画像一時保管部13に一時的に保管されている前俯瞰画像It−1を読み出す(S4)。   When the overhead view creation unit 12 generates the overhead view image, the overhead view creation unit 12 outputs the generated overhead view image to the image temporary storage unit 13 and the corresponding point candidate extraction unit 14. The temporary image storage unit 13 temporarily records and stores the overhead image It output from the overhead view creation unit 12 (S3). Further, the corresponding point candidate extraction unit 14 reads the previous overhead image It-1 temporarily stored in the image temporary storage unit 13 when the overhead image It is output from the overhead view creation unit 12 (S4). .

それから、対応点候補抽出部14では、俯瞰図作成部12から出力された俯瞰画像Itおよび画像一時保管部13から読み出した前俯瞰画像It−1を比較し、探索範囲を設定する(S5)。探索範囲としては、相対水平面が必ず存在する領域、たとえば車両の近傍数メートルの探索可能範囲を予め設定しておき、俯瞰画像Itおよび前俯瞰画像It−1における探索可能範囲のうちの共通する共通領域を探索範囲として設定する。また、カメラ2による撮像をたとえば20msごとに行うことにより、車両Sが通常速度で走行する場合に、俯瞰画像Itおよび前俯瞰画像It−1が重複する範囲を異なる複数の位置から撮像した画像を取得することができる。この重複する範囲である共通領域を探索範囲として設定する。   Then, the corresponding point candidate extraction unit 14 compares the overhead image It output from the overhead map creation unit 12 with the previous overhead image It-1 read from the image temporary storage unit 13, and sets a search range (S5). As a search range, an area in which a relative horizontal plane always exists, for example, a searchable range of several meters in the vicinity of the vehicle is set in advance, and a common common among searchable ranges in the overhead view image It-1 and the previous overhead view image It-1. Set the region as the search range. In addition, by performing imaging by the camera 2 every 20 ms, for example, when the vehicle S travels at a normal speed, images obtained by imaging the range where the overhead image It and the previous overhead image It-1 overlap from different positions are obtained. Can be acquired. The common area that is the overlapping range is set as the search range.

続いて、探索範囲内において、対応点候補を抽出する(S6)。対応点候補の抽出では、たとえばハリスオペレータやラプラシアン・オブ・ガウシアンフィルタなどの特徴部抽出処理を利用して特徴点を抽出する。これらの抽出法により、ステップS5で設定した探索範囲内において抽出された特徴点に対して、俯瞰画像Itと前俯瞰画像It−1との間で対応点候補を抽出する。対応点候補を抽出する際には、特徴点の周辺の小領域(たとえば3×3画素、5×5画素、7×7画素)の間の相関値を求め、最高値となる相関値をもつ点がお互い同士の組だけを抽出し、抽出された2点を対応点候補とする。相関値の導出には、たとえば正規化相関によるテンプレートマッチングや差分総和などのパターン認識技術を用いることができる。あるいは、俯瞰画像の元となる画像を撮像した時刻tと、前俯瞰画像の元となる画像を撮像した時刻t−1との間隔Δtが微小であると仮定して、オプティカルフローを用いて対応点候補を抽出することもできる。   Subsequently, corresponding point candidates are extracted within the search range (S6). In extracting corresponding point candidates, for example, feature points are extracted using a feature extraction process such as a Harris operator or a Laplacian of Gaussian filter. By these extraction methods, corresponding point candidates are extracted between the overhead image It and the previous overhead image It-1 for the feature points extracted in the search range set in step S5. When extracting corresponding point candidates, a correlation value between small regions (for example, 3 × 3 pixels, 5 × 5 pixels, and 7 × 7 pixels) around the feature point is obtained, and the correlation value that is the highest value is obtained. Only a pair of points is extracted, and the extracted two points are set as corresponding point candidates. For the derivation of the correlation value, for example, a pattern recognition technique such as template matching based on normalized correlation or difference summation can be used. Alternatively, it is assumed that the interval Δt between the time t when the image that is the source of the bird's-eye view image is captured and the time t-1 when the image that is the source of the previous bird's-eye view is captured is small, and the optical flow is used. Point candidates can also be extracted.

対応点候補を抽出したら、対応点選択部15において、俯瞰画像It内から4点以上の多数の対応点候補を無作為に抽出する(S6)。対応点選択部15は、抽出した対応点の中から4つの対応点P1、P2、P3、P4を選択し(S7)、選択した対応点P1、P2、P3、P4を共通平面導出部16に出力する。なお、これらの対応点候補は、俯瞰画像Itではなく、前俯瞰画像It−1内から抽出する態様とすることもできる。   When the corresponding point candidates are extracted, the corresponding point selection unit 15 randomly extracts a large number of four or more corresponding point candidates from the overhead image It (S6). The corresponding point selection unit 15 selects four corresponding points P1, P2, P3, and P4 from the extracted corresponding points (S7), and the selected corresponding points P1, P2, P3, and P4 are used as the common plane deriving unit 16. Output. Note that these corresponding point candidates may be extracted from the front overhead image It-1 instead of the overhead image It.

共通平面導出部16では、出力された4つの対応点から共通平面を導出するが、対応点を撮像したカメラ2には、ある程度の検出誤差が見込まれる。この検出誤差が大きくなると、共通平面が相対水平面に対して大きく傾斜してしまい、周囲の物体を精度よく検出することが困難となることが想定される。そこで、ここでは、4点の対応点候補を正式に採用するか否かについての検討を行う。そのため、まず、出力された4つの対応点P1、P2、P3、P4について、2つの対応点を1組とした6組の対応点に対する相対距離しきい値Th12,Th13,Th14,Th23,Th24,Th34を、その対応点の位置とカメラ2の分解能から導出する(S8)。   The common plane deriving unit 16 derives a common plane from the output four corresponding points, but a certain amount of detection error is expected in the camera 2 that images the corresponding points. When this detection error increases, it is assumed that the common plane is greatly inclined with respect to the relative horizontal plane, and it is difficult to accurately detect surrounding objects. Therefore, here, whether or not four corresponding point candidates are formally adopted is examined. Therefore, first, with respect to the four corresponding points P1, P2, P3, and P4 that are output, relative distance threshold values Th12, Th13, Th14, Th23, Th24 with respect to six sets of corresponding points with two corresponding points as one set. Th34 is derived from the position of the corresponding point and the resolution of the camera 2 (S8).

相対距離しきい値の導出は次のようにして行う。ここで、対応点P1、P2についての相対距離しきい値Th12の導出について図6を参照して説明する。ここでの説明における各記号は、それぞれ以下の意味である。
:時刻tのカメラ位置から点P1までの水平距離
:時刻tのカメラ位置から点P2までの水平距離
r1:点P1における距離分解能
r2:点P2における距離分解能
:カメラの設置高さ
H1:第一傾斜平面
H2:第二傾斜平面
RL:相対水平面
α:点P1と点P2とで最大誤差を持ったときの第一傾斜平面H1の相対水平面RLに対する傾き
α:点P1と点P2とで最大誤差を持ったときの第二傾斜平面H2の相対水平面RLに対する傾き
B:時刻tと時刻t−1とでカメラが移動した距離
12:点P1と点P2との間の相対距離
The relative distance threshold is derived as follows. Here, the derivation of the relative distance threshold Th12 for the corresponding points P1 and P2 will be described with reference to FIG. Each symbol in the description here has the following meaning.
L 1 : Horizontal distance from the camera position at time t to point P 1 L 2 : Horizontal distance from the camera position at time t to point P 2 r 1: Distance resolution at point P 1 r 2: Distance resolution at point P 2 h c : Camera installation Height H1: First inclined plane H2: Second inclined plane RL: Relative horizontal plane α 1 : Inclination of first inclined plane H1 with respect to relative horizontal plane RL when there is a maximum error between point P1 and point P2 α 2 : Point The inclination of the second inclined plane H2 with respect to the relative horizontal plane RL when P1 and the point P2 have the maximum error B: Distance the camera has moved at time t and time t−1 d 12 : between the points P1 and P2 Relative distance between

図6に示すように、点P1における距離分解能r1は、下記(7)式で表すことができる。ここで、カメラ2が移動した距離は、車速×Δtで表すことができる。この分解能は、時刻tと時刻t−1とのカメラのステレオ視原理に基づいて求められる。
r1=(B+L )tanδθ/B−Ltanδθ ・・・(7)
ただし、δθ:カメラ視野/垂直画角
As shown in FIG. 6, the distance resolution r1 at the point P1 can be expressed by the following equation (7). Here, the distance traveled by the camera 2 can be represented by vehicle speed × Δt. This resolution is obtained based on the stereo vision principle of the camera at time t and time t-1.
r1 = (B 2 + L 1 2 ) tan δθ / B−L 1 tan δθ (7)
Where δθ: camera field of view / vertical angle of view

同様に、点p2における距離分解能r2は、下記(8)式で表すことができる。
r2=(B+L )tanδθ/B−Ltanδθ ・・・(8)
Similarly, the distance resolution r2 at the point p2 can be expressed by the following equation (8).
r2 = (B 2 + L 2 2 ) tan δθ / B−L 2 tan δθ (8)

また、点P1および点P2における高さ方向の分解能G,Gは、それぞれ下記(9)式および(10)式によって求めることができる。
=rsin(β) ・・・(9)
=rsin(β) ・・・(10)
ただし、β=tan−1(h/L)、β=tan−1(h/L
Further, the resolutions G 1 and G 2 in the height direction at the points P1 and P2 can be obtained by the following equations (9) and (10), respectively.
G 1 = r 1 sin (β 1 ) (9)
G 2 = r 2 sin (β 2 ) (10)
However, β 1 = tan −1 (h c / L 1 ), β 2 = tan −1 (h c / L 2 )

このとき、点P1と点P2とが最大誤差を持ったときに算出できる平面は、図6に示す第一傾斜平面H1と第二傾斜平面H2とがある。このうち、カメラ2に対して距離が近い点P1から遠ざかる方向に持った誤差に対応する第二傾斜平面H2の相対水平面RLに対する最大傾斜αの方が、第一傾斜平面H1の相対水平面RLに対する最大傾斜αよりも大きくなっている。 At this time, planes that can be calculated when the point P1 and the point P2 have the maximum error include a first inclined plane H1 and a second inclined plane H2 shown in FIG. Among them, towards the maximum inclination alpha 2 with respect to the relative horizontal RL of the second inclined plane H2, the distance to the camera 2 corresponds to the error that has in a direction away from the point P1 near the relative horizontal RL of the first inclined plane H1 It is larger than the maximum inclination alpha 1 for.

そこで、第二傾斜平面H2の相対水平面RLに対する最大傾斜αを導出すると、第二傾斜平面H2の相対水平面RLに対する最大傾斜αは、下記(11)式によって求めることができる。
tanα=(G+G)/(d12−rcos(β)−rcos(β)) ・・・(11)
Accordingly, when deriving the maximum inclination alpha 2 with respect to the relative horizontal RL of the second inclined plane H2, the maximum inclination alpha 2 with respect to the relative horizontal RL of the second inclined plane H2 may be calculated according to the following equation (11).
tan α 2 = (G 1 + G 2 ) / (d 12 −r 2 cos (β 2 ) −r 1 cos (β 1 )) (11)

ここで、傾斜平面に対しては、許容傾斜角度である傾斜しきい値αが予め設定されている。この傾斜しきい値αは、検出対象の高さ等によって適宜設定する。本実施形態における傾斜しきい値αの設定手順について、図7を参照して説明する。ここでは、検出対象の最低高さ位置にある物体として縁石ESを設定し、この縁石ESより高い位置にある物体を車両Sからの最大距離Laの位置で検出可能とする設定としている。   Here, an inclination threshold value α that is an allowable inclination angle is preset for the inclination plane. This inclination threshold value α is appropriately set depending on the height of the detection target. A procedure for setting the inclination threshold value α in the present embodiment will be described with reference to FIG. Here, the curb ES is set as the object at the lowest height position to be detected, and the object at a position higher than the curb ES is set to be detectable at the position of the maximum distance La from the vehicle S.

縁石ESの高さをHminとして、縁石ESの高さ以下とすることにより、縁石ESより高い位置にある物体を車両Sからの最大距離Laの位置で検出可能とできる。ここでは、さらに余裕を持たせて、縁石ESの高さHminの半分の高さHmin/2を基準として、傾斜しきい値αを設定すると、傾斜しきい値αは、(12)式で求めることができる。
α=tan−1(Hmin/2La) ・・・(12)
By setting the height of the curb ES to Hmin and not more than the height of the curb ES, an object located higher than the curb ES can be detected at the position of the maximum distance La from the vehicle S. Here, if the slope threshold value α is set with a margin, with the height Hmin / 2 that is half of the height Hmin of the curb ES being set as a reference, the slope threshold value α is obtained by the equation (12). be able to.
α = tan −1 (Hmin / 2La) (12)

上記(12)式によって傾斜しきい値αを設定できる。具体的な例として、車両Sからの最大距離Laを2(m)、縁石ESの高さをHmin=10(cm)とすると、傾斜しきい値α≒1.4(deg)となる。   The inclination threshold value α can be set by the above equation (12). As a specific example, assuming that the maximum distance La from the vehicle S is 2 (m) and the height of the curb ES is Hmin = 10 (cm), the inclination threshold value α≈1.4 (deg).

この傾斜しきい値αを用いて、第二傾斜平面H2の相対水平面RLに対する最大傾斜αが傾斜しきい値αより小さくなるか否かの判断として、下記(13)式によって点P1,P2に対応する相対距離しきい値Th12を求める。また、下記(14)式によって、点P1と点P2との間の相対距離d12を求める。
Th12=rcos(β)+rcos(β)+(G1+G2)/tanα ・・・(13)
12=L−L ・・・(14)
Using this gradient threshold alpha, a maximum inclination alpha 2 is whether smaller than the inclination threshold alpha determine the relative horizontal RL of the second inclined plane H2, point by the following equation (13) P1, P2 A relative distance threshold Th12 corresponding to is obtained. Further, by the following equation (14), determining the relative distance d 12 between the points P1 and P2.
Th12 = r 1 cos (β 1 ) + r 2 cos (β 2 ) + (G1 + G2) / tan α (13)
d 12 = L 2 −L 1 (14)

こうして、点P1と点P2についての相対距離しきい値Th12および相対距離d12を求めたら、相対距離d12が相対距離しきい値Th12よりも大きいか否かを判断する(S9)。 Thus, when asked the relative distance threshold Th12 and relative distance d 12 for points P1 and P2, the relative distance d 12 determines whether greater than the relative distance threshold Th12 (S9).

以後、同様の手順によって点P1と点P3、点P1と点P4、点P2と点P3、点P2と点P4、および点P3と点P4についても相対距離しきい値Th13、Th14、Th23、Th24、Th34、および相対距離d13、d14、d23、d24、d34を求める。それから、それぞれ対応する相対距離diが相対距離しきい値Thiよりも大きいか否かを判断する(S9)。 Thereafter, the relative distance threshold values Th13, Th14, Th23, Th24 are also applied to the points P1 and P3, the points P1 and P4, the points P2 and P3, the points P2 and P4, and the points P3 and P4 by the same procedure. , Th34, and obtains the relative distances d 13, d 14, d 23 , d 24, d 34. Then, it is determined whether or not the corresponding relative distance di is larger than the relative distance threshold Thi (S9).

その結果、すべての対応する2点について、相対距離diが相対距離しきい値Thiよりも大きいと判断された場合には、選択された4点P1、P2、P3、P4を正式な対応点として採用する(S10)。一方、相対距離diが相対距離しきい値Thi以下であると判断された場合には、ステップS7に戻って対応点選択部15において対応点候補から4点の対応点を選択し直し、ステップS10の条件を満たすまでステップS7〜ステップS9の工程を繰り返す。   As a result, if it is determined that the relative distance di is greater than the relative distance threshold value Thi for all the corresponding two points, the selected four points P1, P2, P3, and P4 are used as formal corresponding points. Adopt (S10). On the other hand, if it is determined that the relative distance di is equal to or less than the relative distance threshold Thi, the process returns to step S7, and the corresponding point selection unit 15 reselects four corresponding points from the corresponding point candidates. Steps S7 to S9 are repeated until this condition is satisfied.

他方、相対距離しきい値Th12を求めることなく、傾斜しきい値を直接用いることもできる。この場合には、第二傾斜平面H2の相対水平面RLに対する最大傾斜αが小さくなるように、α≧α、すなわちtanα≧tanα(α<π/2)の条件式を満たすか否かを判断する。そして、すべての対応する2点について、tanα≧tanα(α<π/2)の条件式を満たすと判断された場合には、選択された4点P1、P2、P3、P4を正式な対応点として採用する On the other hand, the inclination threshold value can be directly used without obtaining the relative distance threshold value Th12. In this case, whether or not the conditional expression of α ≧ α 2 , that is, tan α ≧ tan α 2 (α <π / 2) is satisfied so that the maximum inclination α 2 of the second inclined plane H2 with respect to the relative horizontal plane RL becomes small. Judging. When it is determined that all the corresponding two points satisfy the condition of tan α ≧ tan α 2 (α <π / 2), the selected four points P1, P2, P3, and P4 are officially corresponded. Adopt as a point

こうして、4点P1、P2、P3、P4を正式に採用したら、共通平面ホモフラフィ行列を導出する(S11)。共通平面ホモグラフィの導出は、下記の手順で行われる。まず、図8に示すように、ある任意の平面H上にある点P1〜P4のいずれかである点Pを第1カメラの視点C1および第2カメラの視点C2で見たときにそれぞれのカメラ座標がp1(u,v)、p2(u,v)であったとする。このとき、両座標の関係は、下記(15)式で表すことができる。また、共通平面のホモグラフィ行列を(16)式に示す。

Figure 2008097444

ここで、ホモグラフィ行列Hは3×3の行列であることから、平面H上に存在する点のそれぞれの画像への投影点の画像座標の組はすべて上記(16)式で表すことができる。言い換えると、平面上にある点は、その平面のホモグラフィ行列がわかっていれば、ステレオ画像の一方の画像点からもう一方の画像上の対応点の位置が決定できることになる。したがって、ホモグラフィ行列Hは、三次元空間内で同一平面上にある4点の画像上での対応がわかれば、直接に求めることができる。 When the four points P1, P2, P3, and P4 are formally adopted in this way, a common plane homofluffy matrix is derived (S11). The common plane homography is derived in the following procedure. First, as shown in FIG. 8, when a point P that is one of the points P1 to P4 on an arbitrary plane H is viewed from the viewpoint C1 of the first camera and the viewpoint C2 of the second camera, the respective cameras Assume that the coordinates are p1 (u 1 , v 1 ), p2 (u 2 , v 2 ). At this time, the relationship between the two coordinates can be expressed by the following equation (15). Further, the homography matrix of the common plane is shown in Equation (16).
Figure 2008097444

Here, since the homography matrix H is a 3 × 3 matrix, all sets of image coordinates of the projection points onto the respective images of the points existing on the plane H can be expressed by the above equation (16). . In other words, for a point on a plane, if the homography matrix of the plane is known, the position of the corresponding point on the other image can be determined from one image point of the stereo image. Therefore, the homography matrix H can be obtained directly if the correspondence on the four-point image on the same plane in the three-dimensional space is known.

いま、3次元空間内におけるある平面に存在するn個の点について、図9に示すように、2つの画像間で対応が与えられているとする。ここで、第1カメラで第1点P1および第2点P2を見た際の第1画像における1番目の点P11および2番目の点P12の座標をそれぞれp11(u11,v11)、p12(u12,v1i2)とする。また、第2カメラで第1点P1および第2点P2を見た際の第2画像における1番目の点P11および2番目の点P12の座標をそれぞれp11(u11,v11)、p12(u12,v112)とする。 Assume that correspondence between two images is given to n points existing on a certain plane in the three-dimensional space, as shown in FIG. Here, the coordinates of the first point P11 and the second point P12 in the first image when viewing the first point P1 and the second point P2 with the first camera are p11 (u 11 , v 11 ) and p12, respectively. (U 12 , v 1i2 ). Further, the coordinates of the first point P11 and the second point P12 in the second image when the first point P1 and the second point P2 are viewed with the second camera are p11 (u 11 , v 11 ), p12 ( u 12 , v 112 ).

これを一般化して第1カメラで撮像した第1画像におけるi番目の点の座標を(u1i,v1i)とし、第2カメラで撮像した第2画像におけるi番目の点の座標を(u2i,v2i)とする。さらに、この点についての上記(15)式の定数αをαとおくと、上記(15)式は下記(17)式のように表すことができる。

Figure 2008097444
By generalizing this, the coordinates of the i-th point in the first image captured by the first camera are (u 1i , v 1i ), and the coordinates of the i-th point in the second image captured by the second camera are (u 2i , v2i ). Further, if the constant α in the above equation (15) is α 1 for this point, the above equation (15) can be expressed as the following equation (17).
Figure 2008097444

この(17)式を変形すると、下記(18)式のようになる。

Figure 2008097444
When this equation (17) is modified, the following equation (18) is obtained.
Figure 2008097444

さらに、第1画像と第2画像との間でn個の対応が取れている場合には、上記(18)式は下記(19)式のように表すことができる。
BJ=0 ・・・(19)

Figure 2008097444
Further, when n correspondences are established between the first image and the second image, the above equation (18) can be expressed as the following equation (19).
BJ = 0 (19)
Figure 2008097444

ここで、上記(19)式における行列Jにおける任意の1つの要素を1とおいて、線形方程式の最小二乗法によって上記(19)式を解いていく。このとき、J=0という意味にない解を避けるために、|J|=1とした上で、その下でのmin|BJ|の最小化問題として捉えることにより、解は行列BBの最小固有値に対応する固有ベクトルとして与えられる。こうして共通平面ホモグラフィ行列を導出することができる。 Here, assuming that one arbitrary element in the matrix J in the above equation (19) is 1, the above equation (19) is solved by the least square method of a linear equation. At this time, in order to avoid solutions not in the sense of J = 0, | J | 2 = 1 and in terms of and, min under the | BJ | by capturing a second minimization problem, the solution matrix B T It is given as an eigenvector corresponding to the smallest eigenvalue of B. In this way, a common plane homography matrix can be derived.

共通平面ホモグラフィ行列を導出したら、画像視点変換部17において、導出した共通平面ホモグラフィ行列によって、前俯瞰画像It−1を変換し(S12)、変換俯瞰画像It′を作成する。ここで作成される変換俯瞰画像It′は、いわば時刻t−1における画像を変換して時刻tの画像を推測したものとなる。いま、図10(a)に前俯瞰画像It−1の模式図、(b)に俯瞰画像Itの模式図、(c)に変換俯瞰画像It′の模式図をそれぞれ示す。図10からわかるように、俯瞰画像Itと変換俯瞰画像It′とを比較すると、相対水平面RLの位置は一致している。これに対して、相対水平面RL以外の位置は一致せずにずれが生じており、たとえば物体Mの位置は俯瞰画像Itと変換俯瞰画像It′との間では、ずれている。   When the common plane homography matrix is derived, the image viewpoint conversion unit 17 converts the front overhead image It-1 using the derived common plane homography matrix (S12) to create a converted overhead image It '. The converted overhead image It ′ created here is an image obtained by converting the image at time t−1 and estimating the image at time t. Now, FIG. 10A is a schematic diagram of the front overhead image It-1, FIG. 10B is a schematic diagram of the overhead image It, and FIG. 10C is a schematic diagram of the converted overhead image It ′. As can be seen from FIG. 10, when the overhead image It and the converted overhead image It ′ are compared, the positions of the relative horizontal planes RL coincide. On the other hand, positions other than the relative horizontal plane RL do not coincide with each other, and a shift occurs. For example, the position of the object M is shifted between the overhead image It and the converted overhead image It ′.

また、適切な対応点を使わずに不適切なホモグラフィ行列を用いて前俯瞰画像を変換してしまった場合には、図11(a)に示す前俯瞰画像It−1、図11(b)に示す俯瞰画像Itに対して、前俯瞰画像It−1から変換俯瞰画像を作成すると、図11(c)に示すように、変換俯瞰画像It′では画像がぼやけてしまう。このような画像が変換俯瞰画像として得られた場合には、不適切なホモグラフィ行列による変換であるとしてたとえば対応点の選定をやり直す態様とすることができる。   Further, when the front overhead image is converted using an inappropriate homography matrix without using appropriate corresponding points, the front overhead image It-1 shown in FIG. 11A and FIG. If a converted overhead image is created from the previous overhead image It-1 with respect to the overhead image It shown in FIG. 11C, the image is blurred in the converted overhead image It ′ as shown in FIG. When such an image is obtained as a converted overhead image, for example, it is possible to re-select corresponding points by assuming that the conversion is based on an inappropriate homography matrix.

図10に示した俯瞰画像Itと変換俯瞰画像It′との関係に戻り、俯瞰画像Itと変換俯瞰画像It′の間におけるずれを検出するために、両俯瞰画像の局所領域がどのように変化しているのかを調べる。そのために、物体高さ判断部18において、俯瞰画像Itと変換俯瞰画像It′との間の局所移動ベクトルを導出する(S13)。   Returning to the relationship between the overhead image It and the converted overhead image It ′ shown in FIG. 10, how the local regions of both overhead images change in order to detect a shift between the overhead image It and the converted overhead image It ′. Find out what you are doing. For this purpose, the object height determination unit 18 derives a local movement vector between the overhead view image It and the converted overhead view image It ′ (S13).

局所移動ベクトルを導出するために、図12(a)に示すように、俯瞰画像Itと変換俯瞰画像It′とを重畳させた重畳画像を生成する。この図12(a)に示す重畳画像では、俯瞰画像Itの画像を破線で、変換俯瞰画像It′の画像を一点鎖線でそれぞれ示している。図12(a)に示す重畳画像において、まず変換俯瞰画像It′における局所領域Xt−1A,Xt−1Bを選択する。これらの局所領域は適宜選択することができるが、たとえば周囲の領域と大きく輝度が異なる領域を選択することができる。   In order to derive the local movement vector, as shown in FIG. 12A, a superimposed image is generated by superimposing the overhead image It and the converted overhead image It ′. In the superimposed image shown in FIG. 12A, the image of the overhead image It is indicated by a broken line, and the image of the converted overhead image It ′ is indicated by an alternate long and short dash line. In the superimposed image shown in FIG. 12A, first, local regions Xt-1A and Xt-1B in the converted overhead image It ′ are selected. These local areas can be selected as appropriate. For example, an area having a brightness greatly different from that of the surrounding area can be selected.

変換俯瞰画像It′における局所領域Xt−1A,Xt−1Bを選択したら、俯瞰画像Itにおけるこれらの局所領域Xt−1A,Xt−1Bに対応する対応局所領域XtA,XtBを導出する。対応局所領域XtA,XtBを導出する際には、たとえば正規化相関によるテンプレートマッチングや差分総和などのパターン認識技術を用いることができる。また、時刻tと時刻t1−との間隔Δtが微小であると仮定して、オプティカルフローを用いて対応局所領域XtA,XtBを導出することもできる。   When the local regions Xt-1A and Xt-1B in the converted overhead image It ′ are selected, corresponding local regions XtA and XtB corresponding to these local regions Xt-1A and Xt-1B in the overhead image It are derived. When deriving the corresponding local regions XtA and XtB, for example, a pattern recognition technique such as template matching by normalized correlation or sum of differences can be used. Further, it is possible to derive the corresponding local regions XtA and XtB using the optical flow, assuming that the interval Δt between the time t and the time t1− is very small.

こうして局所領域Xt−1A,Xt−1Bに対応する対応局所領域XtA,XtBを抽出したら、局所領域Xt−1A,Xt−1Bから対応局所領域XtA,XtBに対する移動ベクトルViA,ViBを局所移動ベクトルとしてそれぞれ求める。   When the corresponding local regions XtA and XtB corresponding to the local regions Xt-1A and Xt-1B are thus extracted, the movement vectors ViA and ViB for the corresponding local regions XtA and XtB are used as local movement vectors from the local regions Xt-1A and Xt-1B. Ask for each.

局所移動ベクトルを求めたら、物体高さ判断部18において、物体高さ判断を行う(S14)。物体高さ判断部18では、局所移動ベクトルの移動量に基づいて、相対水平面RLであるか、相対水平面RLより高い立体物であるか、あるいは相対水平面RLよりも低い溝や下り段差などであるかを判断する。具体的には、局所移動ベクトルの移動量の絶対値が所定のしきい値を超えるか否かを判定し、所定のしきい値を超えないと判定した場合には、相対水平面RLにあると判定する。   After obtaining the local movement vector, the object height determination unit 18 determines the object height (S14). The object height determination unit 18 is a relative horizontal plane RL, a three-dimensional object higher than the relative horizontal plane RL, or a groove or descending step lower than the relative horizontal plane RL based on the amount of movement of the local movement vector. Determine whether. Specifically, it is determined whether or not the absolute value of the movement amount of the local movement vector exceeds a predetermined threshold value. When it is determined that the absolute value of the local movement vector does not exceed the predetermined threshold value, it is in the relative horizontal plane RL. judge.

また、局所移動ベクトルの移動量が所定のしきい値を超えると判定した場合には、水平面に対する高低を判定し、局所領域Xt−1Aと対応局所領域XtAは水平面より低い位置にあると判定した場合には「側溝または下り段差」であると判定する。一方、局所領域Xt−1Aと対応局所領域XtAは水平面より低い位置にあると判定した場合には、「立体物」であると判定する。   Further, when it is determined that the amount of movement of the local movement vector exceeds a predetermined threshold value, the level relative to the horizontal plane is determined, and it is determined that the local region Xt-1A and the corresponding local region XtA are at a position lower than the horizontal plane. In this case, it is determined that it is a “side groove or descending step”. On the other hand, if it is determined that the local region Xt-1A and the corresponding local region XtA are at a position lower than the horizontal plane, it is determined to be a “three-dimensional object”.

こうして、局所位置の水平面に対する高さを判定したら、判定した高さ情報を俯瞰図に記録する(S15)。この高さ情報に基づいて、俯瞰図の高さ情報を完成させる。ここで完成された俯瞰図は、たとえば図13に示すようになる。この俯瞰図では、「相対水平面」「側溝・下り段差」「立体物」の領域に分けた色付表示を行っている。このような色付表示を行うことにより、「相対水平面」「側溝・下り段差」「立体物」について強調表示を行うことができる。   Thus, if the height with respect to the horizontal surface of a local position is determined, the determined height information will be recorded on an overhead view (S15). Based on the height information, the height information of the overhead view is completed. The overhead view completed here is as shown in FIG. 13, for example. In this overhead view, the colored display is divided into the areas of “relative horizontal plane”, “side groove / down step”, and “three-dimensional object”. By performing such colored display, it is possible to highlight the “relative horizontal plane”, “side groove / down step”, and “three-dimensional object”.

こうして俯瞰図を完成させたら、完成した俯瞰図を情報出力部3に出力し(S16)、ディスプレイなどで表示したり、他の装置に情報提供を行ったりする。   When the bird's-eye view is completed in this way, the completed bird's-eye view is output to the information output unit 3 (S16) and displayed on a display or the like, or information is provided to other devices.

このように、本実施形態に係る画像処理装置においては、共通平面を導出するにあたり、複数のカメラで撮像された画像から得られる画像について、1組の対応点を通る直線と相対水平面RLとがなす傾斜角度が、予め設定された共通平面に対する許容傾斜角度以下となるか否かを判定する。そして、1組の対応点を結んだ直線のすべてについて、相対水平面RLとの傾斜角度が許容傾斜角度以下となる判定された場合に、複数の対応点に基づいて共通平面を導出する。このように、1組の対応点を結んだ直線と相対水平面RLとのなす傾斜角度が許容傾斜角度以下となる場合に共通平面を導出することから、複数の画像に誤差が生じた場合であっても、相対水平面RLに対する共通平面の傾斜角度を小さくして、所定の範囲内に収めることができる。また、選択された2点間の距離と距離しきい値とを比較して相対水平面RLとの傾斜角度が許容傾斜角度以下となるか否かを判定しているので、その演算を簡素なものとすることができる。   As described above, in the image processing apparatus according to the present embodiment, when deriving a common plane, a straight line passing through a set of corresponding points and a relative horizontal plane RL are obtained for an image obtained from images captured by a plurality of cameras. It is determined whether or not the inclination angle formed is equal to or smaller than a preset allowable inclination angle with respect to the common plane. When it is determined that the inclination angle with respect to the relative horizontal plane RL is equal to or less than the allowable inclination angle for all the straight lines connecting a pair of corresponding points, a common plane is derived based on the plurality of corresponding points. As described above, the common plane is derived when the inclination angle formed by the straight line connecting the pair of corresponding points and the relative horizontal plane RL is equal to or smaller than the allowable inclination angle. However, the inclination angle of the common plane with respect to the relative horizontal plane RL can be reduced to fall within a predetermined range. In addition, since the distance between the two selected points and the distance threshold value are compared to determine whether the inclination angle with the relative horizontal plane RL is equal to or less than the allowable inclination angle, the calculation is simple. It can be.

以上、本発明の好適な実施形態について説明したが、本発明は上記実施形態に限定されるものではない。たとえば、上記実施形態では車両にカメラを搭載して車両の移動に伴って複数の画像を取得しているが、カメラを移動させる移動手段や撮像する撮像者などがカメラを移動させて複数の画像を取得する態様とすることができる。   The preferred embodiment of the present invention has been described above, but the present invention is not limited to the above embodiment. For example, in the above embodiment, a camera is mounted on a vehicle and a plurality of images are acquired as the vehicle moves. However, a moving unit that moves the camera, a photographer that captures an image, and the like move the camera to move the plurality of images. It can be set as the aspect which acquires.

また、上記実施形態では、2点を結んだ直線から相対距離しきい値を求め、2点の距離が相対距離しきい値と2点間の距離とを比較しているが、2点を結んだ直線の相対水平面に対する角度と、傾斜しきい値αとを比較し、2点を結んだ直線の相対水平面に対する角度が傾斜しきい値αを超える場合に、対応点を選択しなおす態様とすることもできる。   In the above embodiment, the relative distance threshold is obtained from the straight line connecting the two points, and the distance between the two points is compared with the relative distance threshold and the distance between the two points. The angle of the straight line relative to the relative horizontal plane is compared with the inclination threshold α, and when the angle of the straight line connecting the two points to the relative horizontal plane exceeds the inclination threshold α, the corresponding point is selected again. You can also.

本発明の実施形態に係る画像処理装置のブロック構成図である。1 is a block configuration diagram of an image processing apparatus according to an embodiment of the present invention. 車両におけるカメラの設置位置およびカメラからの撮像範囲を平面視する模式図である。It is a schematic diagram which planarly views the installation position of the camera in a vehicle and the imaging range from a camera. 本実施形態に係る画像処理装置の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the image processing apparatus which concerns on this embodiment. 図3に続く処理手順を示すフローチャートである。It is a flowchart which shows the process sequence following FIG. 仮想カメラの設定位置を説明する模式図である。It is a schematic diagram explaining the setting position of a virtual camera. 相対距離しきい値を算出する際に用いる位置関係を説明する説明図である。It is explanatory drawing explaining the positional relationship used when calculating a relative distance threshold value. 傾斜しきい値を設定する際に用いる位置関係を説明する説明図である。It is explanatory drawing explaining the positional relationship used when setting an inclination threshold value. 2つのカメラ位置から同一点を見た場合の状態を説明する模式図である。It is a schematic diagram explaining the state at the time of seeing the same point from two camera positions. 2つのカメラ位置から2つの同一点を見た場合の状態を説明する模式図である。It is a schematic diagram explaining the state at the time of seeing two identical points from two camera positions. (a)は、時刻t−1の前俯瞰画像It−1を示す図、(b)は時刻tの俯瞰画像Itを示す図、(c)は、前俯瞰画像It−1を変換した変換俯瞰画像It′を示す図である。(A) is the figure which shows the front bird's-eye view image It-1 of time t-1, (b) is the figure which shows the bird's-eye view image It of time t, (c) is the conversion bird's-eye view which converted front bird's-eye view image It-1. It is a figure which shows image It '. (a)は、時刻t−1の前俯瞰画像It−1を示す図、(b)は時刻tの俯瞰画像Itを示す図、(c)は前俯瞰画像It−1を変換に失敗した変換俯瞰画像It′を示す図である。(A) is the figure which shows the front bird's-eye view image It-1 of the time t-1, (b) is the figure which shows the bird's-eye view image It of the time t, (c) is the conversion which failed to convert the front bird's-eye view image It-1. It is a figure which shows the bird's-eye view image It '. (a)は、俯瞰画像Itと変換俯瞰画像It′を重畳させた重畳画像を示す図、(b)は、その重畳画像における局所移動ベクトルを説明する図である。(A) is a figure which shows the superimposed image which superimposed the overhead image It and the conversion overhead image It ', (b) is a figure explaining the local movement vector in the superimposed image. 画像内における領域の高さ関係を示す画面の図である。It is a figure of the screen which shows the height relationship of the area | region in an image.

符号の説明Explanation of symbols

1…画像処理装置、2(2R,2B,2L,2F)…カメラ、3…情報出力部、11…センサ情報取込部、12…俯瞰図作成部、13…画像一時保管部、14…対応点候補抽出部、15…対応点選択部、16…共通平面導出部、17…画像視点変換部、18…物体高さ判断部。   DESCRIPTION OF SYMBOLS 1 ... Image processing apparatus, 2 (2R, 2B, 2L, 2F) ... Camera, 3 ... Information output part, 11 ... Sensor information taking-in part, 12 ... Overhead view creation part, 13 ... Temporary image storage part, 14 ... Correspondence Point candidate extraction unit, 15 ... corresponding point selection unit, 16 ... common plane derivation unit, 17 ... image viewpoint conversion unit, 18 ... object height determination unit.

Claims (3)

少なくとも一部が共通する共通領域を異なる複数の位置から撮像した複数の画像を取得する画像取得手段と、
画像取得手段で取得された複数の画像間で対応する対応点を複数抽出する対応点抽出手段と、
対応点に検出誤差が見込まれる際、画像内における1組の対応点を通る直線と相対水平面とがなす傾斜角度が、共通平面に対する予め設定された許容傾斜角度以下となるか否かを判定する傾斜角度判定手段と、
複数の対応点から得られる複数の1組の対応点を通る複数の直線のすべてについて、相対水平面との傾斜角度が許容傾斜角度以下となる判定された場合に、複数の対応点に基づいて共通平面を導出する共通平面導出手段と、
を備えることを特徴とする画像処理装置。
Image acquisition means for acquiring a plurality of images captured from a plurality of different positions in a common area at least partially in common;
Corresponding point extracting means for extracting a plurality of corresponding points between a plurality of images acquired by the image acquiring means;
When a detection error is expected at the corresponding point, it is determined whether or not the inclination angle formed by the straight line passing through the pair of corresponding points in the image and the relative horizontal plane is equal to or smaller than a preset allowable inclination angle with respect to the common plane. An inclination angle determination means;
Commonly based on a plurality of corresponding points when it is determined that the inclination angle with the relative horizontal plane is less than or equal to the allowable inclination angle for all of the plurality of straight lines passing through a set of corresponding points obtained from the plurality of corresponding points. A common plane deriving means for deriving a plane;
An image processing apparatus comprising:
1組の対応点間の距離を求める対応点距離算出手段と、
傾斜角度判定手段における判定基準に基づき、1組の対応点についての対応点間の距離しきい値を算出する距離しきい値算出手段と、を備え、
傾斜角度判定手段は、1組の対応点間の距離と、対応点間の距離しきい値とを比較する請求項1に記載の画像処理装置。
A corresponding point distance calculating means for obtaining a distance between a pair of corresponding points;
Distance threshold value calculating means for calculating a distance threshold value between corresponding points for a set of corresponding points based on a determination criterion in the inclination angle determining means,
The image processing apparatus according to claim 1, wherein the inclination angle determination unit compares a distance between the pair of corresponding points with a distance threshold value between the corresponding points.
傾斜角度判定手段は、対応点において見込まれる検出誤差が最大検出誤差であるときの傾斜角度について判定する請求項1または請求項2に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the inclination angle determination unit determines an inclination angle when a detection error expected at the corresponding point is a maximum detection error.
JP2006280343A 2006-10-13 2006-10-13 Image processor Pending JP2008097444A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006280343A JP2008097444A (en) 2006-10-13 2006-10-13 Image processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006280343A JP2008097444A (en) 2006-10-13 2006-10-13 Image processor

Publications (1)

Publication Number Publication Date
JP2008097444A true JP2008097444A (en) 2008-04-24

Family

ID=39380207

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006280343A Pending JP2008097444A (en) 2006-10-13 2006-10-13 Image processor

Country Status (1)

Country Link
JP (1) JP2008097444A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012527787A (en) * 2009-05-21 2012-11-08 インテル・コーポレーション A method for high-speed 3D construction from images
CN108007386A (en) * 2016-11-02 2018-05-08 光宝电子(广州)有限公司 3-D scanning method and its device and system based on structure light

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012527787A (en) * 2009-05-21 2012-11-08 インテル・コーポレーション A method for high-speed 3D construction from images
CN108007386A (en) * 2016-11-02 2018-05-08 光宝电子(广州)有限公司 3-D scanning method and its device and system based on structure light
CN108007386B (en) * 2016-11-02 2021-04-20 光宝电子(广州)有限公司 Three-dimensional scanning method based on structured light and device and system thereof

Similar Documents

Publication Publication Date Title
US11170466B2 (en) Dense structure from motion
CN109034047B (en) Lane line detection method and device
JP4553072B1 (en) Image integration apparatus and image integration method
JP5870273B2 (en) Object detection apparatus, object detection method, and program
JP3868876B2 (en) Obstacle detection apparatus and method
US10909395B2 (en) Object detection apparatus
JP5404263B2 (en) Parallax calculation method and parallax calculation device
US20150356357A1 (en) A method of detecting structural parts of a scene
JP4521235B2 (en) Apparatus and method for extracting change of photographed image
WO2017138245A1 (en) Image processing device, object recognition device, device control system, and image processing method and program
JP4609603B2 (en) 3D information display device and 3D information display method
JP6617150B2 (en) Object detection method and object detection apparatus
JP2005217883A (en) Method for detecting flat road area and obstacle by using stereo image
JP6410231B2 (en) Alignment apparatus, alignment method, and computer program for alignment
JP4553071B1 (en) 3D information display device and 3D information display method
JP4935769B2 (en) Plane region estimation apparatus and program
JP4946896B2 (en) Distance measuring device and distance measuring method
JP2009282762A (en) Corresponding point retrieval device
JP2008097444A (en) Image processor
JP2008286648A (en) Distance measuring device, distance measuring system, and distance measuring method
CN113674361B (en) Vehicle-mounted all-round-looking calibration implementation method and system
JP6886136B2 (en) Alignment device, alignment method and computer program for alignment
JP3994954B2 (en) Object detection apparatus and object detection method
JP2009077022A (en) Driving support system and vehicle
JP5256508B2 (en) 3D information calculation apparatus and 3D information calculation method