JP4876676B2 - POSITION MEASURING DEVICE, METHOD, AND PROGRAM, AND MOVEMENT DETECTION DETECTING DEVICE, METHOD, AND PROGRAM - Google Patents
POSITION MEASURING DEVICE, METHOD, AND PROGRAM, AND MOVEMENT DETECTION DETECTING DEVICE, METHOD, AND PROGRAM Download PDFInfo
- Publication number
- JP4876676B2 JP4876676B2 JP2006095858A JP2006095858A JP4876676B2 JP 4876676 B2 JP4876676 B2 JP 4876676B2 JP 2006095858 A JP2006095858 A JP 2006095858A JP 2006095858 A JP2006095858 A JP 2006095858A JP 4876676 B2 JP4876676 B2 JP 4876676B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- vertical edge
- edge line
- generated
- vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Measurement Of Optical Distance (AREA)
- Image Processing (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
Description
本発明は、位置計測装置、方法及びプログラム、並びに移動量検出装置、方法及びプログラムに係り、特に、複数の画像から現在位置と対象物との相対的な位置を計測する位置計測装置、方法及びプログラム、並びに移動量検出装置、方法及びプログラムに関する。 The present invention relates to a position measurement apparatus, method and program, and a movement amount detection apparatus, method and program, and more particularly to a position measurement apparatus, method and method for measuring a relative position between a current position and an object from a plurality of images. The present invention relates to a program, a movement amount detection apparatus, a method, and a program.
車載用の測距装置として、単眼カメラを用いるものが提案されている。この技術は、本質的には3次元情報を2次元情報として平面内に投影した物体の位置関係から距離を算定する。したがって、距離を算定するための前提となる幾何学的なパラメータが変化すると、測距の値が大きく変化するという問題がある。特に、車載用の測距装置においては、車両の挙動変化によって幾何学パラメータが大きく変化するので影響が大きい。 As a vehicle-mounted distance measuring device, one using a monocular camera has been proposed. This technique essentially calculates the distance from the positional relationship of an object projected on a plane as 3D information as 2D information. Therefore, there is a problem in that the distance measurement value changes greatly when the geometric parameter which is a precondition for calculating the distance changes. In particular, in a vehicle-mounted distance measuring device, the geometric parameter greatly changes due to a change in the behavior of the vehicle, so that the influence is great.
そこで、車両の姿勢変化があっても距離を正確に計測することの出来る車載用測距装置が開示されている(特許文献1を参照。)。特許文献1の技術は、車両に搭載された単眼の撮像手段と、自車両の車速を検出する車速センサと、前記撮像手段によって得られた画像内で、道路近傍に固定された構造体を検出する構造体検出手段と、前記構造体の画像変化の状態と前記自車両の車速とに基づいて、前記撮像手段から前記構造体までの距離を推定する構造体距離推定手段と、画像上で走行路上に存在する物体と前記構造体との画像上の位置関係に基づいて前記撮像手段から前記物体までの距離を推定する物体距離推定手段と、を備えたものである。 Therefore, an in-vehicle distance measuring device that can accurately measure the distance even when the posture of the vehicle changes is disclosed (see Patent Document 1). The technique of Patent Literature 1 detects a monocular imaging unit mounted on a vehicle, a vehicle speed sensor for detecting the vehicle speed of the host vehicle, and a structure fixed near a road in an image obtained by the imaging unit. A structure detecting means for detecting the structure, a structure distance estimating means for estimating a distance from the imaging means to the structure based on a state of image change of the structure and a vehicle speed of the host vehicle, and running on the image Object distance estimating means for estimating a distance from the imaging means to the object based on a positional relationship on the image between an object present on the road and the structure.
また、特徴領域として点を用いたもの、点と直線を用いたもの、直線のみを用いたものも開示されている(非特許文献1、2、3を参照。)。
しかし、特許文献1では、路側構造物の高さの変化を求めるために、路側構造物の上端と下端の両方が見える必要がある。このため、路側構造物以外の物体(例えば歩行者や駐車車両など)により上端や下端が隠されている場合は計測できない問題がある。 However, in patent document 1, in order to obtain | require the change of the height of a roadside structure, it is necessary to see both the upper end and lower end of a roadside structure. For this reason, there exists a problem which cannot be measured when the upper end and the lower end are hidden by objects (for example, a pedestrian, a parked vehicle, etc.) other than a roadside structure.
また、非特許文献1及び2では、画像間で対応する特徴点を用いて計算を行っている。1枚の画像からは、直線よりも特徴点の方が検出される数が多く、対応付けのための計算コストがかかる問題がある。また、特徴点は対応付けに使用できる特徴点の周囲の輝度情報が、直線よりも少ない。このため、ノイズの影響を受けやすく、対応間違いが起きやすい。さらに、どの特徴点が路側構造物を表すものなのかが分からない問題もある。 In Non-Patent Documents 1 and 2, calculation is performed using feature points corresponding to each other between images. From one image, the number of feature points detected is larger than that of a straight line, and there is a problem that the calculation cost for matching is high. Also, the feature point has less luminance information around the feature point that can be used for matching than the straight line. For this reason, it is easy to receive the influence of a noise and a correspondence mistake occurs easily. Furthermore, there is a problem that it is not known which feature points represent roadside structures.
非特許文献3では、直線のみを用いているが、3次元運動を想定しているため、撮像した空間中に(1)2枚以上の平面が必要になり、(2)その平面から4本以上の直線を検出することが必要となる。このため、家屋などの壁の位置測定などにしか使用できない問題がある。 In Non-Patent Document 3, only a straight line is used, but since three-dimensional motion is assumed, (1) two or more planes are required in the imaged space, and (2) four from the plane. It is necessary to detect the above straight lines. For this reason, there exists a problem which can be used only for the position measurement of walls, such as a house.
本発明は、上述した課題を解決するために提案されたものであり、計算コストをかけることなく、正確に対象物との相対的な位置を計測する位置計測装置、方法及びプログラム、並びに移動量検出装置、方法及びプログラムを提供することを目的とする。 The present invention has been proposed in order to solve the above-described problem, and a position measuring device, method, and program for accurately measuring a relative position with respect to an object without incurring calculation costs, and a moving amount. An object of the present invention is to provide a detection device, a method, and a program.
本発明に係る位置計測装置は、車両前方を撮像して複数の画像を生成する単眼カメラからなる撮像手段と、前記撮像手段により生成された複数の画像のうち、3箇所の異なる位置で撮像された第1の画像、第2の画像、および第3の画像からそれぞれ縦エッジ線を検出する縦エッジ線検出手段と、前記縦エッジ線検出手段により検出された各々の画像の縦エッジ線の中から対応する縦エッジ線を決定する対応縦エッジ線決定手段と、前記対応縦エッジ線決定手段により決定された対応する縦エッジ線の画像上の水平位置と、前記第1の画像が生成された時から前記第2の画像が生成された時までに変化したヨー角度および車両の移動量と、前記第2の画像が生成された時から前記第3の画像が生成された時までに変化したヨー角度および車両の移動量とに基づいて、前記縦エッジ線が表す対象物までの相対的な位置情報を計測する位置計測手段と、を備えている。 The position measuring device according to the present invention is picked up at three different positions among an imaging unit composed of a monocular camera that captures the front of a vehicle and generates a plurality of images, and a plurality of images generated by the imaging unit. Vertical edge line detection means for detecting vertical edge lines from the first image, the second image, and the third image , respectively , and the vertical edge lines of the respective images detected by the vertical edge line detection means. The corresponding vertical edge line determining means for determining the corresponding vertical edge line from the above, the horizontal position on the image of the corresponding vertical edge line determined by the corresponding vertical edge line determining means, and the first image are generated The yaw angle and the amount of movement of the vehicle that have changed from the time of the generation of the second image to the time of the generation of the second image and the time of the generation of the second image to the time of the generation of the third image Yaw angle and vehicle Based on the moving amount, and a, a position measuring means for measuring the relative position information to the object the longitudinal edge line represents.
撮像手段は、車両前方を撮像して、それぞれ異なる場所で複数の画像を生成する。縦エッジ線検出手段は、3箇所の異なる位置で撮像された第1の画像、第2の画像、および第3の画像からそれぞれ縦エッジ線を検出する。ここで検出された各縦エッジ線は、画像間で全く異なる対象物の縦エッジ線であったり、同一対象物の縦エッジ線であったりする。そこで、対応縦エッジ線決定手段は、各々の画像の縦エッジ線の中から対応する縦エッジ線を決定する。位置計測手段は、決定された対応する縦エッジ線の画像上の水平位置と、第1の画像が生成された時から第2の画像が生成された時までに変化したヨー角度および車両の移動量と、第2の画像が生成された時から第3の画像が生成された時までに変化したヨー角度および車両の移動量とに基づいて、縦エッジ線が表す対象物までの相対的な位置情報を計測する。 The imaging means images the front of the vehicle and generates a plurality of images at different locations. The vertical edge line detection means detects vertical edge lines from the first image, the second image, and the third image captured at three different positions . Each vertical edge line detected here may be a vertical edge line of a completely different object between images or a vertical edge line of the same object. Therefore, the corresponding vertical edge line determination means determines a corresponding vertical edge line from among the vertical edge lines of each image. The position measuring means includes the determined horizontal position on the image of the corresponding vertical edge line, the yaw angle changed from the time when the first image is generated to the time when the second image is generated, and the movement of the vehicle. Relative to the object represented by the vertical edge line based on the amount, the yaw angle changed from the time when the second image is generated to the time when the third image is generated, and the amount of movement of the vehicle. Measure location information.
したがって、上記発明は、車両前方を撮像して複数の画像を生成し、複数の画像のうち、3箇所の異なる位置で撮像された第1の画像、第2の画像、および第3の画像からそれぞれ縦エッジ線を検出し、検出された各々の画像の縦エッジ線の中から対応する縦エッジ線を決定し、前記決定された対応する縦エッジ線の画像上の水平位置と、第1の画像が生成された時から第2の画像が生成された時までに変化したヨー角度および車両の移動量と、第2の画像が生成された時から第3の画像が生成された時までに変化したヨー角度および車両の移動量とに基づいて、前記縦エッジ線が表す対象物までの相対的な位置情報を計測することにより、計算コストをかけることなく、複数の画像から対象物の相対位置を正確に計測することができる。 Therefore, in the above invention, the front of the vehicle is imaged to generate a plurality of images , and the first image, the second image, and the third image captured at three different positions among the plurality of images. A vertical edge line is detected, a corresponding vertical edge line is determined from the detected vertical edge lines of each image, a horizontal position on the image of the determined corresponding vertical edge line, and a first The yaw angle and the amount of vehicle movement that have changed from the time when the image is generated to the time when the second image is generated, and the time from when the second image is generated to the time when the third image is generated By measuring the relative position information to the object represented by the vertical edge line based on the changed yaw angle and the amount of movement of the vehicle, the relative position of the object can be obtained from a plurality of images without incurring calculation costs. The position can be measured accurately.
なお、本発明は、位置計測方法及びプログラムにも適用可能である。 The present invention can also be applied to a position measurement method and program.
本発明は、対象物の相対位置を正確に検出することができる。 The present invention can accurately detect the relative position of an object.
以下、本発明の好ましい実施の形態について図面を参照しながら詳細に説明する。 Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings.
[第1の実施形態]
図1は、第1の実施形態に係る位置計測装置の構成を示しブロック図である。位置計測装置は、例えば車両に搭載され、この車両(以下「自車両」という。)と対象物との相対的な位置を計測する。
[First Embodiment]
FIG. 1 is a block diagram illustrating the configuration of the position measurement apparatus according to the first embodiment. The position measurement device is mounted on a vehicle, for example, and measures the relative position between the vehicle (hereinafter referred to as “own vehicle”) and the object.
位置計測装置は、車両前方を撮像するように設置された撮像部11と、撮像部11で生成された車両前方画像から縦エッジ線を検出する縦エッジ線検出部12と、複数の縦エッジ線の中から対応する縦エッジ線(以下「対応縦エッジ線」という。)を決定する対応縦エッジ線決定部13と、自車両と対象物との相対的な位置関係を計算する位置関係計算部16と、を備えている。
The position measurement device includes an
図2は、位置計測装置が搭載された車両の座標系(以下「車両座標系」という。)を示す図である。Z軸方向は車両の進行方向に対応し、X軸方向は車両の横方向(進行方向に直交する方向)に対応する。したがって、車両座標系において、静止物体の座標位置は、車両の移動に伴って変化する。 FIG. 2 is a diagram showing a coordinate system (hereinafter referred to as “vehicle coordinate system”) of a vehicle on which the position measuring device is mounted. The Z-axis direction corresponds to the traveling direction of the vehicle, and the X-axis direction corresponds to the lateral direction of the vehicle (a direction orthogonal to the traveling direction). Therefore, in the vehicle coordinate system, the coordinate position of the stationary object changes as the vehicle moves.
図3は、運動前の車両を基準にした車両座標系を示す図である。図4は、運動後の車両を基準にした車両座標系を示す図である。ここでは、基準ではない車両座標系のX軸及びZ軸に「’」が付されている。また、車両の移動量を表す車両運動変数は、並進移動量とヨー角とで表される。 FIG. 3 is a diagram illustrating a vehicle coordinate system based on a vehicle before exercise. FIG. 4 is a diagram illustrating a vehicle coordinate system based on a vehicle after exercise. Here, “′” is attached to the X axis and the Z axis of the vehicle coordinate system that is not the reference. A vehicle motion variable that represents the amount of movement of the vehicle is represented by a translational amount of movement and a yaw angle.
例えば図3の場合、運動前の車両は、並進移動量0、ヨー角0で表される。そして、運動後の車両は、並進移動量(+tz)、ヨー角(+θ)で表される。なお、ヨー角は鉛直軸周りの角度であり、反時計回り方向を正とする。図4の場合、運動後の車両は、並進移動量0、ヨー角0で表される。また、運動前の車両は、並進移動量(−tz)、ヨー角(−θ)で表される。 For example, in the case of FIG. 3, the vehicle before the exercise is represented by a translational movement amount 0 and a yaw angle 0. The vehicle after the exercise is represented by a translational movement amount (+ tz) and a yaw angle (+ θ). The yaw angle is an angle around the vertical axis, and the counterclockwise direction is positive. In the case of FIG. 4, the vehicle after exercise is represented by a translational movement amount 0 and a yaw angle 0. The vehicle before exercise is expressed by a translational movement amount (−tz) and a yaw angle (−θ).
以上のように構成された位置計測装置は、車両が移動するときに次のように処理を実行する。 The position measuring device configured as described above executes processing as follows when the vehicle moves.
撮像部11は、車両が移動すると、3箇所の異なる位置(視点1、視点2、視点3)で車両前方を撮像して、それぞれの位置において車両前方画像を生成する。本実施形態では、視点1は車両の運動前の位置とするが、視点1は移動中の所定の位置であってもよい。
When the vehicle moves, the
図5は、撮像部11により生成された車両前方画像と車両座標系との関係を示す図である。車両前方画像は、車両座標系のZ軸方向の画像である。なお、fは撮像部11のカメラ焦点距離を表し、Z=fの位置に投影面があるものとする。なお、車両前方画像には、路面と路側構造物が含まれている。
FIG. 5 is a diagram illustrating a relationship between the vehicle front image generated by the
縦エッジ線検出部12は、例えば縦方向に比べて横方向の輝度変化が大きいという縦エッジ線の特性を利用して、撮像部11で生成された視点1〜3における車両前方画像の路側構造物から縦エッジ線を検出する。縦エッジ線検出部12は、例えば、電柱であれば電柱の輪郭線、建造物であれば建造物の縦方向の輪郭線を検出する。これにより、視点1〜3の各車両前方画像から複数の縦エッジ線が検出される。
The vertical edge
次に、縦エッジ線検出部12は、図5に示すように、各縦エッジ線のX座標を表す水平位置uを検出する。なお、本実施形態では、水平位置uは、車両座標系のX座標としたが、所定の基準位置(例えば車両前方画像の左端又は右端)から縦エッジ線までの水平方向の距離としてもよい。また、水平位置uの検出は、対応縦エッジ線決定部13による対応する縦エッジ線が決定されてからでもよい。
Next, as shown in FIG. 5, the vertical edge
対応縦エッジ線決定部13は、縦エッジ線検出部12で検出された視点1〜3における各車両前方画像間で対応する縦エッジ線を決定する。具体的には、対応縦エッジ線決定部13は、車両前方画像間で対応する縦エッジ線とその周囲の点の輝度分布がほぼ一定である特性を利用して、対応する縦エッジ線を検出する。
The corresponding vertical edge
例えば、対応縦エッジ線決定部13は、視点1〜3の各車両前方画像に電柱がある場合、車両前方画像間で電柱の同一部位の縦エッジ線を決定する。つまり、車両前方画像間の同一部位の縦エッジ線を決定する。
For example, the corresponding vertical edge
図6は、(a)視点3、(b)視点2、(c)視点1における車両前方画像と対応付けられた縦エッジ線p1、p2を示す図である。縦エッジ線p1は、右路側の構造物の同一部位の縦エッジ線である。縦エッジ線p2は、左路側の構造物の同一部位の縦エッジ線である。piの添え字iは、対応付けができた縦エッジ線の識別番号を表す。また、以下では水平位置uをui、aで表す。添え字aは、視点1〜3の番号を表す。すなわち、ui、aは、視点aにおける識別番号iの縦エッジ線の水平位置を表す。 FIG. 6 is a diagram illustrating the vertical edge lines p 1 and p 2 associated with the vehicle front image at (a) viewpoint 3, (b) viewpoint 2, and (c) viewpoint 1. FIG. The vertical edge line p 1 is a vertical edge line of the same portion of the structure on the right road side. Vertical edge line p 2 is a vertical edge lines of the same part of the structure of the left roadside. The subscript i of pi represents the identification number of the vertical edge line that has been associated. In the following, the horizontal position u is represented by u i and a . The subscript a represents the numbers of the viewpoints 1 to 3. That is, u i and a represent the horizontal position of the vertical edge line of the identification number i at the viewpoint a.
位置関係計算部16は、対応縦エッジ線決定部13で決定された対応する縦エッジ線についての水平位置ui、a、焦点距離fに基づいて、視点3に対する縦エッジ線piの位置を計算する。
The positional
図7は、視点3での位置を基準とした車両座標系を示す図である。位置関係計算部16は、この車両座標系においてθ、tを計算し、これを用いて視点3に対する縦エッジ線pi(i=1又は2)の座標(Xi、Zi)を計算する。
FIG. 7 is a diagram illustrating a vehicle coordinate system based on the position at the viewpoint 3. The positional
ここで、θ、tは
θ1:視点1から視点2に移動したときのヨー角変化量
θ2:視点2から視点3に移動したときのヨー角変化量
tz1:視点1から視点2に移動したときの並進移動量
tz2:視点2から視点3に移動したときの並進移動量
である。また、視点aから縦エッジ線piまでの直線をli、aで表す。例えば直線l2、3は、視点3から縦エッジ線p2までの直線を表す。
Here, θ and t are θ 1 : Yaw angle change amount when moving from viewpoint 1 to viewpoint 2 θ 2 : Yaw angle change amount when moving from viewpoint 2 to viewpoint 3 t z1 : From viewpoint 1 to viewpoint 2 Translational movement amount when moving t z2 : Translational movement amount when moving from viewpoint 2 to viewpoint 3 . Also, it represents the straight line from the viewpoint a to the vertical edge line p i l i, in a. For example, the straight lines l 2 and 3 represent straight lines from the viewpoint 3 to the vertical edge line p 2 .
ここで、直線li、1、li、2、li、3は、それぞれ次の式(1)から式(3)で表される。 Here, the straight lines l i , 1, l i , 2, l i , 3 are represented by the following equations (1) to (3), respectively.
ただし、u’=u/f(u’i,a=ui,a/f)であり、fは焦点距離である。そして、位置関係計算部16は、例えば直線li、1と直線li、3の交点、直線li、2と直線li、3の交点を計算し、2つの交点は同じであることを利用して、2つの交点の誤差が最小となるときのθ1、θ2、tz1、tz2を計算する。以下、θ、tの導出について説明する。
However, u ′ = u / f (u ′ i, a = u i, a / f), and f is a focal length. The positional
(θ、tの導出)
tz1、tz2、θ1、θ2を未知のパラメータとする。視点1〜3から直線の式をベクトルで表す。まず、式(4)から式(7)のようにベクトルを定義する。
(Derivation of θ and t)
Let t z1 , t z2 , θ 1 , and θ 2 be unknown parameters. A straight line expression is expressed as a vector from the viewpoints 1 to 3. First, a vector is defined as shown in equations (4) to (7).
さらに、媒介変数rを導入すると、式(8)から式(10)が成り立つ。 Furthermore, when the parameter r is introduced, Expression (10) is established from Expression (8).
右肩の数値は、座標系の番号を表す。これらの式を視点3の座標系で表す。回転行列Rと並進ベクトルhを用いると、式(11)及び式(12)が成り立つ。 The number on the right shoulder represents the coordinate system number. These equations are expressed in the coordinate system of the viewpoint 3. When the rotation matrix R and the translation vector h are used, Expressions (11) and (12) are established.
ただし、式(13)から式(15)を満たす。 However, Expressions (13) to (15) are satisfied.
それぞれを成分表示すると、式(16)から式(18)となる。 When each component is displayed, the equations (16) to (18) are obtained.
x成分、z成分ごとに展開し、媒介変数rを消去してまとめると、上述した式(1)から式(3)が求められる。したがって、直線l1と直線l3の交点のx座標x13は式(19)となり、その交点のz座標z13は式(20)となる。 When the x component and the z component are expanded and the parametric variable r is deleted and summarized, the above equation (1) to equation (3) can be obtained. Therefore, the x coordinate x 13 of the intersection of the straight line l 1 and the straight line l 3 is expressed by equation (19), and the z coordinate z 13 of the intersection is expressed by equation (20).
また、直線l2と直線l3の交点のx座標x23は式(21)となり、その交点のz座標z23は式(22)となる。 Further, x coordinate x 23 at the intersection of the straight line l 2 and the straight line l 3 is the formula (21) and, z coordinate z 23 of the intersection will be equation (22).
そして直線の交点は等しいことを利用して、交点の誤差を定義する。誤差は、例えば式(23)から式(25)で定義される。 Then, using the fact that the intersection of the straight lines is equal, the error of the intersection is defined. The error is defined by, for example, Expression (23) to Expression (25).
そして、誤差が最小となるときのθ1、θ2、tz1、tz2を求めればよい。 Then, θ 1 , θ 2 , t z1 , and t z2 when the error is minimized may be obtained.
位置関係計算部16は、以上のようにしてθ1、θ2、tz1、tz2を計算した後、これらの値を式(18)、式(19)(又は(20)、式(21))に代入する。これにより、車両座標系における縦エッジの存在する座標が求められる。
The positional
以上のように、第1の実施形態に係る位置計測装置は、3箇所で撮影された車両前方画像から縦エッジ線を検出し、各々の車両前方画像で対応する縦エッジ線の水平位置を用いることによって、自車両に対する対象物の相対位置を複数の直線の交点から求めることができる。 As described above, the position measurement apparatus according to the first embodiment detects the vertical edge lines from the vehicle front images taken at three locations, and uses the horizontal positions of the corresponding vertical edge lines in the respective vehicle front images. Thus, the relative position of the object with respect to the host vehicle can be obtained from the intersection of a plurality of straight lines.
また、位置計測装置は、対象物の相対位置を求める際に、ヨーレイトセンサを用いることなく、複数の車両前方画像からヨー角を計算するので、ヨー角検出装置としても機能することができる。 Further, the position measuring device calculates a yaw angle from a plurality of vehicle front images without using a yaw rate sensor when determining the relative position of the object, and thus can function as a yaw angle detecting device.
なお、本実施形態では、4つの車両運動変数tz1、tz2、θ1、θ2を計算するために、2本以上の対応付けられた縦エッジ線が必要である。しかし、tz1=tz2、又はθ1=θ2の場合は、対応付けられた縦エッジ線は1本でよい。また、θ=0のときは、sinθ、cosθの計算が不要になるので、計算の高速化が可能になる。これらのことは、後述する第2及び第3の実施形態でも同様である。 In the present embodiment, two or more associated vertical edge lines are required to calculate the four vehicle motion variables t z1 , t z2 , θ 1 , and θ 2 . However, when t z1 = t z2 or θ 1 = θ 2 , the number of associated vertical edge lines is sufficient. Further, when θ = 0, it is not necessary to calculate sin θ and cos θ, so that the calculation speed can be increased. The same applies to the second and third embodiments described later.
[第2の実施形態]
つぎに、本発明の第2の実施形態について説明する。なお、第1の実施形態と同一の部位には同一の符号を付し、重複する説明は省略する。
[Second Embodiment]
Next, a second embodiment of the present invention will be described. In addition, the same code | symbol is attached | subjected to the site | part same as 1st Embodiment, and the overlapping description is abbreviate | omitted.
図8は、第2の実施形態に係る位置計測装置の構成を示すブロック図である。第2の実施形態に係る位置計測装置は、図1に示す構成に車速センサ14を追加したものである。
FIG. 8 is a block diagram illustrating a configuration of the position measurement apparatus according to the second embodiment. The position measuring device according to the second embodiment is obtained by adding a
車速センサ14は、車両に設けられた各々の車輪にそれぞれ設けられており、車輪の回転角速度に応じた信号を生成し、その信号を位置関係計算部16に供給する。
The
位置関係計算部16は、車速センサ14からの信号に基づいて車速を計算し、車速を時間積分することにより並進移動量tz1、tz2を計算する。そして、直線li、1と直線li、3の交点、直線li、2と直線li、3の交点を計算し、2つの交点は同じであることを利用して、2つの交点の誤差が最小となるときのθ1、θ2を計算する。
The positional
ここで、第1の実施形態では、tz1、tz2、θ1、θ2を計算するために、2つの縦エッジ線p1、p2が必要であった。しかし、第2の実施形態では、θ1、θ2だけを計算すればよいので、1つの縦エッジ線だけでよい。 Here, in the first embodiment, two vertical edge lines p 1 and p 2 are necessary to calculate t z1 , t z2 , θ 1 , and θ 2 . However, in the second embodiment, since only θ 1 and θ 2 need be calculated, only one vertical edge line is required.
以上のように、第2の実施形態に係る位置計測装置は、車速センサ14で検出された信号から車速を計算し、車速を用いて対象物の相対位置を計測するので、演算負荷を軽減して、高速に対象物の相対位置を計測できる。
As described above, the position measuring device according to the second embodiment calculates the vehicle speed from the signal detected by the
[第3の実施形態]
つぎに、本発明の第3の実施形態について説明する。なお、第2の実施形態と同一の部位には同一の符号を付し、重複する説明は省略する。
[Third Embodiment]
Next, a third embodiment of the present invention will be described. In addition, the same code | symbol is attached | subjected to the site | part same as 2nd Embodiment, and the overlapping description is abbreviate | omitted.
図9は、第3の実施形態に係る位置計測装置の構成を示すブロック図である。第3の実施形態に係る位置計測装置は、図8に示す構成に路側構造物検出部15を追加したものである。
FIG. 9 is a block diagram illustrating a configuration of a position measurement apparatus according to the third embodiment. The position measuring device according to the third embodiment is obtained by adding a roadside
路側構造物検出部15は、路側構造物の輝度パターンを表すテンプレートを記憶している。そして、路側構造物検出部15は、テンプレートの大きさを変えながら撮像部11で生成された車両前方画像を走査し、類似度を計算するパターンマッチング手法(例えばSVM、Viola&Jonesの手法)により、路側構造物の車両前方画像上での位置と大きさを検出する。
The roadside
縦エッジ線検出部12は、路側構造物検出部15で検出された車両前方画像上の路側構造物の部分のみ縦エッジ線の水平位置を検出する。検出する車両前方画像中の範囲を限定できるので、計算コストを抑制することができる。また、位置関係計算部16は、路側構造物から検出されたものではない縦エッジ線(例えば走行車両の縦エッジ線)を計算に使用することを避け、路側構造物から検出された縦エッジ線のみを用いて計算する。
The vertical edge
以上のように、第3の実施形態に係る位置計測装置は、路側構造物検出部15を用いることにより、縦エッジ線検出部12の効率化、位置関係計算部16で使用する縦エッジ線の適正化を図ることができる。
As described above, the position measurement apparatus according to the third embodiment uses the roadside
なお、車速センサ14は、路上の実際の絶対量を検出するために用いられているが、他の手段が路上の実際の絶対量を検出できれば、省略可能である。例えば、電柱の直径は約30cmであり、路側構造物検出部15が電柱を検出した場合、縦エッジ線検出部12によって検出される電柱の輪郭を表す2本の縦エッジ線の距離が30cmと決定される。このとき、位置関係計算部16は、車両前方画像中の電柱の直径30cmを尺度に用いて他の縦エッジ線の絶対量も決定することができる。
The
なお、本発明は、上述した実施の形態に限定されるものではなく、特許請求の範囲に記載された範囲内で設計上の変更をされたものにも適用可能であるのは勿論である。 Note that the present invention is not limited to the above-described embodiment, and it is needless to say that the present invention can also be applied to a design modified within the scope of the claims.
11 撮像部
12 縦エッジ線検出部
13 対応縦エッジ線決定部
14 車速センサ
15 路側構造物検出部
16 位置関係計算部
DESCRIPTION OF
Claims (7)
前記撮像手段により生成された複数の画像のうち、3箇所の異なる位置で撮像された第1の画像、第2の画像、および第3の画像からそれぞれ縦エッジ線を検出する縦エッジ線検出手段と、
前記縦エッジ線検出手段により検出された各々の画像の縦エッジ線の中から対応する縦エッジ線を決定する対応縦エッジ線決定手段と、
前記対応縦エッジ線決定手段により決定された対応する縦エッジ線の画像上の水平位置と、前記第1の画像が生成された時から前記第2の画像が生成された時までに変化したヨー角度および車両の移動量と、前記第2の画像が生成された時から前記第3の画像が生成された時までに変化したヨー角度および車両の移動量とに基づいて、前記縦エッジ線が表す対象物までの相対的な位置情報を計測する位置計測手段と、
を備えた位置計測装置。 Imaging means comprising a monocular camera that images the front of the vehicle and generates a plurality of images;
Vertical edge line detection means for detecting vertical edge lines from the first image, the second image, and the third image captured at three different positions among the plurality of images generated by the imaging means. When,
Corresponding vertical edge line determining means for determining a corresponding vertical edge line from among the vertical edge lines of each image detected by the vertical edge line detecting means;
The horizontal position on the image of the corresponding vertical edge line determined by the corresponding vertical edge line determination means , and the yaw changed from when the first image was generated to when the second image was generated. Based on the angle and the amount of movement of the vehicle, and the yaw angle and the amount of movement of the vehicle changed from when the second image is generated to when the third image is generated , the vertical edge line is Position measuring means for measuring relative position information to the object to be represented;
A position measuring device with
前記縦エッジ線検出手段は、前記対象物検出手段により検出された対象物から縦エッジ線を検出する
請求項1に記載の位置計測装置。 Further comprising object detection means for detecting the object based on an image generated by the imaging means and a pattern of the object prepared in advance.
The position measuring device according to claim 1 , wherein the vertical edge line detection unit detects a vertical edge line from the object detected by the object detection unit.
前記生成された複数の画像のうち、3箇所の異なる位置で撮像された第1の画像、第2の画像、および第3の画像からそれぞれ縦エッジ線を検出し、
前記検出された各々の画像の縦エッジ線の中から対応する縦エッジ線を決定し、
前記決定された対応する縦エッジ線の画像上の水平位置と、前記第1の画像が生成された時から前記第2の画像が生成された時までに変化したヨー角度および車両の移動量と、前記第2の画像が生成された時から前記第3の画像が生成された時までに変化したヨー角度および車両の移動量とに基づいて、前記縦エッジ線が表す対象物までの相対的な位置情報を計測する
位置計測方法。 Capture the front of the vehicle with a monocular camera to generate multiple images,
A vertical edge line is detected from each of the first image, the second image, and the third image captured at three different positions among the plurality of generated images,
Determining a corresponding vertical edge line from among the detected vertical edge lines of each image;
The determined horizontal position of the corresponding vertical edge line on the image, the yaw angle and the amount of vehicle movement that have changed from when the first image is generated to when the second image is generated; , Relative to the object represented by the vertical edge line based on the yaw angle and the amount of vehicle movement that have changed from when the second image is generated to when the third image is generated. Position measurement method that measures accurate position information.
単眼カメラにより車両前方を撮像して生成された複数の画像のうち、3箇所の異なる位置で撮像された第1の画像、第2の画像、および第3の画像からそれぞれ縦エッジ線を検出させ、
前記検出された各々の画像の縦エッジ線の中から対応する縦エッジ線を決定させ、
前記決定された対応する縦エッジ線の画像上の水平位置と、前記第1の画像が生成された時から前記第2の画像が生成された時までに変化したヨー角度および車両の移動量と、前記第2の画像が生成された時から前記第3の画像が生成された時までに変化したヨー角度および車両の移動量とに基づいて、前記縦エッジ線が表す対象物までの相対的な位置情報を計測させる
位置計測プログラム。 On the computer,
A vertical edge line is detected from each of a first image, a second image, and a third image captured at three different positions among a plurality of images generated by capturing the front of the vehicle with a monocular camera. ,
A corresponding vertical edge line is determined from the vertical edge lines of each detected image,
The determined horizontal position of the corresponding vertical edge line on the image, the yaw angle and the amount of vehicle movement that have changed from when the first image is generated to when the second image is generated; , Relative to the object represented by the vertical edge line based on the yaw angle and the amount of vehicle movement that have changed from when the second image is generated to when the third image is generated. Position measurement program that measures accurate position information.
前記撮像手段により生成された複数の画像のうち、3箇所の異なる位置で撮像された第1の画像、第2の画像、および第3の画像からそれぞれ縦エッジ線を検出する縦エッジ線検出手段と、
前記縦エッジ線検出手段により検出された各々の画像の縦エッジ線の中から対応する縦エッジ線を決定する対応縦エッジ線決定手段と、
前記対応縦エッジ線決定手段により決定された対応する縦エッジ線の画像上の水平位置と、前記第1の画像が生成された時から前記第2の画像が生成された時までに変化したヨー角度および車両の移動量と、前記第2の画像が生成された時から前記第3の画像が生成された時までに変化したヨー角度および車両の移動量とを検出する検出手段と、
を備えた移動量検出装置。 Imaging means comprising a monocular camera that images the front of the vehicle and generates a plurality of images;
Vertical edge line detection means for detecting vertical edge lines from the first image, the second image, and the third image captured at three different positions among the plurality of images generated by the imaging means. When,
Corresponding vertical edge line determining means for determining a corresponding vertical edge line from among the vertical edge lines of each image detected by the vertical edge line detecting means;
The horizontal position on the image of the corresponding vertical edge line determined by the corresponding vertical edge line determination means , and the yaw changed from when the first image was generated to when the second image was generated. Detecting means for detecting an angle and a moving amount of the vehicle, and a yaw angle and a moving amount of the vehicle that have changed from when the second image is generated to when the third image is generated ;
A movement amount detection device comprising:
前記生成された複数の画像のうち、3箇所の異なる位置で撮像された第1の画像、第2の画像、および第3の画像からそれぞれ縦エッジ線を検出し、
前記検出された各々の画像の縦エッジの中から対応する縦エッジ線を決定し、
前記決定された対応する縦エッジ線の画像上の水平位置と、前記第1の画像が生成された時から前記第2の画像が生成された時までに変化したヨー角度および車両の移動量と、前記第2の画像が生成された時から前記第3の画像が生成された時までに変化したヨー角度および車両の移動量とを検出する
移動量検出方法。 Capture the front of the vehicle with a monocular camera to generate multiple images,
A vertical edge line is detected from each of the first image, the second image, and the third image captured at three different positions among the plurality of generated images,
Determining a corresponding vertical edge line from among the detected vertical edges of each image;
The determined horizontal position of the corresponding vertical edge line on the image, the yaw angle and the amount of vehicle movement that have changed from when the first image is generated to when the second image is generated; A movement amount detection method for detecting a yaw angle and a movement amount of a vehicle that have changed between when the second image is generated and when the third image is generated .
単眼カメラにより車両前方を撮像して生成された複数の画像のうち、3箇所の異なる位置で撮像された第1の画像、第2の画像、および第3の画像からそれぞれ縦エッジ線を検出させ、
前記検出された各々の画像の縦エッジの中から対応する縦エッジ線を決定させ、
前記決定された対応する縦エッジ線の画像上の水平位置と、前記第1の画像が生成された時から前記第2の画像が生成された時までに変化したヨー角度および車両の移動量と、前記第2の画像が生成された時から前記第3の画像が生成された時までに変化したヨー角度および車両の移動量とを検出させる
移動量検出プログラム。 On the computer,
A vertical edge line is detected from each of a first image, a second image, and a third image captured at three different positions among a plurality of images generated by capturing the front of the vehicle with a monocular camera. ,
A corresponding vertical edge line is determined from the vertical edges of each detected image,
The determined horizontal position of the corresponding vertical edge line on the image, the yaw angle and the amount of vehicle movement that have changed from when the first image is generated to when the second image is generated; A moving amount detection program for detecting a yaw angle and a moving amount of a vehicle that have changed from when the second image is generated to when the third image is generated .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006095858A JP4876676B2 (en) | 2006-03-30 | 2006-03-30 | POSITION MEASURING DEVICE, METHOD, AND PROGRAM, AND MOVEMENT DETECTION DETECTING DEVICE, METHOD, AND PROGRAM |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006095858A JP4876676B2 (en) | 2006-03-30 | 2006-03-30 | POSITION MEASURING DEVICE, METHOD, AND PROGRAM, AND MOVEMENT DETECTION DETECTING DEVICE, METHOD, AND PROGRAM |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007271386A JP2007271386A (en) | 2007-10-18 |
JP4876676B2 true JP4876676B2 (en) | 2012-02-15 |
Family
ID=38674345
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006095858A Expired - Fee Related JP4876676B2 (en) | 2006-03-30 | 2006-03-30 | POSITION MEASURING DEVICE, METHOD, AND PROGRAM, AND MOVEMENT DETECTION DETECTING DEVICE, METHOD, AND PROGRAM |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4876676B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7323339B2 (en) * | 2019-05-31 | 2023-08-08 | フォルシアクラリオン・エレクトロニクス株式会社 | Vertical pole detection device and vertical pole detection method |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2842005B2 (en) * | 1992-02-03 | 1998-12-24 | 日産自動車株式会社 | Obstacle detection device for vehicles |
JP3269222B2 (en) * | 1993-11-08 | 2002-03-25 | 株式会社豊田中央研究所 | Distance measuring device |
JPH11353565A (en) * | 1998-06-09 | 1999-12-24 | Yazaki Corp | Method and device for alarm of collision for vehicle |
JP4205825B2 (en) * | 1999-11-04 | 2009-01-07 | 本田技研工業株式会社 | Object recognition device |
JP2003098424A (en) * | 2001-09-25 | 2003-04-03 | Fujitsu Ten Ltd | Range finder based on image processing |
JP3747863B2 (en) * | 2002-02-22 | 2006-02-22 | 日産自動車株式会社 | In-vehicle distance measuring device |
JP2005173995A (en) * | 2003-12-11 | 2005-06-30 | Nippon Telegr & Teleph Corp <Ntt> | Device and method for calculating depth, and program |
JP4376147B2 (en) * | 2004-07-28 | 2009-12-02 | ダイハツ工業株式会社 | Obstacle recognition method and obstacle recognition device |
-
2006
- 2006-03-30 JP JP2006095858A patent/JP4876676B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2007271386A (en) | 2007-10-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5804185B2 (en) | Moving object position / orientation estimation apparatus and moving object position / orientation estimation method | |
JP4814669B2 (en) | 3D coordinate acquisition device | |
JP3986360B2 (en) | Camera calibration device | |
JP5588812B2 (en) | Image processing apparatus and imaging apparatus using the same | |
JP2009041972A (en) | Image processing device and method therefor | |
JP6328327B2 (en) | Image processing apparatus and image processing method | |
US11783507B2 (en) | Camera calibration apparatus and operating method | |
EP3324359B1 (en) | Image processing device and image processing method | |
JP2017083245A (en) | Clearance limit determination device | |
JP6119225B2 (en) | Intersection road boundary detection device and program | |
US8941732B2 (en) | Three-dimensional measuring method | |
JP4694624B2 (en) | Image correction apparatus and method, and computer program | |
JP5652239B2 (en) | Motion estimation apparatus and program | |
JP6410231B2 (en) | Alignment apparatus, alignment method, and computer program for alignment | |
JP2010066595A (en) | Environment map generating device and environment map generating method | |
JP7145770B2 (en) | Inter-Vehicle Distance Measuring Device, Error Model Generating Device, Learning Model Generating Device, Methods and Programs Therefor | |
JP4935769B2 (en) | Plane region estimation apparatus and program | |
JP5981284B2 (en) | Object detection device and object detection method | |
JP4978938B2 (en) | Distance measuring apparatus and method, and computer program | |
JP2012159470A (en) | Vehicle image recognition device | |
JP6886136B2 (en) | Alignment device, alignment method and computer program for alignment | |
JP4876676B2 (en) | POSITION MEASURING DEVICE, METHOD, AND PROGRAM, AND MOVEMENT DETECTION DETECTING DEVICE, METHOD, AND PROGRAM | |
JP5330341B2 (en) | Ranging device using in-vehicle camera | |
JP2004038760A (en) | Traveling lane recognition device for vehicle | |
JP4622889B2 (en) | Image processing apparatus and image processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090212 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110329 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110527 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20111101 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20111114 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20141209 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20141209 Year of fee payment: 3 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313532 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20141209 Year of fee payment: 3 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |