JP2013002883A - Distance measuring device - Google Patents
Distance measuring device Download PDFInfo
- Publication number
- JP2013002883A JP2013002883A JP2011132593A JP2011132593A JP2013002883A JP 2013002883 A JP2013002883 A JP 2013002883A JP 2011132593 A JP2011132593 A JP 2011132593A JP 2011132593 A JP2011132593 A JP 2011132593A JP 2013002883 A JP2013002883 A JP 2013002883A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- reference angle
- camera
- value
- road surface
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Measurement Of Optical Distance (AREA)
Abstract
Description
本発明は車載カメラの撮像画像を用いて車両周辺に存在する対象物と自車両との間の距離を測定する測距装置に関する。 The present invention relates to a distance measuring device that measures a distance between an object existing around a vehicle and a host vehicle using a captured image of an in-vehicle camera.
車両の走行支援等を目的として、車両前部等に搭載される車載カメラによって車両周辺の撮像画像を取得し、その撮像画像を基に、車両周辺に存在する歩行者等の対象物と自車両との間の距離を測定する技術が従来より知られている。 For the purpose of driving support of the vehicle, a captured image around the vehicle is acquired by an in-vehicle camera mounted on the front part of the vehicle, and based on the captured image, an object such as a pedestrian existing around the vehicle and the own vehicle A technique for measuring the distance between the two is conventionally known.
例えば、車載カメラの光軸が、車両が走行している路面(車両存在路面)とほぼ平行である場合において、車両存在路面上の前方箇所に存在する対象物を車載カメラにより撮像した場合、その撮像画像での対象物の接地点の位置と画像中心との上下方向の偏差量と、車載カメラの焦点距離と、車載カメラの高さとから、対象物と自車両との間の距離を推定することができる。 For example, when the optical axis of the in-vehicle camera is substantially parallel to the road surface on which the vehicle is traveling (the vehicle existing road surface), when the object existing in the front location on the vehicle existing road surface is imaged by the in-vehicle camera, Estimate the distance between the target object and the host vehicle from the vertical deviation between the position of the grounding point of the target object and the center of the captured image, the focal length of the in-vehicle camera, and the height of the in-vehicle camera. be able to.
ただし、この場合、対象物が存在する路面(対象物が接地している路面)が車両存在路面に対して勾配を有するような場合には、その勾配に依存して、撮像画像中での対象物の接地点の位置が上下にずれることとなる。 However, in this case, if the road surface on which the object exists (the road surface on which the object touches) has a gradient with respect to the vehicle existing road surface, the object in the captured image depends on the gradient. The position of the grounding point of the object will shift up and down.
このため、撮像画像での対象物の接地点の位置と画像中心との上下方向の偏差量を利用して、対象物と自車両との間の距離を精度よく測定するためには、対象物が存在する路面の勾配に伴う影響を適切に補償する必要がある。 For this reason, in order to accurately measure the distance between the target object and the host vehicle using the vertical deviation between the position of the grounding point of the target object and the center of the image in the captured image, the target object Therefore, it is necessary to appropriately compensate for the influence caused by the road surface gradient.
一方、路面の勾配に関する情報を取得する技術としては、例えば特許文献1、2に見られる技術が知られている。 On the other hand, as a technique for acquiring information related to a road surface gradient, for example, techniques disclosed in Patent Documents 1 and 2 are known.
特許文献1に見られる技術は、車両に搭載した加速度センサの出力に基づいて路面の傾斜角度を推定するものである。また、特許文献2に見られる技術は、レーザ光を車両前方の路面に投光し、その反射光の受光強度の時間変化パターンに基づいて、車両前方の路面の勾配の有無や、その勾配が登り勾配であるか降り勾配であるかを判定するものである。 The technique found in Patent Document 1 estimates the inclination angle of a road surface based on the output of an acceleration sensor mounted on a vehicle. In addition, the technique shown in Patent Document 2 projects laser light onto a road surface in front of the vehicle, and based on the temporal change pattern of the received light intensity of the reflected light, the presence or absence of the road surface gradient in front of the vehicle, and the gradient thereof. It is judged whether it is an ascending slope or a descending slope.
しかるに、特許文献1に見られる技術では、自車両が存在する路面の傾斜角度が判るだけなので、車両周辺の対象物が存在する路面の勾配に関する情報を取得することはできない。 However, since the technique shown in Patent Document 1 only knows the inclination angle of the road surface on which the host vehicle is present, it cannot acquire information on the gradient of the road surface on which the object around the vehicle exists.
また、特許文献2に見られる技術では、車両前方の路面の勾配の有無や、その勾配が登り勾配であるか降り勾配であるかが判るだけであり、その勾配の度合いや、その勾配が撮像画像における対象物の接地点の位置にどのような影響を及ぼすかを把握することは困難である。 Further, in the technique shown in Patent Document 2, it is only possible to determine whether there is a road surface gradient ahead of the vehicle and whether the gradient is an ascending gradient or a descending gradient. It is difficult to grasp what influence the position of the ground contact point of the object has on the image.
従って、これらの特許文献1、2に見られる技術により得られる路面の勾配情報を、撮像画像に基づいて対象物と自車両との間の距離を測定する技術に適用することは困難である。 Therefore, it is difficult to apply road surface gradient information obtained by the techniques shown in Patent Documents 1 and 2 to a technique for measuring the distance between the object and the host vehicle based on the captured image.
本発明はかかる背景に鑑みてなされたものであり、対象物が存在する路面の勾配の影響を適切に補償しつつ、車載カメラによる撮像画像を用いて対象物と自車両との間の距離を精度よく測定することができる測距装置を提供することを目的とする。 The present invention has been made in view of such a background, and appropriately compensates for the influence of the gradient of the road surface on which the object is present, and uses the image captured by the in-vehicle camera to determine the distance between the object and the host vehicle. An object of the present invention is to provide a distance measuring device capable of measuring with high accuracy.
まず、本発明に関する基礎的な技術事項を説明しておく。 First, basic technical matters relating to the present invention will be described.
図1(a)に示すように、車載カメラ2を搭載した車両1が、平坦な路面51上を走行している状況を想定する。この状況では、車両1の前方の路面52上に、車両1(自車両1)からの距離Dを測定しようとする対象物53(図示例では歩行者)が存在している。 As shown in FIG. 1A, a situation is assumed in which a vehicle 1 equipped with an in-vehicle camera 2 is traveling on a flat road surface 51. In this situation, there is an object 53 (pedestrian in the illustrated example) on which the distance D from the vehicle 1 (the host vehicle 1) is to be measured on the road surface 52 in front of the vehicle 1.
この場合、対象物53が存在する路面52(対象物53が接地している路面52)は、車両1が存在する路面51(車両1が接地している路面51)と同じ平面上の路面(路面51と面一の路面)となっている。以降、路面51,52をそれぞれ自車両存在路面51、対象物存在路面52ということがある。 In this case, the road surface 52 on which the object 53 is present (the road surface 52 on which the object 53 is grounded) is the road surface on the same plane as the road surface 51 on which the vehicle 1 is present (the road surface 51 on which the vehicle 1 is grounded) ( Road surface 51 and the same road surface). Hereinafter, the road surfaces 51 and 52 may be referred to as the own vehicle existence road surface 51 and the target object existence road surface 52, respectively.
また、図1(b)は、図1(a)に示す状況において、車載カメラ2により撮像された撮像画像を概略的に示している。参照符号51a,52a,53aを付した部分が、それぞれ、自車両存在路面51、対象物存在路面52、対象物53の画像を示している。 Moreover, FIG.1 (b) has shown roughly the picked-up image imaged with the vehicle-mounted camera 2 in the condition shown to Fig.1 (a). The portions denoted by reference numerals 51a, 52a, and 53a indicate images of the own vehicle existence road surface 51, the object existence road surface 52, and the object 53, respectively.
図1(a)に示す状況において、図示の如く、車載カメラ2の光軸Lcが自車両存在路面51に対してなす角度をα、車載カメラ2から対象物53の接地点P53(対象物53と対象物存在路面52との接触点)に至る直線L1が車載カメラ2の光軸Lcに対してなす角度をγ、車載カメラ2の自車両存在路面51からの高さをHcとする。 In the situation shown in FIG. 1A, as shown in the figure, the angle formed by the optical axis Lc of the in-vehicle camera 2 with respect to the own vehicle existing road surface 51 is α, and the grounding point P53 of the object 53 from the in-vehicle camera 2 (the object 53). And an angle formed by the straight line L1 to the optical axis Lc of the in-vehicle camera 2 with respect to the optical axis Lc of the in-vehicle camera 2 and Hc from the own vehicle-existing road surface 51.
ここで、車載カメラ2の高さHc(以降、カメラ高Hcということがある)は、より詳しくは、車載カメラ2の光学中心Cの自車両存在路面51からの高さである。また、角度γに係わる上記直線L1は、より詳しくは、車載カメラ2の光学中心Cから対象物53の接地点P53に至る直線である。また、角度α,γは、より詳しくは、車載カメラ2の光軸Lcを含み、且つ、自車両存在路面51に対して垂直に立する平面の法線方向の軸周りでの角度である。その角度α,γは、図1(a)に示す状況では、車両1のピッチ方向での角度(すなわち車両1の車幅方向の軸周りの角度)に相当する。 Here, the height Hc of the in-vehicle camera 2 (hereinafter sometimes referred to as the camera height Hc) is more specifically the height of the optical center C of the in-vehicle camera 2 from the own vehicle existing road surface 51. More specifically, the straight line L1 related to the angle γ is a straight line from the optical center C of the in-vehicle camera 2 to the ground point P53 of the object 53. More specifically, the angles α and γ are angles around an axis in the normal direction of a plane that includes the optical axis Lc of the in-vehicle camera 2 and stands perpendicular to the vehicle-existing road surface 51. The angles α and γ correspond to the angle in the pitch direction of the vehicle 1 (that is, the angle around the axis of the vehicle 1 in the vehicle width direction) in the situation shown in FIG.
そして、角度αは、車載カメラ2の光軸Lcが、車載カメラ2の光学中心Cを通って自車両存在路面51に平行な平面に対して斜め下向きに延在する状況(図1(a)に示す状況)で正の角度とし、車載カメラ2の光軸Lcが当該平面に対して斜め上向きに延在する状況で負の角度とする。また、角度γは、上記直線L1が、車載カメラ2の光軸Lcに対して斜め下向きに延在する状況で正の角度とし、該直線L1が車載カメラ2の光軸Lcに対して斜め下向きに延在する状況で負の角度とする。 The angle α is a situation in which the optical axis Lc of the in-vehicle camera 2 extends obliquely downward with respect to a plane parallel to the own vehicle existing road surface 51 through the optical center C of the in-vehicle camera 2 (FIG. 1A). In the situation shown in FIG. 2) and a negative angle in a situation where the optical axis Lc of the in-vehicle camera 2 extends obliquely upward with respect to the plane. The angle γ is a positive angle when the straight line L1 extends obliquely downward with respect to the optical axis Lc of the in-vehicle camera 2, and the straight line L1 is obliquely downward with respect to the optical axis Lc of the in-vehicle camera 2. A negative angle is assumed in the situation extending to
なお、図1(a)では、α≠0[deg]となっているが、α=0[deg]であってもよい。 In FIG. 1A, α ≠ 0 [deg], but α = 0 [deg] may be used.
上記のように角度α,γを定義したとき、対象物53の自車両1からの距離D(自車両存在路面51に平行な方向での距離)と、角度α,γと、カメラ高Hcとの間には、次式(1)の関係が成立する。 When the angles α and γ are defined as described above, the distance D of the object 53 from the host vehicle 1 (the distance in the direction parallel to the host vehicle existing road surface 51), the angles α and γ, and the camera height Hc The relationship of following Formula (1) is materialized between.
D=Hc/tan(α+γ) ……(1)
次に、図2(a)に示すように、車両1の前方の対象物存在路面52が、自車両存在路面51に対して勾配を有する路面(傾斜した路面)となっている状況を想定する。この状況は、対象物存在路面52の勾配状態だけが、図1(a)に示した状況と相違するものである。
D = Hc / tan (α + γ) (1)
Next, as shown in FIG. 2A, a situation is assumed in which the object presence road surface 52 in front of the vehicle 1 is a road surface (inclined road surface) having a gradient with respect to the host vehicle presence road surface 51. . This situation is different from the situation shown in FIG. 1A only in the gradient state of the object existence road surface 52.
なお、図2(b)は、図2(a)に示す状況において、車載カメラ2により撮像された撮像画像を概略的に示している。そして、図1(b)の場合と同様に、参照符号51a,52a,53aを付した部分が、それぞれ、自車両存在路面51、対象物存在路面52、対象物53の画像を示している。 In addition, FIG.2 (b) has shown roughly the picked-up image imaged with the vehicle-mounted camera 2 in the condition shown to Fig.2 (a). Similarly to the case of FIG. 1B, the portions denoted by reference numerals 51 a, 52 a, and 53 a indicate images of the own vehicle existence road surface 51, the object existence road surface 52, and the object 53, respectively.
図2(a)に示す状況において、図中の角度α,γは、図1(a)の状況と同様に定義される角度である。加えて、この状況において、自車両存在路面51のうちの車載カメラ2の下方に位置する点(詳しくは、車載カメラ2の光学中心Cから自車両存在路面51に降ろした垂線が自車両存在路面51と交わる点)から対象物53の接地点P53に至る直線L2が自車両存在路面51に対してなす角度をβ(>0)とする。 In the situation shown in FIG. 2A, angles α and γ in the figure are angles defined in the same manner as in the situation shown in FIG. In addition, in this situation, a point located below the in-vehicle camera 2 in the own vehicle existence road surface 51 (specifically, a vertical line dropped from the optical center C of the in-vehicle camera 2 to the own vehicle existence road surface 51 is the own vehicle existence road surface. The angle formed by the straight line L2 extending from the intersection 51 to the ground contact point P53 of the object 53 with respect to the own vehicle existing road surface 51 is β (> 0).
なお、角度βは、角度α、γと同様に、車載カメラ2の光軸Lcを含み、且つ、自車両存在路面51に対して垂直に起立する平面の法線方向の軸周りでの角度(図1(b)に示す状況では、車両1のピッチ方向の角度)である。 Note that the angle β is similar to the angles α and γ and includes an optical axis Lc of the in-vehicle camera 2 and an angle around a normal axis of a plane that stands perpendicular to the vehicle-existing road surface 51 ( In the situation shown in FIG. 1B, the angle of the vehicle 1 in the pitch direction).
上記のように角度α,γに加えて、角度βを定義したとき、対象物53の自車両1からの距離Dと、角度α,γ,βと、カメラ高Hcとの間には、次式(2)の関係が成立する。 When the angle β is defined in addition to the angles α and γ as described above, the distance D from the host vehicle 1 to the object 53, the angles α, γ, β, and the camera height Hc are as follows. The relationship of Formula (2) is materialized.
D=Hc/(tan(α+γ)+tanβ) ……(2)
この場合、式(2)において、β=0とすれば、式(2)は前記式(1)に一致する。そして、図1(a)に示した状況は、図2(a)におけるβを“0”とした状況に相当する。
D = Hc / (tan (α + γ) + tanβ) (2)
In this case, in the equation (2), if β = 0, the equation (2) matches the equation (1). The situation shown in FIG. 1A corresponds to the situation where β in FIG. 2A is set to “0”.
従って、図1(a)及び図2(a)のいずれの状況であっても、車載カメラ2のカメラ高Hcの値と、角度α,γ,βの値([rad]の単位での値)とが判れば、それらの値から上記式(2)の右辺の演算によって、対象物53と自車両1との間の距離Dを特定できることとなる。 Accordingly, in any of the situations shown in FIGS. 1A and 2A, the value of the camera height Hc of the in-vehicle camera 2 and the values of the angles α, γ, and β (values in units of [rad]) ), The distance D between the object 53 and the host vehicle 1 can be specified by the calculation of the right side of the above equation (2) from these values.
ここで、カメラ高Hcは、車両1の車体に対する車載カメラ2の取付位置によって規定されるので、一般には、その値は、既知の値として事前に設定しておくことができる。 Here, since the camera height Hc is defined by the mounting position of the in-vehicle camera 2 with respect to the vehicle body of the vehicle 1, in general, the value can be set in advance as a known value.
また、角度γは、車載カメラ2の撮像画像を基に推定することができる。具体的には、図1(b)又は図2(b)に示すように、対象物53の接地点P53を撮像画像に投影してなる点である画像上対象物接地点P53aと、撮像画像の画像中心Pca(車載カメラ2の撮像面と光軸Lcとの交点)との間の上下方向の位置偏差をΔyとすると、次式(3)が成立する。なお、Fは車載カメラ2の焦点距離である。 Further, the angle γ can be estimated based on the captured image of the in-vehicle camera 2. Specifically, as shown in FIG. 1B or FIG. 2B, the on-image object grounding point P53a, which is a point formed by projecting the grounding point P53 of the object 53 onto the captured image, and the captured image. Assuming that the vertical position deviation between the image center Pca (the intersection of the imaging surface of the in-vehicle camera 2 and the optical axis Lc) is Δy, the following equation (3) is established. Note that F is a focal length of the in-vehicle camera 2.
tanγ=Δy/F ……(3)
従って、撮像画像において、画像上対象物接地点P53aと画像中心Pcaとの間の上下方向の位置偏差Δyを特定すれば、そのΔyの値と焦点距離Fの値(これは一般に既知の値としてあらかじめ設定できる)とから上記式(3)に基づいて角度γを推定できることとなる。
tanγ = Δy / F (3)
Accordingly, in the captured image, if the vertical position deviation Δy between the image object grounding point P53a and the image center Pca is specified, the value of Δy and the value of the focal length F (this is generally a known value). The angle γ can be estimated based on the above equation (3).
補足すると、対象物存在路面52上で、車両1からの距離が対象物53の接地点P53と同じになる任意の静止点(対象物存在路面52に対して固定された点)を車載カメラ2の撮像画像に投影してなる点は、例えば図1(b)又は図2(b)に示す如く、画像上対象物接地点P53aを通って撮像画像の横方向(水平方向)に延在するラインL53a上の点(例えば図中の点P1)となる。 Supplementally, on the object existence road surface 52, an in-vehicle camera 2 represents an arbitrary stationary point (a point fixed with respect to the object existence road surface 52) at which the distance from the vehicle 1 is the same as the ground contact point P53 of the object 53. For example, as shown in FIG. 1B or FIG. 2B, the point projected on the captured image extends in the horizontal direction (horizontal direction) of the captured image through the object grounding point P53a on the image. This is a point on the line L53a (for example, the point P1 in the figure).
この場合、この点(例えばP1)と、画像中心Pcaとの上下方向の間隔は、画像上対象物接地点P53aと画像中心Pcaとの上下方向の間隔Δyに一致する。従って、角度γは、上記静止点を撮像画像に投影してなる点(例えばP1)と画像中心Pcaとの間隔Δyから上記式(3)に基づいて推定することもできる。 In this case, the vertical distance between this point (for example, P1) and the image center Pca coincides with the vertical distance Δy between the image object grounding point P53a and the image center Pca. Therefore, the angle γ can also be estimated based on the equation (3) from the interval Δy between the point (for example, P1) obtained by projecting the stationary point on the captured image and the image center Pca.
また、角度αは、車両1の車体の姿勢(角度αの増減方向での姿勢)に応じて規定される。従って、車両1の車体の姿勢をジャイロセンサ等の適宜のセンサ等を用いて計測(適当なモデルを使用した推定でもよい)すれば、角度αの値を推定できることとなる。 The angle α is defined according to the posture of the vehicle body of the vehicle 1 (the posture in the increasing / decreasing direction of the angle α). Therefore, if the attitude of the vehicle body of the vehicle 1 is measured using an appropriate sensor such as a gyro sensor (may be estimated using an appropriate model), the value of the angle α can be estimated.
例えば、図1(a)又は図2(a)に示す状況では、車両1の車体のピッチ方向の傾斜角度(ピッチ角)を計測すれば、そのピッチ角の計測値と、車両1の車体に対する車載カメラ2の取付姿勢により定まる光軸Lcの向き(車体に対するピッチ方向での向き)とから、角度αを推定できることとなる。 For example, in the situation shown in FIG. 1A or 2A, if the inclination angle (pitch angle) of the vehicle body of the vehicle 1 is measured, the measured value of the pitch angle and the vehicle body of the vehicle 1 are measured. The angle α can be estimated from the direction of the optical axis Lc (direction in the pitch direction with respect to the vehicle body) determined by the mounting posture of the in-vehicle camera 2.
なお、車両1が、滑らかな路面51(自車両存在路面51)を定常走行しているような状況では、車両1の車体の姿勢は、一般に、車体の前後方向が自車両存在路面51とほぼ平行になるような姿勢に維持される。従って、このような状況では、車両1の車体の姿勢を計測せずとも、角度αの値を、既知の値として事前に設定できることとなる。例えば、車載カメラ2の光軸Lcの方向が車両1の車体の前後方向とほぼ同方向である場合には、角度αの値を近似的に“0”であると見なすことができる。 In the situation where the vehicle 1 is traveling on a smooth road surface 51 (the own vehicle existing road surface 51), the vehicle body of the vehicle 1 generally has a posture in the front-rear direction of the vehicle body substantially equal to the own vehicle existing road surface 51. The posture is kept parallel. Therefore, in such a situation, the value of the angle α can be set in advance as a known value without measuring the posture of the vehicle body of the vehicle 1. For example, when the direction of the optical axis Lc of the in-vehicle camera 2 is substantially the same as the front-rear direction of the vehicle body of the vehicle 1, the value of the angle α can be regarded as approximately “0”.
また、角度βは、車載カメラ2によって、互いに異なる時刻で撮像した2つの撮像画像を利用することで、以下に説明する如く推定することが可能である。 Further, the angle β can be estimated as described below by using two captured images captured at different times by the in-vehicle camera 2.
まず、図3(a)に示すように、互いに異なる時刻t1,t2において、車載カメラ2の前方に存在する平坦な路面S(平面)を撮像した場合を想定する。そして、路面S上の任意の1つの静止点Pを、時刻t1での撮像画像(以下、第1撮像画像という)に投影してなる点をP1、時刻t2での撮像画像(以下、第2撮像画像という)に投影してなる点をP2とする。 First, as shown in FIG. 3A, it is assumed that a flat road surface S (plane) existing in front of the in-vehicle camera 2 is imaged at different times t1 and t2. A point obtained by projecting an arbitrary stationary point P on the road surface S onto a captured image at time t1 (hereinafter referred to as a first captured image) is P1, and a captured image at time t2 (hereinafter referred to as a second image). A point that is projected on the captured image) is defined as P2.
この場合、第1撮像画像における投影点P1と、第2撮像画像における投影点P2とは、それぞれ各撮像画像における特徴点として抽出され、その点の各撮像画像での位置が特定されるものとする。 In this case, the projection point P1 in the first captured image and the projection point P2 in the second captured image are each extracted as a feature point in each captured image, and the position of each point in the captured image is specified. To do.
そして、第1撮像画像における投影点P1の位置を同次座標で表現してなる位置ベクトルを↑P1(≡[x1,y1,1]T)、第2撮像画像における投影点P2の位置を同次座標で表現してなる位置ベクトルを↑P2(≡[x2,y2,1]T)と表記する。 Then, a position vector representing the position of the projection point P1 in the first captured image in homogeneous coordinates is ↑ P1 (≡ [x1, y1,1] T ), and the position of the projection point P2 in the second captured image is the same. A position vector expressed in the next coordinate is represented by ↑ P2 (≡ [x2, y2,1] T ).
なお、x1,y1はそれぞれ第1撮像画像における投影点P1の横方向の座標位置、縦方向(上下方向)の座標位置である。同様に、x2,y2はそれぞれ第2撮像画像における投影点P2の横方向の座標位置、縦方向(上下方向)の座標位置である。また、添え字“T”は、転置を意味する。 Note that x1 and y1 are the coordinate position in the horizontal direction and the coordinate position in the vertical direction (vertical direction) of the projection point P1 in the first captured image, respectively. Similarly, x2 and y2 are the coordinate position in the horizontal direction and the coordinate position in the vertical direction (vertical direction) of the projection point P2 in the second captured image, respectively. The subscript “T” means transposition.
また、時刻t1と時刻t2との間の期間での車載カメラ2の位置の空間的な並進変位を表す並進移動ベクトルを↑t、時刻t1と時刻t2との間の期間での車載カメラ2の姿勢の空間的な回転変位を表す回転行列をRとする。これらの並進移動ベクトル↑t及び回転行列Rは、換言すれば、時刻t1と時刻t2との間の期間でのカメラ座標系の空間的な並進変位と回転変位とをそれぞれ表すものである。 Further, a translation vector representing the spatial translational displacement of the position of the in-vehicle camera 2 in the period between the time t1 and the time t2 is represented by ↑ t, and the in-vehicle camera 2 in the period between the time t1 and the time t2. Let R be a rotation matrix representing the spatial rotational displacement of the posture. In other words, the translation vector ↑ t and the rotation matrix R represent the spatial translational displacement and the rotational displacement of the camera coordinate system in the period between the time t1 and the time t2, respectively.
なお、回転行列Rは直交行列である。また、上記カメラ座標系は、該車載カメラ2に対して固定された座標系である。より具体的には、カメラ座標系は、例えば、車載カメラ2の光学中心Cを原点として、車載カメラ2の撮像画像の横方向をX軸方向、縦方向(上下方向)をY軸方向、光軸Lcの方向をZ軸方向とする3軸座標系である。 Note that the rotation matrix R is an orthogonal matrix. The camera coordinate system is a coordinate system fixed to the vehicle-mounted camera 2. More specifically, the camera coordinate system has, for example, the optical center C of the in-vehicle camera 2 as the origin, the horizontal direction of the captured image of the in-vehicle camera 2 in the X-axis direction, the vertical direction (vertical direction) in the Y-axis direction, and light. This is a three-axis coordinate system in which the direction of the axis Lc is the Z-axis direction.
さらに、図3(b)に示すように、路面Sの法線方向の単位ベクトル(以下、単に法線ベクトルという)を↑n、時刻t1,t2のいずれか一方の時刻、例えば時刻t1での車載カメラ2の光学中心Cと路面Sとの距離をdとする。これらの↑n,dは、それぞれ路面S(平面)の空間的な姿勢及び位置を規定する平面パラメータである。 Further, as shown in FIG. 3B, a unit vector in the normal direction of the road surface S (hereinafter simply referred to as a normal vector) is represented by ↑ n, one of the times t1 and t2, for example, at time t1. Let d be the distance between the optical center C of the in-vehicle camera 2 and the road surface S. These ↑ n and d are plane parameters that define the spatial posture and position of the road surface S (plane), respectively.
なお、路面Sは、通常、車幅方向とほぼ平行であるので、車載カメラ2の撮像画像の横方向(カメラ座標系のX軸方向)にほぼ平行である。このため、時刻t1における車載カメラ2の光軸Lcに対する路面Sの傾き角度を図3(b)に示す如くθとした場合、路面Sの法線ベクトル↑nは、時刻t1でのカメラ座標系における座標成分を用いて、↑n=[0,cosθ,sinθ]Tと表記される。 In addition, since the road surface S is generally substantially parallel to the vehicle width direction, the road surface S is substantially parallel to the lateral direction of the captured image of the in-vehicle camera 2 (X-axis direction of the camera coordinate system). Therefore, when the inclination angle of the road surface S with respect to the optical axis Lc of the in-vehicle camera 2 at time t1 is θ as shown in FIG. 3B, the normal vector ↑ n of the road surface S is the camera coordinate system at time t1. ↑ n = [0, cos θ, sin θ] T is expressed using the coordinate component at.
ここで、第1撮像画像の投影点P1の位置ベクトル↑P1と、第2撮像画像の投影点P2の位置ベクトル↑P2との間の関係は、平面射影変換によって対応付けられる。具体的には、第1撮像画像の投影点P1の位置ベクトル↑P1を第2撮像画像の投影点P2の位置ベクトル↑P2に変換するためのホモグラフィ行列(平面射影変換行列)をHとおくと、次式(4)に示す如く、↑P2は、H・↑P1に、ある比例定数kを乗じたベクトルとなる。 Here, the relationship between the position vector ↑ P1 of the projection point P1 of the first captured image and the position vector ↑ P2 of the projection point P2 of the second captured image is associated by plane projective transformation. Specifically, H is a homography matrix (planar projection transformation matrix) for converting the position vector ↑ P1 of the projection point P1 of the first captured image into the position vector ↑ P2 of the projection point P2 of the second captured image. Then, as shown in the following equation (4), ↑ P2 is a vector obtained by multiplying H ・ ↑ P1 by a certain proportionality constant k.
↑P2=k・H・↑P1 ……(4)
また、ホモグラフィ行列Hは、上記並進移動ベクトル↑t、回転行列R、路面Sの平面パラメータ↑n,dを用いて、次式(5)により与えられる。
↑ P2 = k ・ H ・ ↑ P1 (4)
The homography matrix H is given by the following equation (5) using the translation vector ↑ t, the rotation matrix R, and the plane parameters ↑ n, d of the road surface S.
H=RT−RT・↑t・(↑n/d)T ……(5)
従って、式(5)を式(4)に適用することで、次式(6)が得られる。
H = RT- RT , ↑ t, (↑ n / d) T (5)
Therefore, the following formula (6) is obtained by applying the formula (5) to the formula (4).
↑P2=k・(RT−RT・↑t・(↑n/d)T)・↑P1 ……(6)
この式(6)において、↑P1、↑P2、R、↑tが既知であれば、↑n/dの成分である(cosθ)/d又は(sinθ)/dの値を次のように求めることができる。
↑ P2 = k · (R T −R T · ↑ t · (↑ n / d) T ) · ↑ P1 (6)
In this equation (6), if ↑ P1, ↑ P2, R, and ↑ t are known, the value of (cosθ) / d or (sinθ) / d that is a component of ↑ n / d is obtained as follows. be able to.
すなわち、時刻t1でのカメラ座標系で見た並進移動ベクトル↑tが座標成分を用いて↑t=[t1,t2,t3]Tと表記されるものとする。また、回転行列Rの転置行列RTの成分表示は、次式(7)により与えられるものとする。 That is, the translation vector ↑ t seen in the camera coordinate system at time t1 is expressed as ↑ t = [t1, t2, t3] T using coordinate components. The component display of the transposed matrix RT of the rotation matrix R is given by the following equation (7).
一方、a≡(cosθ)/d、b≡(sinθ)/dであるから、次式(10c)が成立する。 On the other hand, since a≡ (cos θ) / d and b≡ (sin θ) / d, the following equation (10c) is established.
a2+b2=1/d2 ……(10c)
従って、式(10a)〜(10c)を連立方程式として用いることで、a,bの値を算出することができる。例えば、式(10a),(10b)の両辺をそれぞれ加え合わせた式と、式(10c)とを用いてbを消去すると、次式(11)が得られる。
a 2 + b 2 = 1 / d 2 (10c)
Therefore, the values of a and b can be calculated by using the equations (10a) to (10c) as simultaneous equations. For example, when b is deleted using the formula obtained by adding both sides of the formulas (10a) and (10b) and the formula (10c), the following formula (11) is obtained.
なお、式(10a)〜(10c)からaを消去して、上記と同様に、bの値を決定するようにすることもできることはもちろんである。また、a,bの一方の値から、式(10a)又は(10b)により他方の値を決定することもできる。 Of course, a can be deleted from the equations (10a) to (10c) and the value of b can be determined in the same manner as described above. Moreover, the other value can also be determined from one value of a and b by the formula (10a) or (10b).
このように↑P1、↑P2、R、↑tが既知であれば、前記式(10a)〜(10c)に基づいて、変数a又はbの値を算出することができることとなる。そして、a≡(cosθ)/d、b≡(sinθ)/dであるから、上記のように変数a又はbの値を算出すれば、dの値を用いて次式(12a)又は(12b)により、車載カメラ2の光軸Lcに対する路面Sの傾斜角度θを求めることができることとなる。 Thus, if ↑ P1, ↑ P2, R, and ↑ t are known, the value of the variable a or b can be calculated based on the equations (10a) to (10c). Since a≡ (cos θ) / d and b≡ (sin θ) / d, if the value of the variable a or b is calculated as described above, the following equation (12a) or (12b ), The inclination angle θ of the road surface S with respect to the optical axis Lc of the in-vehicle camera 2 can be obtained.
θ=cos-1(a・d) ……(12a)
θ=sin-1(b・d) ……(12b)
次に、時刻t1で車載カメラ2により撮像された第1撮像画像が、前記した図2(a)の状況において撮像された画像であるとし、第2撮像画像の撮像時刻t2が、時刻t1の直後、又は直前の時刻であるとする。なお、時刻t1,t2の時間差は、その時間間隔内での対象物53と自車両1との間の距離の変化が十分に微小なものとなるような短い時間差であるとする。
θ = cos −1 (a · d) (12a)
θ = sin −1 (b · d) (12b)
Next, it is assumed that the first captured image captured by the vehicle-mounted camera 2 at time t1 is an image captured in the situation of FIG. 2A described above, and the imaging time t2 of the second captured image is the time t1. It is assumed that it is immediately after or immediately before. It is assumed that the time difference between the times t1 and t2 is a short time difference that makes the change in the distance between the object 53 and the vehicle 1 within the time interval sufficiently small.
そして、時刻t1、t2において、それぞれ第1撮像画像、第2撮像画像に投影される前記静止点Pは、時刻t1における自車両1からの距離が対象物53の接地点P53と同一又はほぼ同一となるような前記対象物存在路面52上の静止点であるとする。なお、該静止点Pは、時刻t1での対象物53の接地点P53と一致する静止点であってもよい。 The stationary point P projected onto the first captured image and the second captured image at times t1 and t2, respectively, is the same as or substantially the same as the ground point P53 of the object 53 at the distance from the host vehicle 1 at the time t1. It is assumed that the object is a stationary point on the road surface 52. The stationary point P may be a stationary point that coincides with the grounding point P53 of the object 53 at time t1.
さらに、図2(a)に示した状況で、車載カメラ2の光軸Lcを含んで自車両存在路面51に対して垂直に起立する平面の法線方向(図2(a)の状況では車両1の車幅方向(紙面に垂直な方向))に平行で、且つ、直線L2を含むような仮想的な平面を、対象物53が存在する仮想的な路面として想定し、以降、これを対象物存在仮想路面Saという。そして、この対象物存在仮想路面Saの法線ベクトルと、時刻t1での車載カメラ2の光学中心Cから対象物存在仮想路面Saまでの距離とをそれぞれ改めて↑n、dとおく。 Further, in the situation shown in FIG. 2 (a), the normal direction of the plane that stands up perpendicularly to the own vehicle existing road surface 51 including the optical axis Lc of the in-vehicle camera 2 (the vehicle in the situation of FIG. 2 (a)). 1 is assumed to be a virtual road surface parallel to the vehicle width direction (direction perpendicular to the paper surface) and including the straight line L2 as a virtual road surface on which the object 53 exists. This is referred to as an object existence virtual road surface Sa. Then, the normal vector of the object existence virtual road surface Sa and the distance from the optical center C of the in-vehicle camera 2 to the object existence virtual road surface Sa at time t1 are newly set as ↑ n and d, respectively.
このとき、上記対象物存在仮想路面Saの平面パラメータ↑n、dを前記式(6)の右辺に適用した場合、第1撮像画像の投影点P1の位置ベクトル↑P1と、第2撮像画像の投影点P2の位置ベクトル↑P2との間には、式(6)により表される関係が近似的に成立すると考えられる。 At this time, when the plane parameters ↑ n and d of the object existence virtual road surface Sa are applied to the right side of the equation (6), the position vector ↑ P1 of the projection point P1 of the first captured image and the second captured image It is considered that the relationship represented by the equation (6) is approximately established with the position vector ↑ P2 of the projection point P2.
従って、時刻t1と時刻t2との間の期間での車載カメラ2の位置及び姿勢の変化をそれぞれ表す移動並進ベクトル↑t及び回転行列Rと、時刻t1において自車両1からの距離が対象物53の接地点P53と同一となるような対象物存在路面52上の静止点Pを第1及び第2撮像画像にそれぞれ投影してなる投影点P1,P2の位置ベクトル↑P1,↑P2とを用いて、前記した如く変数a(≡(cosθ)/d)又はb(≡(sinθ)/d)値を算出した場合、その変数a又はbの値は、近似的に、対象物存在仮想路面Saに対応する↑n/dの成分の値に相当するものとなる。 Accordingly, the translation vector ↑ t and the rotation matrix R representing the change in the position and orientation of the in-vehicle camera 2 in the period between the time t1 and the time t2, respectively, and the distance from the host vehicle 1 at the time t1 are the object 53. Position vectors ↑ P1 and ↑ P2 of projection points P1 and P2 obtained by projecting a stationary point P on the object presence road surface 52 that is the same as the ground contact point P53 to the first and second captured images, respectively. When the variable a (≡ (cos θ) / d) or b (≡ (sin θ) / d) is calculated as described above, the value of the variable a or b is approximately the object existing virtual road surface Sa. It corresponds to the value of the component of ↑ n / d corresponding to.
また、上記対象物存在仮想路面Saと、時刻t1での車載カメラ2の光学中心Cとの距離dは、近似的にカメラ高Hcに一致するものと考えられる。 The distance d between the object existence virtual road surface Sa and the optical center C of the in-vehicle camera 2 at time t1 is considered to approximately match the camera height Hc.
従って、dの値として、カメラ高Hcを使用することで、そのdの値(=Hc)と、変数a又はbの値とから前記式(12a)又は式(12b)により、時刻t1での車載カメラ2の光軸Lcに対する対象物存在仮想路面Saの傾斜角度θ(換言すれば、図2(a)の直線L2の光軸Lcに対する傾斜角度)を推定することができることとなる。 Therefore, by using the camera height Hc as the value of d, from the value of d (= Hc) and the value of the variable a or b, the above equation (12a) or equation (12b) is used. The inclination angle θ of the object existence virtual road surface Sa with respect to the optical axis Lc of the in-vehicle camera 2 (in other words, the inclination angle of the straight line L2 with respect to the optical axis Lc in FIG. 2A) can be estimated.
一方、図2(a)を参照して判るように、車載カメラ2の光軸Lcに対する対象物存在仮想路面Saの傾斜角度θは、θ=α+βとなる。従って、対象物53の自車両1からの距離Dを前記式(2)に基づき測定するために必要となる前記角度βは、上記の如く推定した対象物存在仮想路面Saの傾斜角度θと、前記角度αとから、次式(13)により算出できることとなる。 On the other hand, as can be seen with reference to FIG. 2A, the inclination angle θ of the object existence virtual road surface Sa with respect to the optical axis Lc of the in-vehicle camera 2 is θ = α + β. Accordingly, the angle β necessary for measuring the distance D of the object 53 from the host vehicle 1 based on the equation (2) is the inclination angle θ of the object existence virtual road surface Sa estimated as described above. From the angle α, it can be calculated by the following equation (13).
β=θ−α ……(13)
以上のようにして、互いに異なる時刻t1,t2で車載カメラ2により撮像した2つの撮像画像を用いて、前記角度βの値を推定することが可能である。
β = θ−α (13)
As described above, it is possible to estimate the value of the angle β using two captured images captured by the in-vehicle camera 2 at different times t1 and t2.
そして、上記した如く角度γ、α、βの値を推定すれば、前記式(2)に基づいて、対象物53と自車両1との間の距離Dを測定できることとなる。 If the values of the angles γ, α, and β are estimated as described above, the distance D between the object 53 and the host vehicle 1 can be measured based on the equation (2).
以上説明した技術事項を前提として、以下に本発明を説明する。 The present invention will be described below based on the technical matters described above.
本発明の測距装置は、車載カメラによって撮像された路面上の対象物と前記車載カメラが搭載された自車両との間の距離を測定する測距装置であって、
互いに異なる撮像時刻で前記車載カメラにより撮像された2つの撮像画像から、前記対象物が存在する路面である対象物存在路面上の静止点であって、自車両からの距離が前記2つの撮像画像のうちの一方である第1撮像画像の撮像時刻での前記対象物の接地点と同じになる静止点を前記2つの撮像画像にそれぞれ投影してなる特徴点を抽出して、前記2つの撮像画像のそれぞれにおける該特徴点の位置を特定する測距用特徴点抽出手段と、
前記2つの撮像画像のそれぞれの撮像時刻の間の期間における前記車載カメラの位置及び姿勢の変化を表すカメラ運動パラメータを計測するカメラ運動パラメータ計測手段と、
前記第1撮像画像において特定された前記特徴点の位置に基づき、前記車載カメラから前記静止点に至る直線が該車載カメラの光軸に対してなす角度である第1参照角度の値を推定する第1参照角度推定手段と、
前記カメラ運動パラメータと、前記2つの撮像画像のそれぞれにおける前記特徴点の位置と、前記車載カメラの高さと、前記第1撮像画像の撮像時刻において前記自車両が存在する路面である自車両存在路面のうちの前記車載カメラの下方に位置する点から前記静止点に至る直線が前記車載カメラの光軸に対してなす角度である第2参照角度との間の関係を表す演算式に基づいて、前記カメラ運動パラメータの計測値と、前記2つの撮像画像のそれぞれにおいて特定された前記特徴点の位置と、前記車載カメラの高さの設定値とから、該演算式における未知数としての前記第2参照角度の値を推定する第2参照角度推定手段と、
少なくとも前記第1参照角度の推定値と、前記第2参照角度の推定値と、前記車載カメラの高さの設定値とから前記対象物と自車両との間の距離を推定する距離推定手段とを備えることを特徴とする(第1発明)。
A distance measuring device of the present invention is a distance measuring device that measures a distance between an object on a road surface imaged by a vehicle-mounted camera and the host vehicle on which the vehicle-mounted camera is mounted,
From two captured images captured by the in-vehicle camera at different image capturing times, the two captured images are stationary points on the object existing road surface that is the road surface on which the object exists, and the distance from the own vehicle is the two captured images. A feature point formed by projecting a stationary point that is the same as the ground contact point of the object at the imaging time of the first captured image, which is one of the two, to each of the two captured images is extracted, and the two image capturing is performed. Distance measurement feature point extracting means for specifying the position of the feature point in each of the images;
Camera motion parameter measuring means for measuring camera motion parameters representing changes in the position and orientation of the in-vehicle camera in a period between the respective imaging times of the two captured images;
Based on the position of the feature point specified in the first captured image, a value of a first reference angle that is an angle formed by a straight line from the in-vehicle camera to the stationary point with respect to the optical axis of the in-vehicle camera is estimated. First reference angle estimation means;
The own vehicle existence road surface, which is the road surface on which the own vehicle exists at the imaging time of the first captured image, the position of the feature point in each of the two captured images, the height of the in-vehicle camera, and the imaging time of the first captured image Based on an arithmetic expression representing a relationship between a second reference angle that is an angle formed with respect to the optical axis of the in-vehicle camera from a point located below the in-vehicle camera to the stationary point From the measured value of the camera motion parameter, the position of the feature point specified in each of the two captured images, and the set value of the height of the in-vehicle camera, the second reference as an unknown in the arithmetic expression Second reference angle estimation means for estimating an angle value;
Distance estimating means for estimating a distance between the object and the host vehicle from at least an estimated value of the first reference angle, an estimated value of the second reference angle, and a set value of a height of the in-vehicle camera; (First invention).
なお、第1発明における上記第1参照角度、第2参照角度は、より詳しくは、車載カメラの光軸を含む平面であって、且つ、自車両存在路面に対して垂直に起立する平面の法線方向又はこれとほぼ同方向の軸周りでの角度である。このことは、後述する第3参照角度についても同様である。 More specifically, the first reference angle and the second reference angle in the first invention are plane methods that include the optical axis of the in-vehicle camera and that stand perpendicular to the road surface on which the vehicle exists. An angle around an axis in the linear direction or substantially the same direction. The same applies to the third reference angle described later.
上記第1発明によれば、前記測距用特徴点抽出手段によって、自車両からの距離が前記2つの撮像画像のうちの第1撮像画像の撮像時刻での前記対象物の接地点と同じになるような前記対象物存在路面上の静止点を前記2つの撮像画像にそれぞれ投影してなる特徴点が抽出される。そして、前記2つの撮像画像のそれぞれにおける該特徴点の位置が特定される。これにより、前記した位置ベクトル↑P1,↑P2が特定されることとなる。 According to the first aspect of the present invention, the distance from the own vehicle is the same as the ground contact point of the object at the imaging time of the first captured image of the two captured images by the distance measurement feature point extraction unit. The feature points formed by projecting the still points on the road surface where the object exists are projected onto the two captured images are extracted. Then, the position of the feature point in each of the two captured images is specified. As a result, the position vectors ↑ P1 and ↑ P2 described above are specified.
なお、第1撮像画像における前記特徴点は、例えば、第1撮像画像の撮像時刻での前記対象物の接地点を第1撮像画像に投影してなる点(図1(b)又は図2(b)示した例では、点P53a)を通る横方向のライン上で、輝度等の局所特徴を有する点として抽出することできる。そして、他方の撮像画像(第2撮像画像)における前記特徴点は、該第2撮像画像において、第1撮像画像の特徴点と同じような特徴を有する点として抽出することができる。このような特徴点としては、例えばハリスコーナ点や、最小固有値点等を利用することができる。 The feature point in the first captured image is, for example, a point formed by projecting the ground point of the object at the imaging time of the first captured image onto the first captured image (FIG. 1B or FIG. 2). b) In the example shown, it can be extracted as a point having local features such as luminance on a horizontal line passing through the point P53a). Then, the feature point in the other captured image (second captured image) can be extracted as a point having the same feature as the feature point of the first captured image in the second captured image. As such a feature point, for example, a Harris corner point, a minimum eigenvalue point, or the like can be used.
また、前記カメラ運動パラメータ計測手段によって、2つの撮像画像のそれぞれの撮像時刻の間の期間における前記車載カメラの位置及び姿勢の変化を表すカメラ運動パラメータが計測される。該カメラ運動パラメータは、前記並進移動ベクトル↑tと回転行列Rとを規定し得るようなパラメータであり、並進移動ベクトル↑t及び回転行列Rそのものであってもよい。 The camera motion parameter measuring means measures camera motion parameters representing changes in the position and orientation of the in-vehicle camera in the period between the respective imaging times of the two captured images. The camera motion parameters are parameters that can define the translation vector ↑ t and the rotation matrix R, and may be the translation vector ↑ t and the rotation matrix R itself.
なお、上記並進移動ベクトル↑tや回転行列R等のカメラ運動パラメータは、例えば車両に搭載したジャイロセンサ等のセンサの出力を基に計測することが可能である。あるいは、車載カメラの撮像画像を利用して計測することも可能である。その場合には、例えばStructure from Motion(以下SfMということがある)に基づく公知の画像処理手法によってカメラ運動パラメータ(例えば上記並進移動ベクトル↑t及び回転行列R)を算出することができる。 The camera motion parameters such as the translation vector ↑ t and the rotation matrix R can be measured based on the output of a sensor such as a gyro sensor mounted on the vehicle, for example. Or it is also possible to measure using the picked-up image of a vehicle-mounted camera. In that case, camera motion parameters (for example, the translation vector ↑ t and the rotation matrix R) can be calculated by a known image processing method based on, for example, Structure from Motion (hereinafter, sometimes referred to as SfM).
さらに、前記第1参照角度推定手段によって、前記第1撮像画像における前記特徴点の位置に基づき、前記第1参照角度の値が推定される。この第1参照角度は、図1(a)又は図2(a)における角度γを意味するものである。従って、前記第1撮像画像における前記特徴点の位置に基づいて、第1参照角度(γ)の値を推定することができる。より具体的には、前記式(3)に基づいて第1参照角度(γ)の値を推定することができる。 Furthermore, the value of the first reference angle is estimated by the first reference angle estimation means based on the position of the feature point in the first captured image. This first reference angle means the angle γ in FIG. 1 (a) or FIG. 2 (a). Therefore, the value of the first reference angle (γ) can be estimated based on the position of the feature point in the first captured image. More specifically, the value of the first reference angle (γ) can be estimated based on the equation (3).
また、前記第2参照角度推定手段によって、前記第2参照角度の値が推定される。この第2参照角度は、第1撮像画像の撮像時刻において前記自車両が存在する路面である自車両存在路面のうちの前記車載カメラの下方に位置する点から前記静止点に至る直線が前記車載カメラの光軸に対してなす角度である。従って、該第2参照角度は、車載カメラの光軸に対する前記対象物存在仮想路面(Sa)の傾斜角度θに相当するものである。 Further, the value of the second reference angle is estimated by the second reference angle estimation means. The second reference angle is such that a straight line extending from a point located below the vehicle-mounted camera to a stationary point on the road surface where the vehicle exists is a road surface where the vehicle is present at the time of capturing the first captured image. This is the angle formed with respect to the optical axis of the camera. Therefore, the second reference angle corresponds to the inclination angle θ of the object existence virtual road surface (Sa) with respect to the optical axis of the in-vehicle camera.
従って、前記カメラ運動パラメータと、前記2つの撮像画像のそれぞれにおける前記特徴点の位置と、前記車載カメラの高さと、第2参照角度との間には、前記式(10a)〜(10c)により示される如き関係が近似的に成立する。そして、その関係を表す演算式に基づいて、前記カメラ運動パラメータの計測値と、前記2つの撮像画像のそれぞれにおいて特定された前記特徴点の位置と、前記車載カメラの高さの設定値とから、前記第2参照角度(θ)の値を推定することができる。 Therefore, between the camera motion parameter, the position of the feature point in each of the two captured images, the height of the in-vehicle camera, and the second reference angle, the equations (10a) to (10c) are used. The relationship shown is approximately established. Then, based on an arithmetic expression representing the relationship, from the measured value of the camera motion parameter, the position of the feature point specified in each of the two captured images, and the set value of the height of the in-vehicle camera The value of the second reference angle (θ) can be estimated.
そして、第1発明では、少なくとも前記第1参照角度の推定値と、前記第2参照角度の推定値と、前記車載カメラの高さの設定値とから前記対象物と自車両との間の距離を前記距離推定手段により推定する。 And in 1st invention, the distance between the said target object and the own vehicle from the estimated value of the said 1st reference angle, the estimated value of the said 2nd reference angle, and the setting value of the height of the said vehicle-mounted camera at least. Is estimated by the distance estimation means.
この場合、例えば、車両が平坦な路面上を定常走行しているような状況では、前記式(2)における角度α(車載カメラの光軸が自車両存在路面に対してなす角度)が、ほぼ一定の値(既知の値)となる。このため、角度αの値をあらかじめ定めた定数値として、上記第1参照角度(γ)の推定値と、第2参照角度(θ)の推定値と、車載カメラの高さの設定値とから、前記式(2)及び式(13)に基づいて前記対象物と自車両との間の距離を推定できることとなる。 In this case, for example, in a situation where the vehicle is traveling on a flat road surface, the angle α in the equation (2) (the angle formed by the optical axis of the in-vehicle camera with respect to the vehicle existing road surface) is approximately It becomes a constant value (known value). For this reason, from the estimated value of the first reference angle (γ), the estimated value of the second reference angle (θ), and the set value of the height of the in-vehicle camera, the value of the angle α is a predetermined constant value. The distance between the object and the host vehicle can be estimated based on the equations (2) and (13).
あるいは、角度αを適宜の手法により推定してもよい。その場合には、その角度αの推定値と、上記第1参照角度(γ)の推定値と、第2参照角度(θ)の推定値と、車載カメラの高さの設定値とから、前記式(2)及び式(13)に基づいて前記対象物と自車両との間の距離を推定できることとなる。 Alternatively, the angle α may be estimated by an appropriate method. In that case, from the estimated value of the angle α, the estimated value of the first reference angle (γ), the estimated value of the second reference angle (θ), and the set value of the height of the in-vehicle camera, Based on the equations (2) and (13), the distance between the object and the host vehicle can be estimated.
かかる第1発明によれば、対象物存在路面が、自車両存在路面に対して勾配を有するような状況であっても、その勾配の度合いを反映させて、対象物と自車両との間の距離を推定することができる。従って、対象物存在路面の勾配の影響を適切に補償しつつ、車載カメラによる撮像画像を用いて対象物と自車両との間の距離を精度よく測定することが可能となる。 According to the first aspect of the present invention, even if the target object existence road surface has a gradient with respect to the own vehicle existence road surface, the degree of the gradient is reflected and the distance between the object and the own vehicle is reduced. The distance can be estimated. Therefore, it is possible to accurately measure the distance between the target object and the host vehicle using the image captured by the in-vehicle camera while appropriately compensating for the influence of the gradient of the target object road surface.
かかる第1発明では、前記カメラ運動パラメータ計測手段は、例えば、前記2つの撮像画像のそれぞれの撮像時刻の間の期間における前記車載カメラの位置の変位ベクトルである並進移動ベクトルと、該車載カメラの姿勢の角度変化量を表す回転行列とを前記カメラ運動パラメータとして計測する手段である。これらの並進移動ベクトル及び回転行列は、それぞれ、前記した並進移動ベクトル↑t、回転行列Rを意味するものである。 In the first invention, the camera motion parameter measuring means includes, for example, a translation vector that is a displacement vector of the position of the in-vehicle camera in a period between the imaging times of the two captured images, and the in-vehicle camera. It is a means for measuring, as the camera motion parameter, a rotation matrix that represents the angle change amount of the posture. These translation vector and rotation matrix mean the translation vector ↑ t and the rotation matrix R, respectively.
そして、この場合、前記第2参照角度推定手段は、具体的には、前記演算式としての前記式(10a)〜(10c)に基づいて前記第2参照角度(θ)の値を推定することができる(第2発明)。 In this case, the second reference angle estimation means specifically estimates the value of the second reference angle (θ) based on the expressions (10a) to (10c) as the arithmetic expressions. (Second invention).
ここで、前記式(10a)〜(10c)と、その各変数の意味もしくは定義を改めて記載すると次の通りである。 Here, the formulas (10a) to (10c) and the meaning or definition of each variable are described again as follows.
前記第1発明では、前記第1撮像画像の撮像時刻での前記車載カメラの光軸が前記自車両存在路面に対してなす角度である第3参照角度の値を推定する第3参照角度推定手段をさらに備え、
前記距離推定手段は、前記第1参照角度の推定値と、前記第2参照角度の推定値と、前記第3参照角度の推定値と、前記車載カメラの高さの設定値とから前記対象物と自車両との間の距離を推定することが好ましい(第3発明)。
In the first invention, third reference angle estimation means for estimating a value of a third reference angle, which is an angle formed by an optical axis of the vehicle-mounted camera at the imaging time of the first captured image with respect to the own vehicle existing road surface. Further comprising
The distance estimating means is configured to calculate the object based on the estimated value of the first reference angle, the estimated value of the second reference angle, the estimated value of the third reference angle, and the set value of the height of the in-vehicle camera. It is preferable to estimate the distance between the vehicle and the host vehicle (third invention).
この第3発明によれば、前記第3参照角度推定手段により、前記第3参照角度を推定する。この第3参照角度は、図1(a)又は図1(b)における角度αを意味するものである。そして、この第3参照角度(α)の推定値を、前記対象物と自車両との間の距離を推定するために用いる。これにより、車両の走行時に前記第3参照角度(α)の実際の値の変動が生じる場合でも、対象物と自車両との間の距離を精度よく推定することが可能となる。 According to the third aspect of the invention, the third reference angle estimation unit estimates the third reference angle. This third reference angle means the angle α in FIG. 1 (a) or FIG. 1 (b). And the estimated value of this 3rd reference angle ((alpha)) is used in order to estimate the distance between the said target object and the own vehicle. As a result, even when the actual value of the third reference angle (α) varies during travel of the vehicle, it is possible to accurately estimate the distance between the object and the host vehicle.
この第3発明では、前記第3参照角度は、種々様々な手法で推定することが可能であるが、その手法としては、次のような手法を用いることができる。 In the third aspect of the invention, the third reference angle can be estimated by various methods. As the method, the following method can be used.
すなわち、前記カメラ運動パラメータ計測手段が、前記2つの撮像画像のそれぞれの撮像時刻の間の期間における前記車載カメラの位置の変位ベクトルである並進移動ベクトルを前記カメラ運動パラメータの構成要素として計測する手段である場合には、前記第3参照角度推定手段は、少なくとも前記計測された並進移動ベクトルの、前記車載カメラの光軸に対する向きに基づいて前記第3参照角度の値を推定する(第4発明)。 That is, the camera motion parameter measuring means measures a translation vector that is a displacement vector of the position of the vehicle-mounted camera in a period between the imaging times of the two captured images as a component of the camera motion parameter. In this case, the third reference angle estimation means estimates the value of the third reference angle based on at least the direction of the measured translational movement vector with respect to the optical axis of the in-vehicle camera (fourth invention). ).
この場合、上記並進移動ベクトルの向きは、概ね前記自車両存在路面と平行な方向となるので、前記第3参照角度(α)は、基本的には、上記並進移動ベクトルの、前記車載カメラの光軸に対する向きに応じて規定される。従って、車載カメラの光軸に対する上記並進移動ベクトルの向きに基づいて、前記第3参照角度(α)の値を推定することができる。 In this case, since the direction of the translational movement vector is substantially parallel to the road surface on which the host vehicle exists, the third reference angle (α) is basically determined by the vehicle-mounted camera of the translational movement vector. It is defined according to the direction with respect to the optical axis. Therefore, the value of the third reference angle (α) can be estimated based on the direction of the translation vector relative to the optical axis of the in-vehicle camera.
また、前記第3参照角度は、例えば、次のような手法により推定するようにしてもよい。すなわち、前記カメラ運動パラメータ計測手段が、前記2つの撮像画像のそれぞれの撮像時刻の間の期間における前記車載カメラの位置の変位ベクトルである並進移動ベクトルと、該車載カメラの姿勢の角度変化量を表す回転行列とを前記カメラ運動パラメータとして逐次計測する手段である場合に、前記計測された並進移動ベクトルの、前記車載カメラの光軸に対する向きに基づいて、前記第3参照角度の第A暫定推定値を逐次求める第3参照角度第A推定手段と、前記計測された回転行列により示される角度変化量を積算することによって前記第3参照角度の第B暫定推定値を逐次求める第3参照角度第B推定手段とをさらに備え、前記第3参照角度推定手段は、前記第3参照角度の第A暫定推定値の所定期間分の平均値と第B暫定推定値の該所定期間分の平均値との偏差を算出し、該偏差に応じて前記第B暫定推定値を補正することにより前記第3参照角度の推定値を決定する(第5発明)。 The third reference angle may be estimated by the following method, for example. That is, the camera motion parameter measuring means calculates a translation vector that is a displacement vector of the position of the vehicle-mounted camera and an angle change amount of the posture of the vehicle-mounted camera in a period between the respective imaging times of the two captured images. A rotation matrix that represents the camera motion parameter, the A provisional estimation of the third reference angle based on the direction of the measured translational movement vector relative to the optical axis of the in-vehicle camera. A third reference angle A estimating means for sequentially obtaining a value, and a third reference angle for successively obtaining a B provisional estimated value of the third reference angle by integrating the amount of angle change indicated by the measured rotation matrix. B estimation means, and the third reference angle estimation means includes an average value of the A reference provisional value of the third reference angle for a predetermined period and a B provisional estimation. Of said predetermined calculating a deviation between the average value of the periodically between content, determining an estimated value of the third reference angle by correcting the first B provisional estimated value according to the deviation (fifth invention).
これによれば、前記第3参照角度第A推定手段は、前記4発明の第3参照角度推定手段と同様に、前記並進移動ベクトルに向き(前記車載カメラの光軸に対する向き)に基づいて第3参照角度(α)の値を推定する。ただし、第5発明では、その推定値は、第A暫定推定値(第3参照角度(α)の暫定的な推定値)とされる。 According to this, the third reference angle A estimating means is similar to the third reference angle estimating means of the fourth aspect of the invention based on the direction of the translation vector (direction with respect to the optical axis of the in-vehicle camera). 3 Estimate the value of the reference angle (α). However, in the fifth invention, the estimated value is the A-th provisional estimated value (temporary estimated value of the third reference angle (α)).
また、前記第3参照角度第B推定手段は、前記回転行列により示される前記車載カメラの姿勢の角度変化量として得られる第3参照角度(α)の角度変化量を積算することによって、第3参照角度(α)の暫定推定値(第B暫定推定値)を逐次求める。 Further, the third reference angle B-estimating means integrates the angle change amount of the third reference angle (α) obtained as the angle change amount of the attitude of the in-vehicle camera indicated by the rotation matrix, thereby obtaining a third A provisional estimated value (Bth provisional estimated value) of the reference angle (α) is sequentially obtained.
ここで、前記第A暫定推定値は、積算演算を必要とすることなく算出できることから、該第A暫定推定値に誤差が累積していくようなことはない。ただし、前記第A暫定推定値は、車両の姿勢の瞬時的な変動の影響を直接的に受けるために、第3参照角度(α)の実際の値に対して瞬時的な誤差を生じることがある。 Here, since the A-th provisional estimated value can be calculated without requiring an integration operation, no error accumulates in the A-th provisional estimated value. However, since the A-th provisional estimated value is directly affected by an instantaneous change in the posture of the vehicle, an instantaneous error may occur with respect to the actual value of the third reference angle (α). is there.
これに対して、前記第B暫定推定値は、前記車載カメラの姿勢の異なる時刻間の相対的な変化量としての前記角度変化量を積算したものであるため、車両の姿勢の瞬時的な変動の影響を受け難い。ただし、第B暫定推定値は、該第B暫定推定値の初期値の誤差や累積的な誤差が含まれやすい。ひいては、該第B暫定推定値は、実際の第3参照角度(α)の値に対してオフセットを生じやすい。 On the other hand, since the B-th provisional estimated value is obtained by integrating the angle change amount as a relative change amount between different times of the in-vehicle camera posture, an instantaneous change in the vehicle posture is obtained. It is hard to be influenced by. However, the B-th provisional estimated value is likely to include an error in the initial value of the B-th provisional estimated value and a cumulative error. As a result, the B-th provisional estimated value tends to cause an offset with respect to the actual value of the third reference angle (α).
そこで、第5発明では、前記第3参照角度推定手段は、前記第3参照角度(α)の第A暫定推定値の所定期間分の平均値と第B暫定推定値の該所定期間分の平均値との偏差を算出し、該偏差に応じて前記第B暫定推定値を補正することにより前記第3参照角度(α)の推定値を決定する。 Therefore, in the fifth aspect of the invention, the third reference angle estimation means includes an average value for the predetermined period of the A provisional estimated value of the third reference angle (α) and an average of the B reference provisional value for the predetermined period. A deviation from the value is calculated, and the estimated value of the third reference angle (α) is determined by correcting the B-th provisional estimated value according to the deviation.
この場合、上記偏差は、第3参照角度(α)の実際の値に対する第B暫定推定値のオフセット分に相当するものとなる。このため、該偏差に応じて前記第A暫定推定値を補正することによって、第B暫定推定値から上記オフセット分を除去することが可能となる。その結果、当該補正により得られる第3参照角度(α)の推定値を、第3参照角度(α)の実際の値に、より一層精度よく合致させることができることとなる。ひいては、対象物と自車両との間の距離の測定精度をより一層高めることができる。 In this case, the deviation corresponds to an offset of the B-th provisional estimated value with respect to the actual value of the third reference angle (α). For this reason, it is possible to remove the offset from the B-th provisional estimated value by correcting the A-th provisional estimated value according to the deviation. As a result, the estimated value of the third reference angle (α) obtained by the correction can be more accurately matched with the actual value of the third reference angle (α). As a result, the measurement accuracy of the distance between the object and the host vehicle can be further enhanced.
なお、前記第3参照角度(α)の第A暫定推定値と、累積していない第B暫定推定値(すなわち、車載カメラ2の姿勢の単位時間当たりの角度変化量)とからカルマンフィルタを用いて第3参照角度を推定するようにしてもよい。 Note that a Kalman filter is used from the A-th provisional estimated value of the third reference angle (α) and the B-th estimated value that has not been accumulated (that is, the amount of change in the attitude of the in-vehicle camera 2 per unit time). The third reference angle may be estimated.
また、上記第3〜第5発明は、前記第2発明と組み合わせてもよい。 The third to fifth inventions may be combined with the second invention.
本発明の一実施形態を図1〜図5を参照して以下に説明する。 An embodiment of the present invention will be described below with reference to FIGS.
図4を参照して、本実施形態の測距装置10は、先に図1(a)及び図2(a)に示した車両1に搭載されたものであり、前記車載カメラ2に接続された演算処理ユニット11を備える。なお、図1(a)及び図2(a)では、車両1を模式的に図示したが、実際の車両1は例えば自動車である。 Referring to FIG. 4, the distance measuring device 10 of the present embodiment is mounted on the vehicle 1 shown in FIGS. 1A and 2A and is connected to the in-vehicle camera 2. The arithmetic processing unit 11 is provided. In addition, in FIG. 1A and FIG. 2A, the vehicle 1 is schematically illustrated, but the actual vehicle 1 is, for example, an automobile.
そして、本実施形態では、車載カメラ2は、車両1の前方を監視するために車両1の前部に搭載されており、車両1の前方の画像を撮像する。この場合、車載カメラ2は、その光軸Lcを車両1の前後方向に向けるようにして車両1の車体に取り付けられている。ただし、車載カメラ2の光軸Lcは、車両1の前後方向に対して多少の傾きを有していてもよい。 In the present embodiment, the in-vehicle camera 2 is mounted on the front of the vehicle 1 to monitor the front of the vehicle 1 and captures an image in front of the vehicle 1. In this case, the in-vehicle camera 2 is attached to the vehicle body of the vehicle 1 such that its optical axis Lc is directed in the front-rear direction of the vehicle 1. However, the optical axis Lc of the in-vehicle camera 2 may have a slight inclination with respect to the longitudinal direction of the vehicle 1.
この車載カメラ2は、CCDカメラ又はCMOSカメラ等により構成され、撮像画像の画像信号を生成して出力する。その撮像画像は、カラー画像、モノトーン画像のいずれであってもよい。 The in-vehicle camera 2 is constituted by a CCD camera, a CMOS camera, or the like, and generates and outputs an image signal of a captured image. The captured image may be either a color image or a monotone image.
なお、車載カメラ2は、車両1の後方又は側方の画像を撮像するように車両1に搭載されたカメラであってもよい。 The in-vehicle camera 2 may be a camera mounted on the vehicle 1 so as to capture a rear or side image of the vehicle 1.
演算処理ユニット11は、図示を省略するCPU、RAM、ROM、インターフェース回路等を含む電子回路ユニットであり、車載カメラ2で生成された画像信号が入力される。 The arithmetic processing unit 11 is an electronic circuit unit including a CPU, a RAM, a ROM, an interface circuit, etc. (not shown), and receives an image signal generated by the in-vehicle camera 2.
この演算処理ユニット11は、実装されたプログラムを実行することによって実現される機能として、車載カメラ2の撮像画像を取得する画像取得部12と、その撮像画像から対象物53と自車両1との距離を測定するために使用する特徴点を抽出する測距用特徴点抽出部13、車載カメラ2の運動パラメータを推定(計測)するカメラ運動推定部14と、第1〜第3参照角度をそれぞれ推定する第1参照角度推定部15、第2参照角度推定部16及び第3参照角度推定部17と、対象物53と自車両1との間の距離の推定値(測定値)を求める距離推定部18とを備える。該演算処理ユニット11は、所定の演算処理周期でこれらの各機能部の処理を逐次実行することによって、車両1の前方に存在する対象物53と自車両1との間の距離Dの推定値を逐次算出する。 The arithmetic processing unit 11 includes, as a function realized by executing the installed program, an image acquisition unit 12 that acquires a captured image of the in-vehicle camera 2, and the target 53 and the host vehicle 1 from the captured image. A distance-measuring feature point extraction unit 13 for extracting feature points used for measuring a distance, a camera motion estimation unit 14 for estimating (measuring) a motion parameter of the in-vehicle camera 2, and first to third reference angles, respectively. Distance estimation for obtaining an estimated value (measured value) of the distance between the object 53 and the vehicle 1 and the first reference angle estimation unit 15, the second reference angle estimation unit 16, and the third reference angle estimation unit 17 to be estimated Part 18. The arithmetic processing unit 11 sequentially executes the processing of these functional units at a predetermined arithmetic processing cycle, thereby estimating the distance D between the object 53 existing in front of the vehicle 1 and the host vehicle 1. Are calculated sequentially.
以下に、演算処理ユニット11の各機能部の処理を含めて、該演算処理ユニット11の全体処理の詳細を説明する。 The details of the overall processing of the arithmetic processing unit 11 including the processing of each functional unit of the arithmetic processing unit 11 will be described below.
車載カメラ2は、演算処理ユニット11から所定の演算処理周期で指示されるタイミングで車両1の前方の画像を撮像する。そして、その撮像により生成された画像信号が、車載カメラ2から演算処理ユニット11の画像取得部12に逐次取り込まれる。この画像取得部12は、車載カメラ2から入力されるアナログ信号である画像信号(各画素毎の画像信号)をデジタルデータに変換し、図示しない画像メモリに記憶保持する。 The in-vehicle camera 2 captures an image in front of the vehicle 1 at a timing instructed by the arithmetic processing unit 11 at a predetermined arithmetic processing cycle. And the image signal produced | generated by the imaging is taken in sequentially by the image acquisition part 12 of the arithmetic processing unit 11 from the vehicle-mounted camera 2. FIG. The image acquisition unit 12 converts an image signal (an image signal for each pixel) that is an analog signal input from the in-vehicle camera 2 into digital data, and stores and stores the digital signal in an image memory (not shown).
この場合、画像取得部12は、車載カメラ2によって互いに異なる時刻(所定の演算処理周期の時間間隔毎の時刻)で撮像された複数の撮像画像、例えば2つの撮像画像の組を定期的に更新しつつ、画像メモリに記憶保持する。以降の説明では、画像メモリに記憶保持される2つの撮像画像の撮像時刻を時刻t1、t2とし、時刻t1での撮像画像を第1撮像画像、時刻t2での撮像画像を第2撮像画像ということがある。なお、時刻t2は時刻t1の後の時刻及び前の時刻のいずれであってもよい。 In this case, the image acquisition unit 12 periodically updates a plurality of captured images, for example, a set of two captured images captured at different times (times at time intervals of a predetermined calculation processing cycle) by the in-vehicle camera 2. However, it is stored in the image memory. In the following description, the imaging times of two captured images stored and held in the image memory are referred to as times t1 and t2, the captured image at time t1 is referred to as a first captured image, and the captured image at time t2 is referred to as a second captured image. Sometimes. Note that the time t2 may be either the time after the time t1 or the previous time.
画像取得部12の処理によって画像メモリに記憶保持された2つの撮像画像(第1撮像画像及び第2撮像画像)は、測距用特徴点抽出部13とカメラ運動推定部14とに与えられ、それぞれの処理が次に実行される。 Two captured images (first captured image and second captured image) stored and held in the image memory by the processing of the image acquisition unit 12 are given to the distance measurement feature point extraction unit 13 and the camera motion estimation unit 14, Each process is executed next.
測距用特徴点抽出部13の処理は、自車両1からの距離を測定しようとする対象物53の接地点P53(対象物53と対象物存在路面52との接触点)を第1撮像画像に投影してなる画像上対象物接地点P53aを特定する画像上対象物接地点特定部13aの処理と、自車両1からの距離が上記接地点P53と同一(又はほぼ同一)となるような対象物存在路面52上の静止点Pを第1撮像画像及び第2撮像画像に投影してなる特徴点P1,P2を各撮像画像から探索する特徴点探索部13bとに大別される。 The distance measurement feature point extraction unit 13 performs the first picked-up image of the contact point P53 (contact point between the target object 53 and the target object existing road surface 52) of the target object 53 whose distance from the host vehicle 1 is to be measured. The processing of the on-image object grounding point specifying unit 13a for identifying the on-image object grounding point P53a projected on the vehicle and the distance from the own vehicle 1 are the same (or almost the same) as the grounding point P53. It is roughly divided into a feature point search unit 13b for searching for feature points P1 and P2 obtained by projecting a stationary point P on the object presence road surface 52 on the first and second captured images.
画像上対象物接地点特定部13aは、次のように画像上対象物接地点P53aを特定する処理を実行する。 The on-image object grounding point specifying unit 13a executes processing for specifying the on-image object grounding point P53a as follows.
画像上対象物接地点特定部13aは、まず、与えられた第1撮像画像において、自車両1との距離を測定しようとする所定種類の対象物53の画像部分を探索する。本実施形態では、所定種類の対象物53は、例えば歩行者(人)である。そして、画像上対象物接地点特定部13aは、第1撮像画像から、歩行者に特徴的な形状パターン等を有する画像部分を探索することで、該第1撮像画像に含まれる対象物53(歩行者)の画像部分を抽出する。例えば、図1(a)又は図2(a)に示した状況では、図1(b)又は図2(b)の参照符号53aの部分が、対象物53(歩行者)の画像部分として抽出される。 The on-image target ground point specifying unit 13a first searches the given first captured image for an image portion of a predetermined type of target object 53 whose distance to the host vehicle 1 is to be measured. In the present embodiment, the predetermined type of object 53 is, for example, a pedestrian (person). Then, the on-image object grounding point specifying unit 13a searches the first captured image for an image portion having a shape pattern or the like characteristic to the pedestrian, whereby the object 53 ( The image portion of (pedestrian) is extracted. For example, in the situation shown in FIG. 1 (a) or FIG. 2 (a), the portion indicated by reference numeral 53a in FIG. 1 (b) or FIG. 2 (b) is extracted as the image portion of the object 53 (pedestrian). Is done.
なお、撮像画像から、歩行者の画像部分を探索する手法は種々様々な手法が公知となっており、その公知の手法を用いて第1撮像画像から対象物53としての歩行者を抽出するようにすればよい。 Various methods are known for searching for a pedestrian image portion from a captured image, and a pedestrian as an object 53 is extracted from the first captured image using the known method. You can do it.
そして、画像上対象物接地点特定部13aは、上記の如く抽出した第1撮像画像中の対象物53の画像上対象物接地点P53aを特定する。この場合、図1(b)又は図2(b)に示す如く、例えば第1撮像画像中の対象物53の画像53aの最下点が画像上対象物接地点P53aとして特定される。 Then, the on-image object ground point identification unit 13a identifies the on-image object ground point P53a of the object 53 in the first captured image extracted as described above. In this case, as shown in FIG. 1B or FIG. 2B, for example, the lowest point of the image 53a of the object 53 in the first captured image is specified as the on-image object ground point P53a.
なお、歩行者の脚の先端部の画像が明瞭に得られないような場合には、例えば、該歩行者の体型が標準的な体型であると仮定して、第1撮像画像における該歩行者の頭部や肩部の位置から画像上対象物接地点P53aの位置を推定するようにしてもよい。 In addition, when the image of the front-end | tip part of a pedestrian's leg cannot be obtained clearly, this pedestrian in the 1st picked-up image assumes that the pedestrian's figure is a standard figure, for example. The position of the object ground contact point P53a on the image may be estimated from the positions of the head and shoulders of the image.
次いで、特徴点探索部13bの処理が次のように実行される。 Next, the process of the feature point search unit 13b is executed as follows.
本実施形態では、車載カメラ2は、その撮像画像の横方向(カメラ座標系のx軸方向)が自車両存在路面51とほぼ平行になるように車両1に搭載されている。 In the present embodiment, the in-vehicle camera 2 is mounted on the vehicle 1 so that the lateral direction of the captured image (the x-axis direction of the camera coordinate system) is substantially parallel to the own vehicle existing road surface 51.
このため、自車両1からの距離が対象物接地点P53と同一の距離となるような対象物存在路面52上の静止点を第1撮像画像に投影してなる点は、基本的には、図1(b)又は図2(b)に示す如く、画像上対象物接地点P53を通って横方向(カメラ座標系のx軸方向)に延在する直線L53a上に存在する。 For this reason, the point formed by projecting a stationary point on the object existence road surface 52 such that the distance from the own vehicle 1 is the same distance as the object ground contact point P53 is basically the following: As shown in FIG. 1B or FIG. 2B, it exists on a straight line L53a extending in the horizontal direction (x-axis direction of the camera coordinate system) through the object grounding point P53 on the image.
そこで、特徴点探索部13bは、対象物53の画像53aの近辺の画像領域内において、上記直線L53a上で、対象物存在路面52の画像52a中に存在する特徴点(例えば図1(b)又は図2(b)の点P1)を探索し、その点を対象物存在路面52上の静止点(自車両1からの距離が対象物接地点P53と同じになる静止点)を第1撮像画像に投影してなる特徴点として抽出する。 Therefore, the feature point search unit 13b includes feature points (for example, FIG. 1B) that exist in the image 52a of the target object road surface 52 on the straight line L53a in the image region in the vicinity of the image 53a of the target object 53. Alternatively, the point P1) in FIG. 2B is searched, and the first imaging of the point is a stationary point on the object existence road surface 52 (a stationary point where the distance from the vehicle 1 is the same as the object grounding point P53). It is extracted as a feature point projected on the image.
このような特徴点は、一般的には、その点を含む局所領域における輝度、彩度、色相等の状態量が、特徴的な(他の局所領域と区別可能な)大きさもしくは変化を示すような点である。例えばハリスコーナ点や、最小固有値点等が上記特徴点して探索される。 Such a feature point generally shows a characteristic (distinguishable from other local regions) size or change in state quantities such as luminance, saturation, and hue in the local region including the point. It is such a point. For example, a Harris corner point, a minimum eigenvalue point, or the like is searched for as the feature point.
このように第1撮像画像における特徴点を抽出した後、特徴点探索部13bは、次に第2撮像画像において、第1撮像画像の特徴点と同じ特徴を有する点を探索し、その探索した点を、上記静止点(自車両1からの距離が対象物接地点P53と同じになる対象物存在路面52上の静止点)を第2撮像画像に投影してなる特徴点として抽出する。この第2撮像画像における探索処理は、例えばブロックマッチング等の公知の画像処理手法を用いて行なえばよい。 After extracting the feature points in the first captured image in this way, the feature point search unit 13b then searches the second captured image for points having the same features as the feature points of the first captured image, and searches for them. A point is extracted as a feature point obtained by projecting the stationary point (a stationary point on the object existence road surface 52 whose distance from the vehicle 1 is the same as the object grounding point P53) onto the second captured image. The search process in the second captured image may be performed using a known image processing method such as block matching.
画像上対象物接地点特定部13a及び特徴点探索部13bの上記の処理によって、自車両1からの距離が対象物接地点P53と同じになる対象物存在路面52上の静止点を第1撮像画像に投影してなる特徴点と、該静止点を第2撮像画像に投影してなる特徴点とが抽出されることとなる。このようにして、第1撮像画像及び第2撮像画像から抽出される特徴点が、図3(a)に示した特徴点P1,P2である。 As a result of the above processing of the object grounding point specifying unit 13a and the feature point searching unit 13b on the image, the first image of a stationary point on the object existing road surface 52 where the distance from the vehicle 1 is the same as the object grounding point P53 is obtained. A feature point formed by projecting on the image and a feature point formed by projecting the stationary point on the second captured image are extracted. The feature points extracted from the first captured image and the second captured image in this way are the feature points P1 and P2 shown in FIG.
そして、測距用特徴点抽出部13は、このように抽出した特徴点P1,P2の各撮像画像での位置(前記位置ベクトル↑P1,↑P2の座標成分)を求めて出力する。 Then, the distance measurement feature point extraction unit 13 obtains and outputs the positions of the feature points P1 and P2 extracted in this manner in the captured images (the coordinate components of the position vectors ↑ P1 and ↑ P2).
補足すると、本実施形態では、対象物53(歩行者)が移動体であるため、第1撮像画像の撮像時刻t1と、第2撮像画像の撮像時刻t2とでは、対象物接地点P53が一般には一致しない。このため、本実施形態では、対象物接地点P53とは別の静止点を各撮像画像に投影してなる点を、上記特徴点として各撮像画像から抽出するようにした。 Supplementally, in this embodiment, since the object 53 (pedestrian) is a moving object, the object ground contact point P53 is generally at the imaging time t1 of the first captured image and the imaging time t2 of the second captured image. Does not match. For this reason, in this embodiment, a point formed by projecting a stationary point different from the object ground point P53 on each captured image is extracted from each captured image as the feature point.
ただし、距離を測定しようとする対象物53は、歩行者等の移動体でなくてもよく、固定設置物(静止物)であってもよい。その場合には、対象物としての固定設置物の接地点を各撮像画像に投影してなる点を、上記特徴点として各撮像画像から抽出するようにしてもよい。 However, the object 53 whose distance is to be measured may not be a moving body such as a pedestrian, but may be a fixed installation object (stationary object). In that case, you may make it extract the point formed by projecting the grounding point of the fixed installation object as a target object on each captured image from each captured image as the said feature point.
前記カメラ運動推定部14は、本実施形態では、与えられた2つの撮像画像(第1撮像画像及び第2撮像画像)と、車載カメラ2の単位時間当たりの撮像数を示すフレームレートと、図示しない車速センサにより検出された車両1の車速とから、SfM(Structure from Motion)に基づく公知の画像処理手法を用いて、車載カメラ2の空間的な位置の変位ベクトルの推定値(計測値)としての前記並進移動ベクトル↑tと、2つの撮像画像の撮像時刻t1,t2の間の期間における車載カメラ2の空間的な姿勢の角度変化量の推定値(計測値)を示す前記回転行列Rとを算出する。 In the present embodiment, the camera motion estimation unit 14 includes two given captured images (first captured image and second captured image), a frame rate indicating the number of captured images per unit time of the in-vehicle camera 2, As an estimated value (measured value) of the displacement vector of the spatial position of the in-vehicle camera 2 using a known image processing technique based on SfM (Structure from Motion) from the vehicle speed detected by the vehicle speed sensor that does not perform The translation vector ↑ t and the rotation matrix R indicating the estimated value (measured value) of the angular change amount of the spatial orientation of the in-vehicle camera 2 in the period between the imaging times t1 and t2 of the two captured images. Is calculated.
これらの並進移動ベクトル↑tと回転行列Rとは、例えば、第1撮像画像及び第2撮像画像にそれぞれ投影されている静止物体(固定設置物)の画像の各撮像画像での特徴点から得られるオプティカルフローに関するSfMに基づく公知の手法(例えば、「Structure from Motion without Correspondence」/Frank Dellaert, Steven M.Seitz, Charles E.Thorpe, Sebastian Thrun/Computer Sience Department & Robotics Institute Canegie Mellon University, Pittsborgh PA 15213を参照)によって算出される。 The translation vector ↑ t and the rotation matrix R are obtained from feature points in each captured image of a stationary object (fixed installation) image projected on the first captured image and the second captured image, for example. Known methods based on SfM for optical flow (eg “Structure from Motion without Correspondence” / Frank Dellaert, Steven M. Seitz, Charles E. Thorpe, Sebastian Thrun / Computer Sience Department & Robotics Institute Canegie Mellon University, Pittsborgh PA 15213 ).
補足すると、SfMに基づいて算出される並進移動ベクトルは、スケールが不定なものとなるが、上記フレームレートと車速の検出値とを基に、並進移動ベクトル↑tのスケールが決定される。 Supplementally, the translational movement vector calculated based on SfM has an indefinite scale, but the scale of the translational movement vector ↑ t is determined based on the frame rate and the detected vehicle speed.
なお、車載カメラ2は車両1の車体と一体的に動くので、車体の姿勢を検出するためのジャイロセンサ等の姿勢センサや、車体の加速度を検出するための加速度センサが車両1に搭載されている場合には、例えばそれらセンサの出力に基づいて、上記並進移動ベクトル↑tや、回転行列Rを計測するようにしてもよい。 Since the in-vehicle camera 2 moves integrally with the vehicle body of the vehicle 1, an attitude sensor such as a gyro sensor for detecting the attitude of the vehicle body and an acceleration sensor for detecting the acceleration of the vehicle body are mounted on the vehicle 1. If there is, for example, the translation vector ↑ t or the rotation matrix R may be measured based on the outputs of these sensors.
演算処理ユニット11は、上記の如く測距用特徴点算出部13及びカメラ運動推定部14の処理を実行した後、次に、第1参照角度推定部15、第2参照角度推定部16、第3参照角度推定部17の処理をそれぞれ実行する。なお、第1参照角度推定部15の処理は、カメラ運動推定部14の処理と並行して、又はその前に実行してもよい。また、第3参照角度推定部17の処理は、測距用特徴点算出部13の処理と並行して、又はその前に実行してもよい。 The arithmetic processing unit 11 performs the processing of the distance measurement feature point calculation unit 13 and the camera motion estimation unit 14 as described above, and then performs the first reference angle estimation unit 15, the second reference angle estimation unit 16, the first The process of the 3 reference angle estimation part 17 is each performed. Note that the process of the first reference angle estimation unit 15 may be executed in parallel with or before the process of the camera motion estimation unit 14. Further, the process of the third reference angle estimation unit 17 may be executed in parallel with or before the process of the distance measurement feature point calculation unit 13.
第1参照角度推定部15には、測距用特徴点抽出部13から第1撮像画像における前記特徴点P1の位置(又は前記位置ベクトル↑P1)が入力される。そして、第1参照角度推定部15は、第1撮像画像の画像中心Pcaと、入力された特徴点P1との間の、上下方向(カメラ座標系のy軸方向)の位置偏差Δy(図1(b)又は図2(b)を参照)を算出する。そして、第1参照角度推定部15は、この位置偏差Δyと、図示しない記憶装置にあらかじめ記憶保持された車載カメラ2の焦点距離Fの値とから、前記式(3)に基づいて、第1参照角度としての角度γの推定値(=tan-1(Δy/F))を算出する。 The position of the feature point P1 in the first captured image (or the position vector ↑ P1) is input to the first reference angle estimation unit 15 from the distance measurement feature point extraction unit 13. The first reference angle estimator 15 then determines the positional deviation Δy in the vertical direction (y-axis direction of the camera coordinate system) between the image center Pca of the first captured image and the input feature point P1 (FIG. 1). (See (b) or FIG. 2 (b)). Then, the first reference angle estimation unit 15 calculates the first deviation from the positional deviation Δy and the value of the focal length F of the in-vehicle camera 2 stored and held in advance in a storage device (not shown) based on the equation (3). An estimated value (= tan −1 (Δy / F)) of the angle γ as the reference angle is calculated.
第2参照角度推定部16には、測距用特徴点抽出部13から第1撮像画像及び第2撮像画像のそれぞれにおける前記特徴点P1,P2の位置(又は前記位置ベクトル↑P1,↑P2)が入力されると共に、カメラ運動推定部14から並進移動ベクトル↑t及び回転行列Rの各成分値が入力される。 The second reference angle estimator 16 includes the positions of the feature points P1 and P2 (or the position vectors ↑ P1 and ↑ P2) in the first captured image and the second captured image from the distance measurement feature point extraction unit 13, respectively. And the translation movement vector ↑ t and the component values of the rotation matrix R are input from the camera motion estimation unit 14.
そして、第2参照角度推定部16は、測距用特徴点抽出部13からの入力値により示される前記特徴点P1,P2の位置ベクトル↑P1,↑P2の各成分値と、カメラ運動推定部14から入力された並進移動ベクトル↑t及び回転行列Rの各成分値と、前記式(10c)のd(前記対象物存在仮想路面Saと時刻t1での車載カメラ2の光学中心Cとの間の距離)の近似的な設定値として図示しない記憶装置にあらかじめ記憶保持されたカメラ高Hcの値とから、前記式(10a)〜(10c)に基づいて、第2参照角度としての角度θの推定値を算出する。 Then, the second reference angle estimation unit 16 includes component values of the position vectors ↑ P1 and ↑ P2 of the feature points P1 and P2 indicated by the input values from the distance measurement feature point extraction unit 13, and a camera motion estimation unit. 14 between the translation movement vector ↑ t and the rotation matrix R inputted from 14 and d (the object existing virtual road surface Sa and the optical center C of the vehicle-mounted camera 2 at time t1) in the equation (10c). Based on the above formulas (10a) to (10c), the angle θ as the second reference angle is calculated from the value of the camera height Hc stored and held in advance in a storage device (not shown) as an approximate set value of Calculate an estimate.
具体的には、例えば前記式(11)の二次方程式の係数r,s,tの値が、前記式(10a)〜(10c)に関するただし書きの定義と、式(11)に関するただし書きの定義とに従って、↑P1,↑P2,↑t,Rの各成分値の値から算出される。そして、係数r,s,tの値を用いて、式(11)の二次方程式の解の値が前記変数a(≡(cosθ)/d)の値として算出される。 Specifically, for example, the values of the coefficients r, s, and t of the quadratic equation of the formula (11) are defined in the proviso for the formulas (10a) to (10c) and the proviso for the formula (11). Is calculated from the component values of ↑ P1, ↑ P2, ↑ t, R. Then, using the values of the coefficients r, s, and t, the value of the solution of the quadratic equation of Expression (11) is calculated as the value of the variable a (≡ (cos θ) / d).
この場合、前記した如く、式(11)の解となるaの値は、一般には2つ存在することとなるものの、それらの2つの値のうち、式(10a)、(10b)を満足し得るaの値が選定される。 In this case, as described above, there are generally two values of a which are the solutions of the equation (11), but of these two values, the equations (10a) and (10b) are satisfied. The value of a to be obtained is selected.
そして、この変数aの値と、dの設定値(Hc)とから、前記式(12a)により第2参照角度θの推定値が算出される。 Then, the estimated value of the second reference angle θ is calculated from the value of the variable a and the set value (Hc) of d by the equation (12a).
なお、前記変数aの代わりに、前記変数b(≡(sinθ)/d)の値を算出し、この変数bの値と、dの設定値(Hc)とから、前記式(12b)により第2参照角度θの推定値を算出するようにしてもよい。 Instead of the variable a, the value of the variable b (≡ (sin θ) / d) is calculated, and the value of the variable b and the set value (Hc) of d are calculated according to the equation (12b). 2 An estimated value of the reference angle θ may be calculated.
第3参照角度推定部17には、カメラ運動推定部14から並進移動ベクトル↑t及び回転行列Rの各成分値が入力される。 The third reference angle estimation unit 17 receives the translation movement vector ↑ t and the component values of the rotation matrix R from the camera motion estimation unit 14.
この第3参照角度推定部17は、第3参照角度としての角度αの第A暫定推定値αaと第B暫定推定値αbとをそれぞれ算出する処理を実行する第3参照角度第A暫定推定部17a、第3参照角度第B暫定推定部17bを備えている。 The third reference angle estimator 17 executes a process of calculating the A-th provisional estimated value αa and the B-th tentative estimated value αb of the angle α as the third reference angle, respectively. 17a and a third reference angle B-th provisional estimation unit 17b.
第3参照角度第A暫定推定部17aは、入力された並進移動ベクトル↑tの向き(撮像時刻t1での車載カメラ2の光軸Lcに対する向き)に基づいて、第3参照角度αの第A暫定推定値αaを算出する。 The third reference angle A provisional estimation unit 17a determines the third reference angle α of the third reference angle α based on the direction of the input translational movement vector ↑ t (direction relative to the optical axis Lc of the vehicle-mounted camera 2 at the imaging time t1). A provisional estimated value αa is calculated.
この場合、並進移動ベクトル↑tは、車両1が時刻t1で走行している自車両存在路面51にほぼ平行(車両1の進行方向とほぼ平行)なベクトルと見なすことができる。 In this case, the translation vector ↑ t can be regarded as a vector that is substantially parallel (substantially parallel to the traveling direction of the vehicle 1) to the own vehicle existing road surface 51 where the vehicle 1 is traveling at the time t1.
従って、車載カメラ2の光軸Lcに対する並進移動ベクトル↑tの向き(あるいは、並進移動ベクトル↑tに対する光軸Lcの向き)は、自車両存在路面51に対して車載カメラ2の光軸Lcがなす角度、すなわち、第3参照角度αに応じたものとなる。 Therefore, the direction of the translation vector ↑ t with respect to the optical axis Lc of the in-vehicle camera 2 (or the direction of the optical axis Lc with respect to the translation vector ↑ t) is such that the optical axis Lc of the in-vehicle camera 2 is relative to the own vehicle existing road surface 51. The angle formed depends on the third reference angle α.
すなわち、図5(a),(b)に示す如く、時刻t1での車載カメラ2のカメラ座標系で見た並進移動ベクトル↑tが、車載カメラ2の光軸Lc(Z軸)に対してなす角度αaが、第3参照角度αに相当するものとなる。 That is, as shown in FIGS. 5A and 5B, the translational movement vector ↑ t seen in the camera coordinate system of the vehicle-mounted camera 2 at time t1 is relative to the optical axis Lc (Z-axis) of the vehicle-mounted camera 2. The formed angle αa corresponds to the third reference angle α.
そこで、第3参照角度第A暫定推定部17aは、本実施形態では、入力された並進移動ベクトル↑tが、時刻t1における車載カメラ2のカメラ座標系のXZ平面に対してなす角度αaを、第3参照角度αの暫定推定値として算出する。 Therefore, in the present embodiment, the third reference angle A-provisional estimation unit 17a determines an angle αa formed by the input translational movement vector ↑ t with respect to the XZ plane of the camera coordinate system of the vehicle-mounted camera 2 at time t1. Calculated as a provisional estimated value of the third reference angle α.
具体的には、第3参照角度第A暫定推定部17aは、時刻t1における車載カメラ2のカメラ座標系での並進移動ベクトル↑t(=[t1,t2,t3]T)の成分値から、次式(14)により、第A暫定推定値αaを算出する。 Specifically, the third reference angle A temporary estimation unit 17a calculates the component value of the translation vector ↑ t (= [t1, t2, t3] T ) in the camera coordinate system of the in-vehicle camera 2 at time t1. The A-th provisional estimated value αa is calculated by the following equation (14).
また、第3参照角度第B暫定推定部17bは、入力された回転行列Rに基づいて、第3参照角度αの第B暫定推定値αbを算出する。
Also, the third reference angle B-th provisional estimation unit 17b calculates a B-th provisional estimated value αb of the third reference angle α based on the input rotation matrix R.
具体的には、第3参照角度第B暫定推定部17bは、入力された回転行列Rにより示される車載カメラ2の空間的な姿勢の角度変化量(2つの撮像画像の撮像時刻t1,t2の間の期間における角度変化量)のうちの車両1のピッチ方向(第3参照角度αの変化が生じる軸周り方向)の角度変化量を演算処理ユニット11の演算処理周期で逐次積算(累積加算)することによって、第3参照角度αの第B暫定推定値αbを算出する。 Specifically, the third reference angle B-provisional estimation unit 17b determines the amount of change in the angle of the spatial orientation of the in-vehicle camera 2 indicated by the input rotation matrix R (the imaging times t1 and t2 of the two captured images). Of the change in angle in the pitch direction of the vehicle 1 (the direction around the axis where the change in the third reference angle α occurs) is sequentially accumulated (accumulated addition) in the calculation processing cycle of the calculation processing unit 11. By doing so, the B-th provisional estimated value αb of the third reference angle α is calculated.
なお、第B暫定推定値αbは、車両1の運転開始時等に初期化される。この場合、第B暫定推定値αbの初期値としては、例えば、車両1が水平な路面上に停車した状態での第3参照角度αの値としてあらじめ定められた値(例えば“0”)、あるいは、前回の車両1の運転時に最終的に算出された第3参照角度αの値が設定される。 The B-th provisional estimated value αb is initialized when the vehicle 1 starts to operate. In this case, as an initial value of the B-th provisional estimated value αb, for example, a value (for example, “0”) defined in advance as the value of the third reference angle α when the vehicle 1 is stopped on a horizontal road surface. ) Or the value of the third reference angle α finally calculated during the previous driving of the vehicle 1 is set.
以上説明した第3参照角度第A推定部17a及び第3参照角度第B推定部17bの処理によって、並進移動ベクトル↑tに基づく第3参照角度αの第A暫定推定値αaと、回転行列Rに基づく第3参照角度αの第B暫定推定値αbとが所定の演算処理周期で逐次算出される。 Through the processing of the third reference angle A estimation unit 17a and the third reference angle B estimation unit 17b described above, the A provisional estimated value αa of the third reference angle α based on the translation vector ↑ t and the rotation matrix R And the B provisional estimated value αb of the third reference angle α based on the above are sequentially calculated at a predetermined calculation processing cycle.
ここで、並進移動ベクトル↑tに基づく第A暫定推定値αaは、車両1の車体の姿勢の瞬時的な変動の影響を直接的に受けるため、実際の第3参照角度に対して瞬時的なずれを生じやすいものの、実際の第3参照角度αに対する定常的なオフセットは一般には生じない。 Here, since the A-th provisional estimated value αa based on the translational movement vector ↑ t is directly affected by the instantaneous fluctuation of the posture of the vehicle body of the vehicle 1, it is instantaneous with respect to the actual third reference angle. Although a deviation is likely to occur, a steady offset with respect to the actual third reference angle α generally does not occur.
一方、回転行列Rに基づく第B暫定推定値αbの波形は、実際の第3参照角度αの波形に比較的精度よく合致するものの、実際の第3参照角度αに対して定常的なオフセットを生じやすい。このオフセットは、αbの初期値の誤差、あるいは、瞬時的な誤差の累積に起因するものである。 On the other hand, the waveform of the B-th provisional estimated value αb based on the rotation matrix R matches the actual third reference angle α relatively accurately, but has a steady offset with respect to the actual third reference angle α. Prone to occur. This offset is caused by an error in the initial value of αb or an accumulation of instantaneous errors.
そこで、本実施形態では、第A暫定推定値αa及び第B暫定推定値αbの上記の性状を踏まえて、第3参照角度推定部17は、以下に説明する如く第3参照角度αの推定値を逐次決定する。 Therefore, in the present embodiment, based on the above-described properties of the A-th provisional estimated value αa and the B-th provisional estimated value αb, the third reference angle estimation unit 17 estimates the third reference angle α as described below. Are sequentially determined.
すなわち、第3参照角度推定部17は、現在時刻から所定時間前までの期間で算出された第A暫定推定値αaと第B暫定推定値αbとを時系列的に記憶保持する。この場合、記憶保持される第A暫定推定値αaと第B暫定推定値αbとは、新たな(最新の)αa,αbが算出される毎に更新される。 That is, the third reference angle estimation unit 17 stores and holds the A-th provisional estimated value αa and the B-th provisional estimated value αb calculated in a period from the current time to a predetermined time before in time series. In this case, the stored A-th provisional estimated value αa and B-th provisional estimated value αb are updated each time new (latest) αa and αb are calculated.
そして、第3参照角度推定部17は、まず、記憶保持したαa,αbの時系列データのうち、所定の時間間隔の期間分の最新のデータ(現在時刻から所定の時間間隔前の過去時刻までの期間内のデータ)を抽出し、その抽出したαa,αbのそれぞれのデータの平均値を算出する。すなわち、第3参照角度推定部17は、現在時刻から所定の時間間隔前の過去時刻までの期間内のαaの平均値αa_aveとαbの平均値αb_aveとを算出する。なお、上記所定の時間間隔は、一定時間でもよいが、本実施形態では、例えば車両1の車速に応じて設定する(車速が大きいほど、上記所定の時間間隔を短い時間間隔に設定する)。 The third reference angle estimator 17 first stores the latest data for a predetermined time interval (from the current time to the past time before the predetermined time interval) among the time-series data of αa and αb stored and held. Data within the period of time) is extracted, and the average value of the extracted data of αa and αb is calculated. That is, the third reference angle estimation unit 17 calculates the average value αa_ave of αa and the average value αb_ave of αb in the period from the current time to the past time before a predetermined time interval. The predetermined time interval may be a fixed time, but in the present embodiment, for example, it is set according to the vehicle speed of the vehicle 1 (the higher the vehicle speed, the shorter the predetermined time interval is set).
次いで、第3参照角度推定部17は、第A暫定推定値αaの平均値αa_aveと第B暫定推定値αbの平均値αb_aveとの偏差(=αa_ave−αb_ave)を算出する。そして、第3参照角度推定部17は、この偏差によって、現在時刻での第B暫定推定値αb(αbの最新値)を補正することによって、現在時刻での第3参照角度αの推定値を決定する。具体的には、第3参照角度推定部17は、上記偏差を現在時刻での第B暫定推定値αbに加算することによって、現在時刻での第3参照角度αの推定値を決定する。 Next, the third reference angle estimation unit 17 calculates a deviation (= αa_ave−αb_ave) between the average value αa_ave of the A-th provisional estimated value αa and the average value αb_ave of the B-th provisional estimated value αb. Then, the third reference angle estimation unit 17 corrects the B provisional estimated value αb (the latest value of αb) at the current time based on this deviation, thereby obtaining the estimated value of the third reference angle α at the current time. decide. Specifically, the third reference angle estimation unit 17 determines the estimated value of the third reference angle α at the current time by adding the deviation to the B-th provisional estimated value αb at the current time.
以上の第3参照角度推定部17の処理により、第3参照角度αの推定値が逐次決定される。なお、現在時刻から所定の時間間隔前の過去時刻までの期間内における各時刻でのαaとαbとの偏差を求め、その偏差の該期間内での平均値を求めることによって、第A暫定推定値αaの平均値αa_aveと第B暫定推定値αbの平均値αb_aveとの偏差(=αa_ave−αb_ave)を算出するようにしてもよい。 The estimated value of the third reference angle α is sequentially determined by the processing of the third reference angle estimation unit 17 described above. The A-th provisional estimation is obtained by calculating the deviation between αa and αb at each time in the period from the current time to the past time before the predetermined time interval, and obtaining the average value of the deviation within the period. The deviation (= αa_ave−αb_ave) between the average value αa_ave of the values αa and the average value αb_ave of the B-th provisional estimated value αb may be calculated.
第1〜第3参照角度推定部15〜17でそれぞれ上記の如く求められた第1参照角度γの推定値、第2参照角度θの推定値、第3参照角度αの推定値は、前記距離推定部18に入力される。そして、該距離推定部18は、これらの入力値から対象物53と自車両1との間の距離Dの推定値を算出する。 The estimated value of the first reference angle γ, the estimated value of the second reference angle θ, and the estimated value of the third reference angle α obtained by the first to third reference angle estimators 15 to 17 as described above are the distances, respectively. Input to the estimation unit 18. The distance estimation unit 18 calculates an estimated value of the distance D between the object 53 and the host vehicle 1 from these input values.
具体的には、距離推定部18は、第2参照角度θの推定値から第3参照角度αの推定値を減算することにより(前記式(13)により)、図2(a)に示した角度β、すなわち図中の直線L2(又は前記対象物存在仮想路面Sa)が自車両存在路面51に対してなす角度βの推定値を算出する。そして、距離測定値算出部18は、この角度βの推定値と、第1参照角度γの推定値と、第3参照角度αの推定値と、カメラ高Hcの値とから、前記式(2)により、対象物53と自車両1との間の距離Dの推定値を算出する。 Specifically, the distance estimator 18 subtracts the estimated value of the third reference angle α from the estimated value of the second reference angle θ (according to the above equation (13)), as shown in FIG. An estimated value of the angle β, that is, the angle β formed by the straight line L2 (or the object existence virtual road surface Sa) in the drawing with respect to the own vehicle existence road surface 51 is calculated. Then, the distance measurement value calculation unit 18 calculates the above equation (2) from the estimated value of the angle β, the estimated value of the first reference angle γ, the estimated value of the third reference angle α, and the value of the camera height Hc. ) To calculate the estimated value of the distance D between the object 53 and the host vehicle 1.
以上が本実施形態における演算処理ユニット11が実行する処理の詳細である。この処理によって、車両1の前方の路面に自車両1との間の距離を測定しようとする対象物53が存在する場合に、その対象物53と自車両1との間の距離Dが逐次、測定されることとなる。 The above is the detail of the process which the arithmetic processing unit 11 in this embodiment performs. By this processing, when there is an object 53 to be measured for the distance to the host vehicle 1 on the road surface in front of the vehicle 1, the distance D between the target object 53 and the host vehicle 1 is successively determined. Will be measured.
ここで、本実施形態と本発明との対応関係について補足しておく。本実施形態では、前記測距用特徴点抽出部13、カメラ運動推定部14、第1参照角度推定部15、第2参照角度推定部16、第3参照角度推定部17、距離推定部18によって、それぞれ、本発明における測距用特徴点抽出手段、カメラ運動パラメータ計測手段、第1参照角度推定手段、第2参照角度推定手段、第3参照角度推定手段、距離推定手段が実現される。 Here, a supplementary description will be given of the correspondence between the present embodiment and the present invention. In the present embodiment, the distance measurement feature point extraction unit 13, the camera motion estimation unit 14, the first reference angle estimation unit 15, the second reference angle estimation unit 16, the third reference angle estimation unit 17, and the distance estimation unit 18 The feature point extracting means for ranging, the camera motion parameter measuring means, the first reference angle estimating means, the second reference angle estimating means, the third reference angle estimating means, and the distance estimating means according to the present invention are realized.
さらに、第3参照角度第A推定部17a、第3参照角度第B推定部17bによって、それぞれ、本発明における第3参照角度第A推定手段、第3参照角度第B推定手段が実現される。 Furthermore, the third reference angle A estimation unit 17a and the third reference angle B estimation unit 17b according to the present invention are realized by the third reference angle A estimation unit 17a and the third reference angle B estimation unit 17b, respectively.
以上説明した実施形態によれば、第1参照角度γ及び第3参照角度αに加えて、前記第2参照角度θを推定することにより、車両1の前方の対象物存在路面52の勾配の度合いを対象物53と自車両1との間の距離Dの推定処理に反映させて、該距離Dの推定値を前記式(2)により求めることができる。このため、自車両存在路面51に対する対象物存在路面53の勾配の影響を適切に補償して、対象物53と自車両1との間の距離Dを精度よく測定することができる。 According to the embodiment described above, the degree of the gradient of the object existing road surface 52 ahead of the vehicle 1 by estimating the second reference angle θ in addition to the first reference angle γ and the third reference angle α. Can be reflected in the estimation process of the distance D between the object 53 and the host vehicle 1, and the estimated value of the distance D can be obtained by the equation (2). For this reason, the influence D of the gradient of the object existing road surface 53 with respect to the own vehicle existing road surface 51 can be appropriately compensated, and the distance D between the object 53 and the own vehicle 1 can be accurately measured.
また、対象物53と自車両1との間の距離Dを推定するために用いる第2参照角度θを、単一の車載カメラ2による撮像画像を利用して推定することができるので、その推定のための専用的なセンサ等を必要とすることなく、第3参照角度θを推定することができる。 Moreover, since the 2nd reference angle (theta) used in order to estimate the distance D between the target object 53 and the own vehicle 1 can be estimated using the picked-up image by the single vehicle-mounted camera 2, the estimation The third reference angle θ can be estimated without requiring a dedicated sensor or the like.
また、対象物53と自車両1との間の距離Dを推定するために用いる第3参照角度αの推定処理においては、所定の演算処理周期で算出される前記第B暫定推定値αbを、現在時刻から所定の時間間隔前の過去時刻までの期間内における前記第A暫定推定値αaの平均値αa_aveと第B暫定推定値αbの平均値αb_aveとの偏差(=αa_ave−αb_ave)の分だけ補正することによって、最終的な第3参照角度αの推定値が逐次決定される。 In the third reference angle α estimation process used to estimate the distance D between the object 53 and the host vehicle 1, the B-th provisional estimated value αb calculated at a predetermined calculation processing cycle is The difference (= αa_ave−αb_ave) between the average value αa_ave of the A-th provisional estimated value αa and the average value αb_ave of the B-th estimated value αb within the period from the current time to the past time before a predetermined time interval. By correcting, the final estimated value of the third reference angle α is sequentially determined.
これにより、第3参照角度αの推定値は、第B暫定推定値αbの初期値の誤差や、瞬時的な誤差の累積に起因して該第B暫定推定値αbが第3参照角度αの実際の値に対して生じるオフセット分を、第B暫定推定値αbから除去したものとなるように決定されることとなる。このため、第3参照角度αの実際の値に精度よく合致する推定値を得ることができる。 As a result, the estimated value of the third reference angle α is determined so that the B-th provisional estimated value αb is equal to the third reference angle α due to the initial value error of the B-th provisional estimated value αb or the accumulation of instantaneous errors. The offset generated with respect to the actual value is determined so as to be removed from the B-th provisional estimated value αb. Therefore, an estimated value that accurately matches the actual value of the third reference angle α can be obtained.
また、上記偏差(=αa_ave−αb_ave)を求めるために使用するαa、αbのサンプリング期間を規定する前記所定の時間間隔が、車速が大きいほど、短い時間に設定される。このため、該所定の時間間隔の期間は、その期間内での自車両1の車体の姿勢(特にピッチ方向の姿勢)に大きな変動が生じ難い期間に設定される。 Further, the predetermined time interval that defines the sampling periods of αa and αb used for obtaining the deviation (= αa_ave−αb_ave) is set to a shorter time as the vehicle speed increases. For this reason, the period of the predetermined time interval is set to a period in which a large variation is unlikely to occur in the posture of the vehicle 1 (particularly the posture in the pitch direction) within the period.
この結果、第A暫定推定値αa及び第B暫定推定値αbの信頼性の高い(S/N比の高い)平均値αa_ave,αb_aveを使用して、上記偏差(=αa_ave−αb_ave)を算出することができる。このため、第3参照角度αの推定値の精度を効果的に高めることができる。 As a result, the deviation (= αa_ave−αb_ave) is calculated using the average values αa_ave and αb_ave with high reliability (high S / N ratio) of the A-th provisional estimated value αa and the B-th provisional estimated value αb. be able to. For this reason, the accuracy of the estimated value of the third reference angle α can be effectively increased.
ひいては、本実施形態によれば、単一の車載カメラ2を使用した安価な構成で、対象物53と自車両1との間の距離Dを精度よく推定できる。 As a result, according to the present embodiment, the distance D between the object 53 and the host vehicle 1 can be accurately estimated with an inexpensive configuration using the single vehicle-mounted camera 2.
なお、以上説明した実施形態では、第3参照角度αを逐次推定するようにしたが、車両1が平坦な路面上を定常走行しているような状況では、第3参照角度αの値は、ほぼ一定に維持される。そして、その第3参照角度αの値は、車体に対する車載カメラ2の取付姿勢により規定される既知の値となる。従って、このような状況では、第3参照角度αを逐次推定せずとも、該αの値をあらかじめ定められた既定値として、対象物53と自車両1との距離Dを推定するようにしてもよい。 In the embodiment described above, the third reference angle α is sequentially estimated. However, in a situation where the vehicle 1 is traveling on a flat road surface, the value of the third reference angle α is It is maintained almost constant. The value of the third reference angle α is a known value defined by the mounting posture of the in-vehicle camera 2 with respect to the vehicle body. Therefore, in such a situation, the distance D between the object 53 and the host vehicle 1 is estimated using the value of α as a predetermined default value without sequentially estimating the third reference angle α. Also good.
また、前記実施形態では、対象物53を歩行者とした場合を例にとって説明したが、対象物53は歩行者以外の移動体、例えば、歩行者以外の動物や他車両等であってもよい。あるいは、対象物53は、固定接地物(静止物)であってもよい。対象物53が固定接地物である場合には、測距用特徴点抽出部13の処理では、前記した如く、対象物53の接地点を各撮像画像に投影してなる点を前記特徴点P1,P2として使用してもよい。 Moreover, although the said embodiment demonstrated taking the case where the target object 53 was made into the pedestrian as an example, the target object 53 may be moving bodies other than a pedestrian, for example, animals other than a pedestrian, other vehicles, etc. . Alternatively, the object 53 may be a fixed ground object (stationary object). In the case where the object 53 is a fixed ground object, in the process of the distance measurement feature point extraction unit 13, as described above, a point obtained by projecting the ground point of the object 53 onto each captured image is the feature point P1. , P2 may be used.
1…車両、2…車載カメラ、10…測距装置、13…測距用特徴点抽出部(測距用特徴点抽出手段)、14…カメラ運動推定部(カメラ運動パラメータ計測手段)、15…第1参照角度推定部(第1参照角度推定手段)、16…第2参照角度推定部(第2参照角度推定手段)、17…第3参照角度推定部(第3参照角度推定手段)、17a…第3参照角度第A推定部(第3参照角度第A推定手段)、17b…第3参照角度第B推定部(第3参照角度第B推定手段)、18…距離推定部(距離推定手段)。 DESCRIPTION OF SYMBOLS 1 ... Vehicle, 2 ... Car-mounted camera, 10 ... Distance measuring device, 13 ... Feature point extraction part for distance measurement (feature point extraction means for distance measurement), 14 ... Camera motion estimation part (camera motion parameter measurement means), 15 ... 1st reference angle estimation part (1st reference angle estimation means), 16 ... 2nd reference angle estimation part (2nd reference angle estimation means), 17 ... 3rd reference angle estimation part (3rd reference angle estimation means), 17a ... 3rd reference angle A estimation part (3rd reference angle A estimation means), 17b ... 3rd reference angle B estimation part (3rd reference angle B estimation means), 18 ... Distance estimation part (distance estimation means) ).
Claims (5)
互いに異なる撮像時刻で前記車載カメラにより撮像された2つの撮像画像から、前記対象物が存在する路面である対象物存在路面上の静止点であって、自車両からの距離が前記2つの撮像画像のうちの一方である第1撮像画像の撮像時刻での前記対象物の接地点と同じになる静止点を前記2つの撮像画像にそれぞれ投影してなる特徴点を抽出して、前記2つの撮像画像のそれぞれにおける該特徴点の位置を特定する測距用特徴点抽出手段と、
前記2つの撮像画像のそれぞれの撮像時刻の間の期間における前記車載カメラの位置及び姿勢の変化を表すカメラ運動パラメータを計測するカメラ運動パラメータ計測手段と、
前記第1撮像画像において特定された前記特徴点の位置に基づき、前記車載カメラから前記静止点に至る直線が該車載カメラの光軸に対してなす角度である第1参照角度の値を推定する第1参照角度推定手段と、
前記カメラ運動パラメータと、前記2つの撮像画像のそれぞれにおける前記特徴点の位置と、前記車載カメラの高さと、前記第1撮像画像の撮像時刻において前記自車両が存在する路面である自車両存在路面のうちの前記車載カメラの下方に位置する点から前記静止点に至る直線が前記車載カメラの光軸に対してなす角度である第2参照角度との間の関係を表す演算式に基づいて、前記カメラ運動パラメータの計測値と、前記2つの撮像画像のそれぞれにおいて特定された前記特徴点の位置と、前記車載カメラの高さの設定値とから、該演算式における未知数としての前記第2参照角度の値を推定する第2参照角度推定手段と、
少なくとも前記第1参照角度の推定値と、前記第2参照角度の推定値と、前記車載カメラの高さの設定値とから前記対象物と自車両との間の距離を推定する距離推定手段とを備えることを特徴とする測距装置。 A distance measuring device that measures a distance between an object on a road surface imaged by an in-vehicle camera and the vehicle on which the in-vehicle camera is mounted,
From two captured images captured by the in-vehicle camera at different image capturing times, the two captured images are stationary points on the object existing road surface that is the road surface on which the object exists, and the distance from the own vehicle is the two captured images. A feature point formed by projecting a stationary point that is the same as the ground contact point of the object at the imaging time of the first captured image, which is one of the two, to each of the two captured images is extracted, and the two image capturing is performed. Distance measurement feature point extracting means for specifying the position of the feature point in each of the images;
Camera motion parameter measuring means for measuring camera motion parameters representing changes in the position and orientation of the in-vehicle camera in a period between the respective imaging times of the two captured images;
Based on the position of the feature point specified in the first captured image, a value of a first reference angle that is an angle formed by a straight line from the in-vehicle camera to the stationary point with respect to the optical axis of the in-vehicle camera is estimated. First reference angle estimation means;
The own vehicle existence road surface, which is the road surface on which the own vehicle exists at the imaging time of the first captured image, the position of the feature point in each of the two captured images, the height of the in-vehicle camera, and the imaging time of the first captured image Based on an arithmetic expression representing a relationship between a second reference angle that is an angle formed with respect to the optical axis of the in-vehicle camera from a point located below the in-vehicle camera to the stationary point From the measured value of the camera motion parameter, the position of the feature point specified in each of the two captured images, and the set value of the height of the in-vehicle camera, the second reference as an unknown in the arithmetic expression Second reference angle estimation means for estimating an angle value;
Distance estimating means for estimating a distance between the object and the host vehicle from at least an estimated value of the first reference angle, an estimated value of the second reference angle, and a set value of a height of the in-vehicle camera; A distance measuring device comprising:
前記カメラ運動パラメータ計測手段は、前記2つの撮像画像のそれぞれの撮像時刻の間の期間における前記車載カメラの位置の変位ベクトルである並進移動ベクトルと、該車載カメラの姿勢の角度変化量を表す回転行列とを前記カメラ運動パラメータとして計測する手段であり、
前記第2参照角度推定手段は、前記演算式としての次式(10a)〜(10c)に基づいて前記第2参照角度の値を推定することを特徴とする測距装置。
The camera motion parameter measuring means is a translation vector that is a displacement vector of the position of the in-vehicle camera in a period between the respective imaging times of the two captured images, and a rotation that represents an angle change amount of the attitude of the in-vehicle camera. A means for measuring a matrix as the camera motion parameter,
The second reference angle estimation means estimates the value of the second reference angle based on the following expressions (10a) to (10c) as the arithmetic expressions.
前記第1撮像画像の撮像時刻での前記車載カメラの光軸が前記自車両存在路面に対してなす角度である第3参照角度の値を推定する第3参照角度推定手段をさらに備え、
前記距離推定手段は、前記第1参照角度の推定値と、前記第2参照角度の推定値と、前記第3参照角度の推定値と、前記車載カメラの高さの設定値とから前記対象物と自車両との間の距離を推定することを特徴とする測距装置。 The distance measuring device according to claim 1,
Further comprising third reference angle estimation means for estimating a value of a third reference angle, which is an angle formed by the optical axis of the vehicle-mounted camera at the imaging time of the first captured image with respect to the own vehicle existing road surface,
The distance estimating means is configured to calculate the object based on the estimated value of the first reference angle, the estimated value of the second reference angle, the estimated value of the third reference angle, and the set value of the height of the in-vehicle camera. A distance measuring device for estimating a distance between the vehicle and the host vehicle.
前記カメラ運動パラメータ計測手段は、前記2つの撮像画像のそれぞれの撮像時刻の間の期間における前記車載カメラの位置の変位ベクトルである並進移動ベクトルを前記カメラ運動パラメータの構成要素として計測する手段であり、
前記第3参照角度推定手段は、少なくとも前記計測された並進移動ベクトルの、前記車載カメラの光軸に対する向きに基づいて前記第3参照角度の値を推定することを特徴とする測距装置。 The distance measuring device according to claim 3,
The camera motion parameter measuring unit is a unit that measures, as a component of the camera motion parameter, a translation vector that is a displacement vector of the position of the vehicle-mounted camera in a period between the imaging times of the two captured images. ,
The distance measuring device, wherein the third reference angle estimating means estimates a value of the third reference angle based on at least a direction of the measured translational movement vector with respect to an optical axis of the in-vehicle camera.
前記カメラ運動パラメータ計測手段は、前記2つの撮像画像のそれぞれの撮像時刻の間の期間における前記車載カメラの位置の変位ベクトルである並進移動ベクトルと、該車載カメラの姿勢の角度変化量を表す回転行列とを前記カメラ運動パラメータとして逐次計測する手段であり、
前記計測された並進移動ベクトルの、前記車載カメラの光軸に対する向きに基づいて、前記第3参照角度の第A暫定推定値を逐次求める第3参照角度第A推定手段と、前記計測された回転行列により示される角度変化量を積算することによって前記第3参照角度の第B暫定推定値を逐次求める第3参照角度第B推定手段とをさらに備え、
前記第3参照角度推定手段は、前記第3参照角度の第A暫定推定値の所定期間分の平均値と第B暫定推定値の該所定期間分の平均値との偏差を算出し、該偏差に応じて前記第B暫定推定値を補正することにより前記第3参照角度の推定値を決定することを特徴とする測距装置。 The distance measuring device according to claim 3,
The camera motion parameter measuring means is a translation vector that is a displacement vector of the position of the in-vehicle camera in a period between the respective imaging times of the two captured images, and a rotation that represents an angle change amount of the attitude of the in-vehicle camera. A means for sequentially measuring a matrix as the camera motion parameter,
Third reference angle A estimation means for successively obtaining an A provisional estimated value of the third reference angle based on the direction of the measured translational movement vector with respect to the optical axis of the in-vehicle camera, and the measured rotation Further comprising third reference angle B estimation means for successively obtaining the B provisional estimated value of the third reference angle by integrating the amount of angle change indicated by the matrix,
The third reference angle estimation means calculates a deviation between an average value of the A reference provisional value of the third reference angle for a predetermined period and an average value of the B provisional estimation value for the predetermined period, and the deviation And determining the estimated value of the third reference angle by correcting the B-th provisional estimated value in accordance with the distance measuring device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011132593A JP5587250B2 (en) | 2011-06-14 | 2011-06-14 | Ranging device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011132593A JP5587250B2 (en) | 2011-06-14 | 2011-06-14 | Ranging device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013002883A true JP2013002883A (en) | 2013-01-07 |
JP5587250B2 JP5587250B2 (en) | 2014-09-10 |
Family
ID=47671617
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011132593A Expired - Fee Related JP5587250B2 (en) | 2011-06-14 | 2011-06-14 | Ranging device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5587250B2 (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015079388A (en) * | 2013-10-17 | 2015-04-23 | 株式会社デンソーアイティーラボラトリ | Inter-vehicle distance measurement apparatus, inter-vehicle distance measurement method, and program |
JP2015215299A (en) * | 2014-05-13 | 2015-12-03 | 株式会社デンソー | Object position estimation device |
WO2017141325A1 (en) * | 2016-02-15 | 2017-08-24 | 三菱電機株式会社 | Information processing device and information processing method |
JP2017219513A (en) * | 2016-06-10 | 2017-12-14 | トヨタ自動車株式会社 | Vehicle drive support device |
CN109367483A (en) * | 2017-08-09 | 2019-02-22 | 安波福电子(苏州)有限公司 | A kind of adaptive vehicle-mounted of angle gets a bird's eye view system and its implementation |
JP2022050311A (en) * | 2020-12-21 | 2022-03-30 | ペキン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド | Method for detecting lane change of vehicle, system, electronic apparatus, storage medium, roadside machine, cloud control platform, and computer program |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08136237A (en) * | 1994-11-10 | 1996-05-31 | Nissan Motor Co Ltd | Device for calculating gradient of road and car speed controller |
JP2003065740A (en) * | 2001-08-27 | 2003-03-05 | Nissan Motor Co Ltd | Device for determining slope of forward road |
JP2003247824A (en) * | 2002-02-22 | 2003-09-05 | Nissan Motor Co Ltd | On-vehicle range finder |
JP2005030968A (en) * | 2003-07-08 | 2005-02-03 | Nissan Motor Co Ltd | Device for calculating vehicle-mounted distance |
WO2005043081A1 (en) * | 2003-10-31 | 2005-05-12 | Fujitsu Limited | Distance calculation device and calculation program |
JP2006194677A (en) * | 2005-01-12 | 2006-07-27 | Macnica Inc | Computing device and computing method of road surface angle |
JP2006350897A (en) * | 2005-06-20 | 2006-12-28 | Toyota Central Res & Dev Lab Inc | Motion measurement device |
-
2011
- 2011-06-14 JP JP2011132593A patent/JP5587250B2/en not_active Expired - Fee Related
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08136237A (en) * | 1994-11-10 | 1996-05-31 | Nissan Motor Co Ltd | Device for calculating gradient of road and car speed controller |
JP2003065740A (en) * | 2001-08-27 | 2003-03-05 | Nissan Motor Co Ltd | Device for determining slope of forward road |
JP2003247824A (en) * | 2002-02-22 | 2003-09-05 | Nissan Motor Co Ltd | On-vehicle range finder |
JP2005030968A (en) * | 2003-07-08 | 2005-02-03 | Nissan Motor Co Ltd | Device for calculating vehicle-mounted distance |
WO2005043081A1 (en) * | 2003-10-31 | 2005-05-12 | Fujitsu Limited | Distance calculation device and calculation program |
JP2006194677A (en) * | 2005-01-12 | 2006-07-27 | Macnica Inc | Computing device and computing method of road surface angle |
JP2006350897A (en) * | 2005-06-20 | 2006-12-28 | Toyota Central Res & Dev Lab Inc | Motion measurement device |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015079388A (en) * | 2013-10-17 | 2015-04-23 | 株式会社デンソーアイティーラボラトリ | Inter-vehicle distance measurement apparatus, inter-vehicle distance measurement method, and program |
JP2015215299A (en) * | 2014-05-13 | 2015-12-03 | 株式会社デンソー | Object position estimation device |
WO2017141325A1 (en) * | 2016-02-15 | 2017-08-24 | 三菱電機株式会社 | Information processing device and information processing method |
JP6312953B2 (en) * | 2016-02-15 | 2018-04-18 | 三菱電機株式会社 | Information processing apparatus and information processing method |
JPWO2017141325A1 (en) * | 2016-02-15 | 2018-07-12 | 三菱電機株式会社 | Information processing apparatus and information processing method |
JP2017219513A (en) * | 2016-06-10 | 2017-12-14 | トヨタ自動車株式会社 | Vehicle drive support device |
CN109367483A (en) * | 2017-08-09 | 2019-02-22 | 安波福电子(苏州)有限公司 | A kind of adaptive vehicle-mounted of angle gets a bird's eye view system and its implementation |
JP2022050311A (en) * | 2020-12-21 | 2022-03-30 | ペキン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド | Method for detecting lane change of vehicle, system, electronic apparatus, storage medium, roadside machine, cloud control platform, and computer program |
Also Published As
Publication number | Publication date |
---|---|
JP5587250B2 (en) | 2014-09-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5663411B2 (en) | Ranging device | |
JP5587250B2 (en) | Ranging device | |
EP2485203B1 (en) | Vehicle-surroundings monitoring device | |
JP5804185B2 (en) | Moving object position / orientation estimation apparatus and moving object position / orientation estimation method | |
EP2933790A1 (en) | Moving object location/attitude angle estimation device and moving object location/attitude angle estimation method | |
JP5133783B2 (en) | In-vehicle device | |
US20150088378A1 (en) | Road surface condition estimating apparatus | |
JP5570902B2 (en) | Vehicle pitch angle estimation device | |
JP2017215193A (en) | Information processing device and method therefor | |
JP2009074859A (en) | Motion measuring device and position measuring device | |
US10991105B2 (en) | Image processing device | |
US20160207473A1 (en) | Method of calibrating an image detecting device for an automated vehicle | |
JP2024026547A5 (en) | Mobile terminal, terminal location estimation system, and terminal location estimation method | |
JP2014240266A (en) | Sensor drift amount estimation device and program | |
JP2014115247A (en) | Vehicle position estimation device and sensor information integration apparatus | |
JP2021193340A (en) | Self-position estimation device | |
JP5425500B2 (en) | Calibration apparatus and calibration method | |
JP5330341B2 (en) | Ranging device using in-vehicle camera | |
JP2010145219A (en) | Movement estimation device and program | |
US11740103B2 (en) | Map creation device, map creation system, map creation method, and storage medium | |
WO2020230314A1 (en) | Self-positioning correction method and self-positioning correction device | |
JP2013183311A (en) | Estimation device and detection system of attitude angle in on-vehicle camera | |
JP2004038760A (en) | Traveling lane recognition device for vehicle | |
JP5455037B2 (en) | Plane detection apparatus and detection method for detecting a plane from an image | |
JP2010002334A (en) | Road surface gradient estimating device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20131128 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140612 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140701 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140723 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5587250 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |