JP5663411B2 - Ranging device - Google Patents

Ranging device Download PDF

Info

Publication number
JP5663411B2
JP5663411B2 JP2011132594A JP2011132594A JP5663411B2 JP 5663411 B2 JP5663411 B2 JP 5663411B2 JP 2011132594 A JP2011132594 A JP 2011132594A JP 2011132594 A JP2011132594 A JP 2011132594A JP 5663411 B2 JP5663411 B2 JP 5663411B2
Authority
JP
Japan
Prior art keywords
distance
value
vehicle
estimated value
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011132594A
Other languages
Japanese (ja)
Other versions
JP2013002884A (en
Inventor
博 李
博 李
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2011132594A priority Critical patent/JP5663411B2/en
Publication of JP2013002884A publication Critical patent/JP2013002884A/en
Application granted granted Critical
Publication of JP5663411B2 publication Critical patent/JP5663411B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)

Description

本発明は車載カメラの撮像画像を用いて車両周辺に存在する対象物と自車両との間の距離を測定する測距装置に関する。   The present invention relates to a distance measuring device that measures a distance between an object existing around a vehicle and a host vehicle using a captured image of an in-vehicle camera.

車両の走行支援等を目的として、車両前部等に搭載される車載カメラによって車両周辺の撮像画像を取得し、その撮像画像を基に、車両周辺に存在する歩行者等の対象物と自車両との間の距離を測定する技術が従来より知られている。   For the purpose of driving support of the vehicle, a captured image around the vehicle is acquired by an in-vehicle camera mounted on the front part of the vehicle, and based on the captured image, an object such as a pedestrian existing around the vehicle and the own vehicle A technique for measuring the distance between the two is conventionally known.

その測距技術としては、例えば、特許文献1に見られる如く、ステレオカメラにより撮像したステレオ画像における対象物の視差を基に、対象物までの距離を測定する技術が一般に知られている。   As the distance measuring technique, for example, as shown in Patent Document 1, a technique for measuring the distance to an object based on the parallax of the object in a stereo image captured by a stereo camera is generally known.

また、単一のカメラを用いた測距技術としては、例えば特許文献2に見られる如く、対象物の画像の局所領域のサイズの時間的変化率に基づいて、対象物までの距離を測定する技術が本願出願人により提案されている。   As a distance measuring technique using a single camera, for example, as seen in Patent Document 2, the distance to the object is measured based on the temporal change rate of the size of the local area of the image of the object. Techniques have been proposed by the applicant.

特開2000−283753号公報JP 2000-283755 A 特開2009−265882号公報JP 2009-265882 A

特許文献1に見られる如き、ステレオカメラを使用した測距技術では、複数のカメラを必要とするとすると共に、それらのカメラの光軸の向き等の高精度なキャリブレーションを必要とする。このため、ステレオカメラを使用した測距システムは、一般に高価なものとなり、コスト的に不利である。   As shown in Patent Document 1, a distance measuring technique using a stereo camera requires a plurality of cameras and high-precision calibration of the direction of the optical axis of these cameras. For this reason, a ranging system using a stereo camera is generally expensive and disadvantageous in terms of cost.

また、特許文献2に見られる如き測距技術では、複数のカメラを必要とはしないものの、対象物の画像の局所領域のサイズの時間的変化率の計測の信頼性を高めるためには、そのサイズの変化が顕著に現れるような時間間隔で該サイズの時間的変化率を測定する必要がある。このため、その時間的変化率から推定される対象物までの距離が、実際の距離に対して遅れを生じやすい。さらに、上記サイズの時間的変化率を計測するために、互いに異なる時刻で撮像された撮像画像から抽出される対象物の画像の局所領域が、それらの撮像画像間でばらつきを生じやすい。このため、上記時間的変化率から推定される対象物までの距離の信頼性を高めることが困難である。   In addition, the distance measuring technique as disclosed in Patent Document 2 does not require a plurality of cameras, but in order to increase the reliability of measurement of the temporal change rate of the size of the local area of the image of the object, It is necessary to measure the temporal change rate of the size at a time interval in which the change in size appears prominently. For this reason, the distance to the object estimated from the temporal change rate tends to cause a delay with respect to the actual distance. Furthermore, in order to measure the temporal change rate of the size, local regions of the image of the object extracted from the captured images captured at different times tend to vary among the captured images. For this reason, it is difficult to increase the reliability of the distance to the object estimated from the temporal change rate.

本発明はかかる背景に鑑みてなされたものであり、単一の車載カメラによる撮像画像を利用する安価なシステム構成で、該車載カメラにより撮像される対象物と自車両と対象物との間の距離を高い信頼性で行なうことができる測距装置を提供することを目的とする。   The present invention has been made in view of such a background, and it is an inexpensive system configuration that uses an image captured by a single vehicle-mounted camera, and is provided between an object captured by the vehicle-mounted camera, the host vehicle, and the object. An object of the present invention is to provide a distance measuring device capable of performing distances with high reliability.

まず、本発明に関する基礎的な技術事項を説明しておく。   First, basic technical matters relating to the present invention will be described.

図1(a)に示すように、車載カメラ2を搭載した車両1が、平坦な路面51上を走行している状況を想定する。この状況では、車両1の前方の路面52上に、車両1(自車両1)からの距離Dを測定しようとする対象物53(図示例では歩行者)が存在している。   As shown in FIG. 1A, a situation is assumed in which a vehicle 1 equipped with an in-vehicle camera 2 is traveling on a flat road surface 51. In this situation, there is an object 53 (pedestrian in the illustrated example) on which the distance D from the vehicle 1 (the host vehicle 1) is to be measured on the road surface 52 in front of the vehicle 1.

この場合、対象物53が存在する路面52(対象物53が接地している路面52)は、車両1が存在する路面51(車両1が接地している路面51)と同じ平面上の路面(路面51と面一の路面)となっている。以降、路面51,52をそれぞれ自車両存在路面51、対象物存在路面52ということがある。   In this case, the road surface 52 on which the object 53 is present (the road surface 52 on which the object 53 is grounded) is the road surface on the same plane as the road surface 51 on which the vehicle 1 is present (the road surface 51 on which the vehicle 1 is grounded) ( Road surface 51 and the same road surface). Hereinafter, the road surfaces 51 and 52 may be referred to as the own vehicle existence road surface 51 and the target object existence road surface 52, respectively.

また、図1(b)は、図1(a)に示す状況において、車載カメラ2により撮像された撮像画像を概略的に示している。参照符号51a,52a,53aを付した部分が、それぞれ、自車両存在路面51、対象物存在路面52、対象物53の画像を示している。   Moreover, FIG.1 (b) has shown roughly the picked-up image imaged with the vehicle-mounted camera 2 in the condition shown to Fig.1 (a). The portions denoted by reference numerals 51a, 52a, and 53a indicate images of the own vehicle existence road surface 51, the object existence road surface 52, and the object 53, respectively.

図1(a)に示す状況において、図示の如く、対象物53の実空間でのサイズ(ここでは上下方向の全長(身長))をH53とする。また、この状況での撮像画像における対象物53の全体の画像53aにより示される該撮像画像中での対象物53のサイズ(上下方向の全長)をh53aとする。   In the situation shown in FIG. 1A, as shown, the size of the object 53 in the real space (here, the total length in the vertical direction (height)) is H53. In addition, the size (full length in the vertical direction) of the target object 53 in the captured image indicated by the entire image 53a of the target object 53 in the captured image in this situation is defined as h53a.

このとき、これらのH53及びh53aと、自車両1からの対象物53の距離D(自車両存在路面51に平行な方向での距離)との間には、次式(1)の関係が成立する。なお、Fは車載カメラ2の焦点距離である。   At this time, the relationship of the following equation (1) is established between these H53 and h53a and the distance D of the object 53 from the host vehicle 1 (distance in a direction parallel to the host vehicle existing road surface 51). To do. Note that F is a focal length of the in-vehicle camera 2.


D=F・(H53/h53a) …(1)

従って、実空間での対象物53のサイズH53(以降、対象物サイズH53ということがある)の値を特定すれば、そのH53の値と、対象物53の画像53aから得られる撮像画像中での対象物53のサイズh53a(以降、画像中対象物サイズh53aということがある)と、車載カメラ2の焦点距離Fの値(これは一般に既知の値としてあらかじめ設定できる)とから、式(1)により、対象物53と自車両1の距離Dを推定できる。

D = F · (H53 / h53a) (1)

Therefore, if the value of the size H53 of the object 53 in the real space (hereinafter, sometimes referred to as the object size H53) is specified, the value of H53 and the captured image obtained from the image 53a of the object 53 are included. From the size h53a of the target object 53 (hereinafter, sometimes referred to as the target size h53a in the image) and the value of the focal length F of the in-vehicle camera 2 (this can generally be set in advance as a known value), ), The distance D between the object 53 and the host vehicle 1 can be estimated.

ここで、一般的な対象物サイズH53は、多くの場合、該対象物53の種類に対応するある標準的なサイズの近辺の値となる。従って、対象物サイズH53の値として、対象物53の標準的なサイズ値(以降、対象物標準サイズ値H53sということがある)を使用すれば、次式(1a)により、対象物53と自車両1の距離Dを概略的に推定できることとなる。すなわち、実際の対象物サイズH53が、対象物標準サイズ値H53sにほぼ一致すると仮定することで、対象物標準サイズ値H53sと画像中対象物サイズh53aとの比率に基づいて、対象物53と自車両1との間の距離Dを次式(1a)により概略的に推定できることとなる。   Here, in many cases, the general object size H53 is a value around a certain standard size corresponding to the type of the object 53. Therefore, if the standard size value of the object 53 (hereinafter, sometimes referred to as the object standard size value H53s) is used as the value of the object size H53, the object 53 and the object size H53 are automatically calculated by the following equation (1a). The distance D of the vehicle 1 can be roughly estimated. That is, by assuming that the actual object size H53 substantially matches the object standard size value H53s, the object 53 and the object 53 are automatically compared with each other based on the ratio between the object standard size value H53s and the object size h53a in the image. The distance D to the vehicle 1 can be roughly estimated by the following equation (1a).


D=F・(H53s/h53a) …(1a)

この場合、対象物53の対象物標準サイズ値H53sとしては、該対象物53が属する対象物種類において、一般的に知られている対象物サイズH53の平均的な値を使用すればよい。

D = F · (H53s / h53a) (1a)

In this case, as the object standard size value H53s of the object 53, an average value of a generally known object size H53 may be used for the object type to which the object 53 belongs.

補足すると、上記の説明では、対象物サイズH53を対象物53の上下方向での全長としたが、対象物53の種類によっては、H53は、対象物53の横方向の長さ、あるいは、斜め方向の長さであってもよい。例えば対象物53が車両(他車両)である場合には、H53は対象物53の幅方向の全長(車幅)であってもよい。対象物サイズH53は、基本的には、対象物53が属する対象物種類において、その値の分散(ばらつき)が比較的小さく、また、撮像画像中での対象物53の当該サイズ(画像中対象物サイズ)h53aを容易に特定し得るような長さ(自車両1との距離Dを測定しようとする対象物53の種類毎にあらかじめ定めた所定方向の長さ)であることが好ましい。   Supplementally, in the above description, the object size H53 is the total length in the vertical direction of the object 53. However, depending on the type of the object 53, H53 may be the horizontal length of the object 53 or an oblique direction. It may be the length in the direction. For example, when the object 53 is a vehicle (another vehicle), H53 may be the total length (vehicle width) of the object 53 in the width direction. The object size H53 basically has a relatively small variance (variation) in the value of the object type to which the object 53 belongs, and the size of the object 53 in the captured image (the object in the image). The object size) is preferably a length that can easily specify h53a (a length in a predetermined direction determined in advance for each type of the object 53 to be measured for the distance D to the host vehicle 1).

以降の説明では、上記の如く式(1a)により対象物53と自車両1との間の距離Dを推定する手法を第1測距手法という。そして、この第1測距手法により推定される距離Dを第1距離推定値D1という。この第1測距手法は、それにより推定される第1距離推定値D1の誤差が、対象物標準サイズ値H53sに対する実際の対象物サイズH53の値の誤差に依存し、車両1の走行時の車載カメラ2の光軸Lcの向きの変動や、対象物存在路面52と自車両存在路面51との間の勾配の変化等の影響を受け難いという特性がある。   In the following description, the method for estimating the distance D between the object 53 and the host vehicle 1 by the equation (1a) as described above is referred to as a first distance measuring method. The distance D estimated by the first distance measuring method is referred to as a first distance estimated value D1. In the first distance measuring method, the error of the first distance estimated value D1 estimated thereby depends on the error of the actual object size H53 value with respect to the object standard size value H53s, and the vehicle 1 travels when the vehicle 1 travels. There is a characteristic that it is difficult to be affected by the change in the direction of the optical axis Lc of the in-vehicle camera 2 and the change in the gradient between the object existing road surface 52 and the host vehicle existing road surface 51.

従って、第1距離推定値D1の誤差は一定の誤差範囲に収まる。より詳しくは、一般的な対象物サイズH53の既知の最大値をH53max、最小値をH53minとすると、第1距離推定値D1の誤差は、次式(2)で示す如く、((H53s/H53max)−1)・100[%]と((H53s/H53min)−1)・100[%]との間の範囲内に収まる。この場合、H53s/H53maxは、H53=H53maxと仮定して前記式(1)により算出される距離Dの値に対する第1距離推定値D1の比率に一致するものである。同様に、H53s/H53minは、H53=H53minと仮定して前記式(1)により算出される距離Dの値に対する第1距離推定値D1の比率に一致するものである。   Therefore, the error of the first distance estimated value D1 falls within a certain error range. More specifically, assuming that the known maximum value of the general object size H53 is H53max and the minimum value is H53min, the error of the first distance estimation value D1 is ((H53s / H53max ) -1) · 100 [%] and ((H53s / H53min) -1) · 100 [%]. In this case, H53s / H53max is equal to the ratio of the first estimated distance value D1 to the distance D value calculated by the equation (1) assuming that H53 = H53max. Similarly, H53s / H53min is equal to the ratio of the first estimated distance value D1 to the distance D value calculated by the equation (1) on the assumption that H53 = H53min.

なお、ここでは、第1距離推定値D1の誤差は、式(2)のただし書きで定義される誤差である。この場合、ただし書き中のDrは、対象物53と自車両1との間の実際の距離D(距離Dの真値)を意味する。   Here, the error of the first distance estimated value D1 is an error defined by the proviso of Expression (2). In this case, however, Dr being written means the actual distance D (the true value of the distance D) between the object 53 and the host vehicle 1.


((H53s/H53max)−1)・100[%]
≦第1距離推定値D1の誤差≦((H53s/H53min)−1)・100[%]
……(2)
ただし、
第1距離推定値D1の誤差≡((D1/Dr)−1)・100[%]

具体的な例を挙げると、対象物53が日本の成人の歩行者であるとし、対象物サイズH53を対象物53の上下方向の全長(身長)とした場合、一般的に知られている実際の対象物サイズH53の最大値H53maxと最小値H53minは、それぞれ210[cm]、120[cm]程度である。また、一般的に知られている日本の成人の平均身長は、164.7[cm]である。この場合、対象物標準サイズ値H53sとして日本の成人の平均身長(164.7[cm])を用いると、上記第1距離推定誤差は、次式(2a)に示す如く、−21.6[%]と37.3[%]との間の範囲内の値となる。

((H53s / H53max) -1) · 100 [%]
≦ Error of first distance estimated value D1 ≦ ((H53s / H53min) −1) · 100 [%]
(2)
However,
Error ≡ ((D1 / Dr) −1) · 100 [%] of first distance estimated value D1

As a specific example, when the object 53 is an adult pedestrian in Japan and the object size H53 is the total length (height) of the object 53 in the vertical direction, it is generally known. The maximum value H53max and the minimum value H53min of the object size H53 are about 210 [cm] and 120 [cm], respectively. Moreover, the average height of a generally known Japanese adult is 164.7 [cm]. In this case, when the average height (164.7 [cm]) of a Japanese adult is used as the object standard size value H53s, the first distance estimation error is −21.6 [ %] And 37.3 [%].


−21.6[%]≦第1距離推定値D1の誤差≦37.3[%] …(2a)

次に、図1(a)に示した状況において、図示の如く、車載カメラ2の光軸Lcが自車両存在路面51に対してなす角度をα、車載カメラ2から対象物53の接地点P53(対象物53と対象物存在路面52との接触点)に至る直線L1が車載カメラ2の光軸Lcに対してなす角度をγ、車載カメラ2の自車両存在路面51からの高さをHcとする。

-21.6 [%] ≤ error of first distance estimated value D1 ≤ 37.3 [%] (2a)

Next, in the situation shown in FIG. 1A, as shown, the angle formed by the optical axis Lc of the in-vehicle camera 2 with respect to the own vehicle existing road surface 51 is α, and the ground point P53 of the object 53 from the in-vehicle camera 2 is shown. The angle formed by the straight line L1 reaching (the contact point between the object 53 and the object existence road surface 52) with respect to the optical axis Lc of the in-vehicle camera 2 is γ, and the height of the in-vehicle camera 2 from the own vehicle existence road surface 51 is Hc. And

ここで、車載カメラ2の高さHc(以降、カメラ高Hcということがある)は、より詳しくは、車載カメラ2の光学中心Cの自車両存在路面51からの高さである。また、角度γに係わる上記直線L1は、より詳しくは、車載カメラ2の光学中心Cから対象物53の接地点P53に至る直線である。また、角度α,γは、より詳しくは、車載カメラ2の光軸Lcを含み、且つ、自車両存在路面51に対して垂直に起立する平面の法線方向の軸周りでの角度である。その角度α,γは、図1(a)に示す状況では、車両1のピッチ方向での角度(すなわち車両1の車幅方向の軸周りの角度)に相当する。   Here, the height Hc of the in-vehicle camera 2 (hereinafter sometimes referred to as the camera height Hc) is more specifically the height of the optical center C of the in-vehicle camera 2 from the own vehicle existing road surface 51. More specifically, the straight line L1 related to the angle γ is a straight line from the optical center C of the in-vehicle camera 2 to the ground point P53 of the object 53. More specifically, the angles α and γ are angles around the axis in the normal direction of a plane that includes the optical axis Lc of the in-vehicle camera 2 and stands upright with respect to the road surface 51 where the vehicle exists. The angles α and γ correspond to the angle in the pitch direction of the vehicle 1 (that is, the angle around the axis of the vehicle 1 in the vehicle width direction) in the situation shown in FIG.

そして、角度αは、車載カメラ2の光軸Lcが、車載カメラ2の光学中心Cを通って自車両存在路面51に平行な平面に対して斜め下向きに延在する状況(図1(a)に示す状況)で正の角度とし、車載カメラ2の光軸Lcが当該平面に対して斜め上向きに延在する状況で負の角度とする。また、角度γは、上記直線L1が、車載カメラ2の光軸Lcに対して斜め下向きに延在する状況で正の角度とし、該直線L1が車載カメラ2の光軸Lcに対して斜め下向きに延在する状況で負の角度とする。   The angle α is a situation in which the optical axis Lc of the in-vehicle camera 2 extends obliquely downward with respect to a plane parallel to the own vehicle existing road surface 51 through the optical center C of the in-vehicle camera 2 (FIG. 1A). In the situation shown in FIG. 2) and a negative angle in a situation where the optical axis Lc of the in-vehicle camera 2 extends obliquely upward with respect to the plane. The angle γ is a positive angle when the straight line L1 extends obliquely downward with respect to the optical axis Lc of the in-vehicle camera 2, and the straight line L1 is obliquely downward with respect to the optical axis Lc of the in-vehicle camera 2. A negative angle is assumed in the situation extending to

なお、図1(a)では、α≠0[deg]となっているが、α=0[deg]であってもよい。   In FIG. 1A, α ≠ 0 [deg], but α = 0 [deg] may be used.

上記のように角度α,γを定義したとき、対象物53の自車両1からの距離D(自車両存在路面51に平行な方向での距離)と、角度α,γと、カメラ高Hcとの間には、次式(3)の関係が成立する。   When the angles α and γ are defined as described above, the distance D of the object 53 from the host vehicle 1 (the distance in the direction parallel to the host vehicle existing road surface 51), the angles α and γ, and the camera height Hc The relationship of following Formula (3) is materialized between.


D=Hc/tan(α+γ) ……(3)

さらに、図2(a)に示すように、車両1の前方の路面の勾配が変化し、対象物存在路面52が、自車両存在路面51に対して勾配を有する路面(傾斜した路面)となっている状況を想定する。この状況は、対象物存在路面52の勾配状態だけが、図1(a)に示した状況と相違するものである。

D = Hc / tan (α + γ) (3)

Further, as shown in FIG. 2 (a), the gradient of the road surface ahead of the vehicle 1 changes, and the object existing road surface 52 becomes a road surface (inclined road surface) having a gradient with respect to the own vehicle existing road surface 51. Assuming the situation. This situation is different from the situation shown in FIG. 1A only in the gradient state of the object existence road surface 52.

なお、図2(b)は、図2(a)に示す状況において、車載カメラ2により撮像された撮像画像を概略的に示している。そして、図1(b)の場合と同様に、参照符号51a,52a,53aを付した部分が、それぞれ、自車両存在路面51、対象物存在路面52、対象物53の画像を示している。   In addition, FIG.2 (b) has shown roughly the picked-up image imaged with the vehicle-mounted camera 2 in the condition shown to Fig.2 (a). Similarly to the case of FIG. 1B, the portions denoted by reference numerals 51 a, 52 a, and 53 a indicate images of the own vehicle existence road surface 51, the object existence road surface 52, and the object 53, respectively.

図2(a)に示す状況において、図中の角度α,γは、図1(a)の状況と同様に定義される角度である。加えて、この状況において、自車両存在路面51のうちの車載カメラ2の下方に位置する点(詳しくは、車載カメラ2の光学中心Cから自車両存在路面51に降ろした垂線が自車両存在路面51と交わる点)から対象物53の接地点P53に至る直線L2が自車両存在路面51に対してなす角度をβ(>0)とする。   In the situation shown in FIG. 2A, angles α and γ in the figure are angles defined in the same manner as in the situation shown in FIG. In addition, in this situation, a point located below the in-vehicle camera 2 in the own vehicle existence road surface 51 (specifically, a vertical line dropped from the optical center C of the in-vehicle camera 2 to the own vehicle existence road surface 51 is the own vehicle existence road surface. The angle formed by the straight line L2 extending from the intersection 51 to the ground contact point P53 of the object 53 with respect to the own vehicle existing road surface 51 is β (> 0).

なお、角度βは、角度α、γと同様に、車載カメラ2の光軸Lcを含み、且つ、自車両存在路面51に対して垂直に起立する平面の法線方向の軸周りでの角度(図1(b)に示す状況では、車両1のピッチ方向の角度)である。   Note that the angle β is similar to the angles α and γ and includes an optical axis Lc of the in-vehicle camera 2 and an angle around a normal axis of a plane that stands perpendicular to the vehicle-existing road surface 51 ( In the situation shown in FIG. 1B, the angle of the vehicle 1 in the pitch direction).

上記のように角度α,γに加えて、角度βを定義したとき、対象物53の自車両1からの距離Dと、角度α,γ,βと、カメラ高Hcとの間には、次式(4)の関係が成立する。   When the angle β is defined in addition to the angles α and γ as described above, the distance D from the host vehicle 1 to the object 53, the angles α, γ, β, and the camera height Hc are as follows. The relationship of Formula (4) is materialized.


D=Hc/(tan(α+γ)+tanβ) ……(4)

この場合、式(2)において、β=0とすれば、式(4)は前記式(3)に一致する。そして、図1(a)に示した状況は、図2(a)におけるβを“0”とした状況に相当する。

D = Hc / (tan (α + γ) + tanβ) (4)

In this case, in the equation (2), if β = 0, the equation (4) matches the equation (3). The situation shown in FIG. 1A corresponds to the situation where β in FIG. 2A is set to “0”.

従って、図1(a)及び図2(a)のいずれの状況であっても、車載カメラ2のカメラ高Hcの値と、角度α,γ,βの値([rad]の単位での値)とが判れば、それらの値から上記式(2)の右辺の演算によって、対象物53と自車両1との間の距離Dを特定できることとなる。   Accordingly, in any of the situations shown in FIGS. 1A and 2A, the value of the camera height Hc of the in-vehicle camera 2 and the values of the angles α, γ, and β (values in units of [rad]) ), The distance D between the object 53 and the host vehicle 1 can be specified by the calculation of the right side of the above equation (2) from these values.

ここで、カメラ高Hcは、車両1の車体に対する車載カメラ2の取付位置によって規定されるので、一般には、その値は、既知の値として事前に設定しておくことができる。   Here, since the camera height Hc is defined by the mounting position of the in-vehicle camera 2 with respect to the vehicle body of the vehicle 1, in general, the value can be set in advance as a known value.

また、角度γは、車載カメラ2の撮像画像を基に推定することができる。具体的には、図1(b)又は図2(b)に示すように、対象物53の接地点P53を撮像画像に投影してなる点である画像上対象物接地点P53aと、撮像画像の画像中心Pca(車載カメラ2の撮像面と光軸Lcとの交点)との間の上下方向の位置偏差をΔyとすると、次式(5)が成立する。なお、Fは前記した通り、車載カメラ2の焦点距離である。   Further, the angle γ can be estimated based on the captured image of the in-vehicle camera 2. Specifically, as shown in FIG. 1B or FIG. 2B, the on-image object grounding point P53a, which is a point formed by projecting the grounding point P53 of the object 53 onto the captured image, and the captured image. Assuming that the vertical position deviation between the image center Pca (intersection of the imaging surface of the in-vehicle camera 2 and the optical axis Lc) is Δy, the following equation (5) is established. Note that F is the focal length of the in-vehicle camera 2 as described above.


tanγ=Δy/F ……(5)

従って、撮像画像において、画像上対象物接地点P53aと画像中心Pcaとの間の上下方向の位置偏差Δyを特定すれば、そのΔyの値と焦点距離Fの値とから上記式(5)に基づいて角度γを推定できることとなる。

tanγ = Δy / F (5)

Therefore, in the captured image, if the vertical position deviation Δy between the on-image object ground point P53a and the image center Pca is specified, the above equation (5) is obtained from the value of Δy and the value of the focal length F. Based on this, the angle γ can be estimated.

補足すると、対象物存在路面52上で、車両1からの距離が対象物53の接地点P53と同じになる任意の静止点(対象物存在路面52に対して固定された点)を車載カメラ2の撮像画像に投影してなる点は、例えば図1(b)又は図2(b)に示す如く、画像上対象物接地点P53aを通って撮像画像の横方向(水平方向)に延在するラインL53a上の点(例えば図中の点P1)となる。   Supplementally, on the object existence road surface 52, an in-vehicle camera 2 represents an arbitrary stationary point (a point fixed with respect to the object existence road surface 52) at which the distance from the vehicle 1 is the same as the ground contact point P53 of the object 53. For example, as shown in FIG. 1B or FIG. 2B, the point projected on the captured image extends in the horizontal direction (horizontal direction) of the captured image through the object grounding point P53a on the image. This is a point on the line L53a (for example, the point P1 in the figure).

この場合、この点(例えばP1)と、画像中心Pcaとの上下方向の間隔は、画像上対象物接地点P53aと画像中心Pcaとの上下方向の間隔Δyに一致する。従って、角度γは、上記静止点を撮像画像に投影してなる点(例えばP1)と画像中心Pcaとの間隔Δyから上記式(5)に基づいて推定することもできる。   In this case, the vertical distance between this point (for example, P1) and the image center Pca coincides with the vertical distance Δy between the image object grounding point P53a and the image center Pca. Therefore, the angle γ can also be estimated based on the equation (5) from the interval Δy between the point (for example, P1) obtained by projecting the stationary point on the captured image and the image center Pca.

従って、角度α、βの値を適宜の手法によって推定し、あるいは、あらかじめ定めた値に設定しておけば、その角度α、βの推定値又は設定値と、車載カメラ2の撮像画像から上記の如く推定される角度γの値を用いて、前記式(3)又は(4)により、対象物53と自車両1との間の距離Dを推定することができる。以降の説明では、このように角度γの推定値を用いて対象物53と自車両1との間の距離Dを推定する手法を第2測距手法という。また、この第2測距手法による距離Dの推定値を第2距離推定値D2という。   Therefore, if the values of the angles α and β are estimated by an appropriate method or set to predetermined values, the estimated values or set values of the angles α and β and the captured image of the in-vehicle camera 2 are used as described above. By using the value of the angle γ estimated as described above, the distance D between the object 53 and the host vehicle 1 can be estimated by the above formula (3) or (4). In the following description, the method for estimating the distance D between the object 53 and the host vehicle 1 using the estimated value of the angle γ is referred to as a second distance measuring method. Further, the estimated value of the distance D by the second distance measuring method is referred to as a second distance estimated value D2.

この第2測距手法は、車両1が、勾配の変化が無いか、もしくは勾配の変化が十分に小さい平坦な路面を定常走行しているような状況では、対象物53の種類や対象物サイズH53によらずに、対象物53と自車両1との間の距離Dを比較的精度よく推定することが可能である。   In the second distance measuring method, in the situation where the vehicle 1 is traveling on a flat road surface where there is no change in the gradient or the change in the gradient is sufficiently small, the type and size of the object 53 Regardless of H53, the distance D between the object 53 and the host vehicle 1 can be estimated with relatively high accuracy.

ただし、この第2測距手法に基づく第2距離推定値D2は、前記式(3)又は(4)から判るように、車両1の走行時の車体の姿勢の変動(ひいては、自車両走行路面51に対する車載カメラ2の光軸Lcの向きの上下変動)に伴う角度αの変動や、車両1が走行している路面の勾配の変化の影響を大きく受ける。従って、角度αや、路面の勾配の変化の推定値、あるいはそれらの設定値の誤差が、第2測距手法による第2距離推定値D2の精度に大きな影響を及ぼす。   However, the second distance estimated value D2 based on the second distance measuring method is, as can be seen from the above formula (3) or (4), the change in the posture of the vehicle body when the vehicle 1 is traveling (and consequently the own vehicle traveling road surface). 51 is greatly affected by fluctuations in the angle α accompanying the fluctuation in the direction of the optical axis Lc of the in-vehicle camera 2 with respect to 51 and changes in the gradient of the road surface on which the vehicle 1 is traveling. Accordingly, the angle α, the estimated value of the change in the slope of the road surface, or the error of those set values greatly affects the accuracy of the second distance estimated value D2 by the second distance measuring method.

より詳しくは、角度αの推定値もしくは設定値、あるいは、路面の勾配の変化の推定値(角度βもしくはこれを規定するパラメータの推定値)もしくは設定値の誤差が大きくなるに伴い、第2距離推定値D2の誤差の範囲が急激に拡大する傾向がある。   More specifically, as the estimated value or set value of the angle α, or the estimated value of the change in the slope of the road surface (the estimated value of the angle β or a parameter that defines this) or the error of the set value increases, the second distance There is a tendency that the error range of the estimated value D2 rapidly increases.

例えば、前記式(4)により第2距離推定値D2を算出するようにした場合、第2距離推定値D2の誤差の範囲は、図3に例示する如く、前記角度αとβとの合成角度(図2(a)に示す角度θ)の誤差のわずかな増加に伴い、急激に拡大する。   For example, when the second distance estimated value D2 is calculated by the equation (4), the error range of the second distance estimated value D2 is a combined angle of the angles α and β as illustrated in FIG. With a slight increase in error (angle θ shown in FIG. 2A), it expands rapidly.

図3は、対象物53と自車両1との間の実際の距離D(距離Dの真値)が、例えば30[m]である場合の例である。また、横軸の誤差(α+βの誤差)は絶対値である。そして、図3の上側の曲線a1と下側の曲線a2とは、それぞれ、横軸の誤差の極性が正である場合、負である場合の第2距離推定誤差を示す曲線である。なお、この場合、第2距離推定値D2の誤差は、第1距離推定値D1の誤差と同様に定義される誤差(前記式(2)のただし書きにおけるD1をD2に置き換えた式により定義される誤差)である。   FIG. 3 shows an example in which the actual distance D (the true value of the distance D) between the object 53 and the host vehicle 1 is 30 [m], for example. Further, the error on the horizontal axis (α + β error) is an absolute value. The upper curve a1 and the lower curve a2 in FIG. 3 are curves indicating the second distance estimation error when the horizontal axis error polarity is positive and negative, respectively. In this case, the error of the second distance estimated value D2 is defined by an error defined in the same manner as the error of the first distance estimated value D1 (an expression in which D1 in the proviso of the above equation (2) is replaced with D2. Error).

従って、角度αの推定値もしくは設定値、あるいは、路面の勾配の変化の推定値(角度βもしくはこれを規定するパラメータの推定値)もしくは設定値の誤差(以下、これらを総称的に角度αβ関連誤差という)がある程度大きくなると、第2距離推定値D2の誤差の範囲も大きくなる。ひいては、角度αβ関連誤差がある程度大きい状況では、前記第1距離推定値D1よりも第2距離推定値D2の誤差の範囲の方が大きくなり、第2距離推定値D2の信頼性が、第1距離推定値D1よりも低下することとなる。   Therefore, the estimated value or set value of the angle α, or the estimated value of the change in the slope of the road surface (the angle β or the estimated value of the parameter that defines it) or the error of the set value (hereinafter these are collectively referred to as the angle αβ When the error) increases to some extent, the error range of the second distance estimation value D2 also increases. As a result, in a situation where the angle αβ-related error is large to some extent, the error range of the second distance estimated value D2 is larger than the first distance estimated value D1, and the reliability of the second distance estimated value D2 is greater than the first distance estimated value D1. It becomes lower than the distance estimated value D1.

例えば対象物53が日本における成人の歩行者である場合、前記式(2a)により示した第1距離推定値D1の誤差の範囲は図3の破線b1,b2の間の範囲である。そして、第2距離推定値D2の誤差の範囲は、角度αとβとの合成角度θの誤差の絶対値が約0.8[deg]を超えると、第1距離推定値D1の誤差の範囲よりも大きくなる。   For example, when the object 53 is an adult pedestrian in Japan, the error range of the first distance estimated value D1 shown by the equation (2a) is a range between the broken lines b1 and b2 in FIG. The error range of the second distance estimated value D2 is the error range of the first distance estimated value D1 when the absolute value of the error of the combined angle θ of the angles α and β exceeds about 0.8 [deg]. Bigger than.

本発明は、以上の如き第1測距手法と第2測距手法との特性を考慮し、これらの第1測距手法と第2測距手法とを適切に利用して、対象物と自車両との間の距離を推定するようにしたものである。   The present invention considers the characteristics of the first distance measurement method and the second distance measurement method as described above, and appropriately uses the first distance measurement method and the second distance measurement method, so The distance to the vehicle is estimated.

以上説明した技術事項を前提として、以下に本発明を説明する。   The present invention will be described below based on the technical matters described above.

本発明は、車載カメラによって撮像された路面上の対象物と前記車載カメラが搭載された自車両との間の距離を測定する測距装置であって、
前記車載カメラの撮像画像から、前記自車両との距離を測定しようとする対象物の画像を抽出する対象物抽出手段と、
前記撮像画像から抽出された対象物の画像を基に、該撮像画像中での該対象物のサイズである画像中対象物サイズを特定し、その特定した画像中対象物サイズと、前記車載カメラの光軸方向で見た前記対象物の実空間でのサイズである対象物サイズの標準値としてあらかじめ設定された対象物標準サイズ値との比率と、前記車載カメラの焦点距離の設定値とから、前記撮像画像の撮像時刻t1での前記対象物と自車両との間の距離の第1推定値
である第1距離推定値を決定する第1距離推定手段と、
前記対象物が存在する路面である対象物存在路面上の静止点であって、自車両からの距離が前記撮像時刻t1での前記対象物の接地点と同じになる静止点を該撮像時刻t1で撮像された前記撮像画像に投影してなる特徴点を該撮像画像から抽出して、該撮像画像における該特徴点の位置を特定する測距用特徴点抽出手段と、
前記撮像画像において特定された前記特徴点の位置に基づき、前記車載カメラから前記静止点に至る直線が、該車載カメラの光軸に対してなす角度である第1参照角度の値を推定する第1参照角度推定手段と、
少なくとも前記第1参照角度の推定値と前記車載カメラの高さの設定値とを基に、前記対象物と自車両との間の距離の第2推定値である第2距離推定値を決定する第2距離推定手段と、
前記特定された画像中対象物サイズと前記対象物サイズの最大値としてあらかじめ設定された最大サイズ設定値との比率を基に推定される前記距離の値と、前記特定された画像中対象物サイズと前記対象物サイズの最小値としてあらかじめ設定された最小サイズ設定値との比率を基に推定される前記距離の値との間の範囲を、前記第2距離推定値の許容範囲として設定し、その設定した許容範囲に前記第2距離推定値が収まっているか否かを判断する第2距離推定値判断手段と、
前記第2距離推定値判断手段の判断結果が、肯定的である場合に、前記第2距離推定値を前記対象物と自車両との間の距離の推定値として確定し、該判断結果が否定的である場合に、前記第1距離推定値を前記対象物と自車両との間の距離の推定値として確定する距離推定値確定手段とを備えることを基本構成とするものである。
The present invention is a distance measuring device for measuring a distance between an object on a road surface imaged by an in-vehicle camera and a host vehicle on which the in-vehicle camera is mounted,
An object extraction means for extracting an image of an object to be measured from the captured image of the in-vehicle camera, and the distance from the host vehicle;
Based on the image of the object extracted from the captured image, the object size in the image, which is the size of the object in the captured image, is specified, and the specified object size in the image and the in-vehicle camera From the ratio of the object standard size value set in advance as the standard value of the object size, which is the size of the object in real space seen in the optical axis direction, and the setting value of the focal length of the in-vehicle camera First distance estimating means for determining a first distance estimated value that is a first estimated value of the distance between the object and the host vehicle at the imaging time t1 of the captured image;
A stationary point on the object existing road surface on which the object exists is a stationary point whose distance from the host vehicle is the same as the ground contact point of the object at the imaging time t1. A feature point extraction means for distance measurement that extracts from the captured image a feature point formed by projecting on the captured image captured in step, and specifies a position of the feature point in the captured image;
Based on the position of the feature point specified in the captured image, a first reference angle value that is an angle formed by a straight line from the in-vehicle camera to the stationary point with respect to the optical axis of the in-vehicle camera is estimated. 1 reference angle estimation means;
Based on at least the estimated value of the first reference angle and the set value of the height of the in-vehicle camera, a second estimated distance value that is a second estimated value of the distance between the object and the host vehicle is determined. A second distance estimating means;
The distance value estimated based on the ratio between the specified object size in the image and the maximum size setting value set in advance as the maximum value of the object size, and the specified object size in the image And a range between the distance value estimated based on a ratio of a minimum size setting value set in advance as a minimum value of the target object size as an allowable range of the second distance estimation value, Second distance estimated value judging means for judging whether or not the second distance estimated value is within the set allowable range;
If the determination result of the second distance estimated value determining means is affirmative, the second distance estimated value is determined as an estimated value of the distance between the object and the host vehicle, and the determination result is negative If it is, the Ru der which the basic configuration in that it comprises a distance estimate determining means for determining a first distance estimate as an estimate of the distance between the object and the vehicle.

なお、上記第1参照角度は、より詳しくは、車載カメラの光軸を含む平面であって、且つ、自車両存在路面に対して垂直に起立する平面の法線方向又はこれとほぼ同方向の軸周りでの角度である。このことは、後述する第2参照角度及び第3参照角度についても同様である。 The first reference angle above SL is more particularly a plane including the optical axis of the on-vehicle camera, and the normal direction to or substantially the same direction of the plane standing perpendicular to the vehicle there road Is the angle around the axis. The same applies to a second reference angle and a third reference angle described later.

また、対象物の実空間でのサイズ(対象物サイズ)は、自車両からの距離を測定しようとする対象物の種類に対応してあらかじめ定めた所定方向(上下方向、横方向、斜め方向等)での実際の対象物(実空間での対象物)の長さを意味する。そして、撮像画像中での対象物のサイズ(画像中対象物サイズ)は、該撮像画像中の該対象物の画像における上記所定方向での長さを意味する。   The size of the object in real space (object size) is a predetermined direction (vertical direction, horizontal direction, diagonal direction, etc.) determined in advance corresponding to the type of the object whose distance from the host vehicle is to be measured. ) Is the length of the actual object (object in real space). The size of the target object in the captured image (the target object size in the image) means the length in the predetermined direction in the image of the target object in the captured image.

上記基本構成によれば、前記第1距離推定手段によって、前記車載カメラの撮像画像(撮像時刻t1での撮像画像)から抽出された対象物(自車両との距離を測定しようとする
対象物)の画像を基に、画像中対象物サイズが特定される。この画像中対象物サイズは、前記した画像中対象物サイズh53aに相当するものである。
According to the above basic configuration , the object (object to be measured for the distance to the host vehicle) extracted from the captured image (captured image at the imaging time t1) of the in-vehicle camera by the first distance estimating means. The object size in the image is specified based on the image. This in-image object size corresponds to the above-described in-image object size h53a.

さらに、第1距離推定手段は、特定した画像中対象物サイズと対象物標準サイズ値との比率と、車載カメラの焦点距離の設定値とから第1距離推定値を決定する。この第1距離推定値は、前記第1測距手法による第1距離推定値D1に相当するものである。従って、特定した画像中対象物サイズと、対象物標準サイズ値とを用いて前記式(1a)の右辺の演算を行なうことで、第1距離推定値(D1)を決定することができる。   Further, the first distance estimating means determines the first distance estimated value from the ratio between the specified object size in the image and the object standard size value and the set value of the focal length of the in-vehicle camera. This first distance estimated value corresponds to the first distance estimated value D1 obtained by the first distance measuring method. Therefore, the first distance estimated value (D1) can be determined by calculating the right side of the equation (1a) using the specified object size in the image and the object standard size value.

また、前記測距用特徴点抽出手段によって、自車両からの距離が前記撮像時刻t1での前記対象物の接地点と同じになるような前記対象物存在路面上の静止点を該撮像時刻t1で撮像された前記撮像画像に投影してなる特徴点が抽出される。そして、その特徴点の該撮像画像での位置が特定される。   Further, a stationary point on the road surface on which the object exists is such that the distance from the host vehicle is the same as the ground contact point of the object at the imaging time t1 by the distance measurement feature point extracting means. The feature points formed by projecting on the captured image captured in (1) are extracted. Then, the position of the feature point in the captured image is specified.

なお、前記特徴点は、例えば、前記撮像時刻t1での前記対象物の接地点を前記撮像画像に投影してなる点(図1(b)又は図2(b)示した例では、点P53a)を通る横方向のライン上で、輝度等の局所特徴を有する点として抽出することできる。このような特徴点としては、例えばハリスコーナ点や、最小固有値点等を利用することができる。該特徴点は、前記撮像時刻t1での撮像画像における対象物の接地点(画像上対象物接地点)に一致する点であってもよい。   The feature point is, for example, a point formed by projecting the ground point of the object at the imaging time t1 onto the captured image (in the example shown in FIG. 1B or FIG. 2B, the point P53a). ) Can be extracted as a point having a local feature such as luminance on a horizontal line passing through (). As such a feature point, for example, a Harris corner point, a minimum eigenvalue point, or the like can be used. The feature point may be a point that coincides with a grounding point of an object (an object grounding point on the image) in the captured image at the imaging time t1.

さらに、第1参照角度推定手段によって、前記撮像画像における前記特徴点の位置に基づき、前記第1参照角度の値が推定される。この第1参照角度は、図1(a)又は図2(a)における角度γを意味するものである。従って、前記撮像画像における前記特徴点の位置に基づいて、第1参照角度(γ)の値を推定することができる。より具体的には、前記式(5)に基づいて第1参照角度(γ)の値を推定することができる。   Further, the first reference angle estimation means estimates the value of the first reference angle based on the position of the feature point in the captured image. This first reference angle means the angle γ in FIG. 1 (a) or FIG. 2 (a). Therefore, the value of the first reference angle (γ) can be estimated based on the position of the feature point in the captured image. More specifically, the value of the first reference angle (γ) can be estimated based on the equation (5).

さらに、前記第2距離推定手段によって、少なくとも前記第1参照角度(γ)の推定値と前記車載カメラの高さの設定値とを基に、前記第2距離推定値が決定される。この第2距離推定値は、前記第2測距手法による第2距離推定値D2に相当するものである。従って、前記式(3)又は(4)に基づいて、第2距離推定値(D2)を決定できる。   Further, the second distance estimation means determines the second distance estimation value based at least on the estimated value of the first reference angle (γ) and the set value of the height of the in-vehicle camera. This second distance estimated value corresponds to the second distance estimated value D2 obtained by the second distance measuring method. Therefore, the second distance estimated value (D2) can be determined based on the formula (3) or (4).

この場合、式(3),(4)における角度αの値、あるいは、式(4)における角度βの値は、適宜の手法によって推定(ジャイロセンサ等を使用した計測でもよい)すればよい。あるいは、角度α又βがほぼ一定の値に維持されると予測されるような状況では、その値として、あらかじめ定めた設定値を用いるようにしてもよい。例えば、勾配の変化が微小であるような路面を車両が走行している場合には、角度βの値として“0”を用いてもよい。また、例えば、車載カメラが、その光軸が車両の車体の前後方向と同方向に向くように該車体に取り付けられている場合に、車両が平坦な路面を定常走行しているような状況では、角度αの値として“0”を用いてもよい。このように、角度αやβの値として既知の設定値を使用する場合には、角度αやβの値の推定(計測)は不要である。   In this case, the value of the angle α in the equations (3) and (4) or the value of the angle β in the equation (4) may be estimated by an appropriate method (may be measured using a gyro sensor or the like). Alternatively, in a situation where the angle α or β is predicted to be maintained at a substantially constant value, a predetermined set value may be used as the value. For example, “0” may be used as the value of the angle β when the vehicle is traveling on a road surface where the change in the gradient is minute. Also, for example, in a situation where the vehicle is traveling on a flat road surface when the in-vehicle camera is attached to the vehicle body so that its optical axis is in the same direction as the longitudinal direction of the vehicle body of the vehicle. Also, “0” may be used as the value of the angle α. As described above, when known set values are used as the values of the angles α and β, it is not necessary to estimate (measure) the values of the angles α and β.

次いで、前記第2距離推定値判断手段によって、前記第2距離推定値の許容範囲が設定される。この場合、この許容範囲は、前記特定された画像中対象物サイズと前記最大サイズ設定値との比率を基に推定される前記距離の値と、前記特定された画像中対象物サイズと前記最小サイズ設定値との比率を基に推定される前記距離の値との間の範囲とされる。   Next, an allowable range of the second distance estimated value is set by the second distance estimated value determining means. In this case, the allowable range includes the distance value estimated based on the ratio between the specified object size in the image and the maximum size setting value, the specified object size in the image, and the minimum value. A range between the distance value estimated based on the ratio to the size setting value is set.

ここで、前記特定された画像中対象物サイズと前記最大サイズ設定値との比率を基に推定される前記距離の値というのは、対象物サイズが、最大サイズ設定値に一致すると仮定した場合に前記式(1)により推定されるDの値を意味する。同様に、前記特定された画像中対象物サイズと前記最小サイズ設定値との比率を基に推定される前記距離の値というのは、対象物サイズが、最小サイズ設定値に一致すると仮定した場合に前記式(1)により推定されるDの値を意味する。   Here, the value of the distance estimated based on the ratio between the object size in the specified image and the maximum size setting value is based on the assumption that the object size matches the maximum size setting value. Means the value of D estimated by the equation (1). Similarly, the distance value estimated based on the ratio between the specified object size in the image and the minimum size setting value is based on the assumption that the object size matches the minimum size setting value. Means the value of D estimated by the equation (1).

そして、実際の対象物サイズは、一般には、上記最大サイズ設定値と最小サイズ設定値との間の範囲内に収まる。従って、第2距離推定値判断手段によって設定される許容範囲は、対象物と自車両との実際の距離の値が、高い確度で存在し得る範囲を意味する。このような範囲が、第2距離推定値(D2)の許容範囲として設定される。   The actual object size generally falls within the range between the maximum size setting value and the minimum size setting value. Therefore, the allowable range set by the second distance estimated value determination means means a range in which the actual distance value between the object and the host vehicle can exist with high accuracy. Such a range is set as an allowable range of the second distance estimated value (D2).

このため、仮に前記第2距離推定手段により決定された第2距離推定値(D2)が、上記許容範囲を逸脱しているような場合には、その第2距離推定値(D2)は、実際の距離Dの推定値としての信頼性が第1距離推定値(D1)に比して乏しいものとなる。   For this reason, if the second distance estimated value (D2) determined by the second distance estimating means deviates from the allowable range, the second distance estimated value (D2) is actually The reliability of the distance D as an estimated value is poor compared to the first distance estimated value (D1).

また、第2距離推定値(D2)が、上記許容範囲内に収まっているような場合には、該第2距離推定値(D2)の信頼性が、第1距離推定値(D1)の誤差範囲内で確保されていると見なすことができる。そして、この場合、前記角度α,βのそれぞれの推定値又は設定値の誤差が十分に小さいとみなすことができるので、第2距離推定値(D2)の精度も比較的高い精度に確保されているものとみなすことができる。   When the second distance estimated value (D2) is within the allowable range, the reliability of the second distance estimated value (D2) is the error of the first distance estimated value (D1). It can be regarded as being secured within the scope. In this case, the error of the estimated values or the set values of the angles α and β can be regarded as sufficiently small, so that the accuracy of the second distance estimated value (D2) is also ensured to be relatively high. Can be regarded as being.

そこで、本発明の基本構成では、前記距離推定値確定手段は、前記第2距離推定値判断手段の判断結果が肯定的である場合に、前記第2距離推定値を前記対象物と自車両との間の距離の推定値として確定し、該判断結果が否定的である場合に、前記第1距離推定値を前記対象物と自車両との間の距離の推定値として確定する。 Therefore, in the basic configuration of the present invention, the distance estimated value determination means determines the second distance estimated value as the object and the own vehicle when the determination result of the second distance estimated value determination means is affirmative. When the determination result is negative, the first distance estimated value is determined as an estimated value of the distance between the object and the host vehicle.

これにより、本発明の基本構成によれば、前記対象物と自車両との間の距離の推定値として決定(確定)される値が過大な誤差を有するようなことが発生しないようにしつつ、信頼性の高い距離の推定値を決定することができる。また、この場合、前記車載カメラは単一の車載カメラでよいので、第1発明の測距装置を安価なシステム構成とすることができる。 Thereby, according to the basic configuration of the present invention, it is possible to prevent the occurrence of an excessive error in the value determined (determined) as the estimated value of the distance between the object and the host vehicle. A reliable distance estimate can be determined. In this case, since the vehicle-mounted camera may be a single vehicle-mounted camera, the distance measuring device according to the first invention can have an inexpensive system configuration.

よって、本発明の基本構成によれば、単一の車載カメラによる撮像画像を利用する安価なシステム構成で、該車載カメラにより撮像される対象物と自車両と対象物との間の距離を高い信頼性で行なうことができる。 Therefore, according to the basic configuration of the present invention, a low-cost system configuration using an image captured by a single in-vehicle camera increases the distance between the object captured by the in-vehicle camera, the host vehicle, and the object. It can be done with reliability.

かかる本発明の基本構成では、前記第2距離推定手段の処理では、前記角度αの値をあらかじめ定めた値(例えば“0”)に設定しておいてもよいが、車載カメラの光軸の向きは、一般には、車両の車体の姿勢の変動に伴い変化する。従って、前記第2距離推定値(D2)の精度をより高める上では、角度αを逐次推定し、その角度αの推定値を用いて前記第2距離推定値(D2)を決定するようにしてもよい。 In the basic configuration of the present invention, in the processing of the second distance estimating means, the value of the angle α may be set to a predetermined value (for example, “0”). The direction generally changes as the posture of the vehicle body changes. Accordingly, in order to further improve the accuracy of the second distance estimated value (D2), the angle α is sequentially estimated, and the second distance estimated value (D2) is determined using the estimated value of the angle α. Also good.

ここで、角度αは、種々様々な手法で推定することが可能であり、例えば車載カメラの撮像画像を利用して角度αの値を推定することができる。   Here, the angle α can be estimated by various methods. For example, the value of the angle α can be estimated using a captured image of an in-vehicle camera.

この場合、前記基本構成において、例えば次のような構成を採用する。すなわち、互いに異なる撮像時刻で撮像された2つ以上の撮像画像を基に、前記車載カメラの並進移動方向を少なくとも含む該車載カメラの運動状態を逐次計測するカメラ運動計測手段と、前記車載カメラの計測された運動状態から、前記撮像時刻t1において前記車載カメラの光軸が前記車両が存在する路面である自車両存在路面に対してなす角度である第2参照角度の値を推定する第2参照角度推定手段とをさらに備え、前記第2参照角度推定手段は、少なくとも前記第1参照角度の推定値と前記第2参照角度の推定値と前記車載カメラの高さの設定値とを基に、前記第2距離推定値を決定する。 In this case, for example, the following configuration is adopted in the basic configuration . That is, based on two or more captured images taken at different imaging times, camera motion measuring means for sequentially measuring the motion state of the in-vehicle camera including at least the translational movement direction of the in-vehicle camera, and the in-vehicle camera A second reference for estimating a value of a second reference angle that is an angle formed by the optical axis of the in-vehicle camera with respect to the road surface on which the vehicle exists at the imaging time t1 from the measured motion state Angle estimation means, and the second reference angle estimation means is based on at least the estimated value of the first reference angle, the estimated value of the second reference angle, and the set value of the height of the in-vehicle camera. The second distance estimation value is determined.

ただし、この場合においては、前記距離推定値確定手段は、前記車両の車速が所定値以下の低車速である場合には、前記第2距離推定値判断手段の判断結果によらずに、前記第1距離推定値を前記対象物と自車両との間の距離の推定値として確定する(第1発明)However, in this case, when the vehicle speed of the vehicle is a low vehicle speed that is equal to or lower than a predetermined value, the distance estimated value determining means does not depend on the determination result of the second distance estimated value determining means, It confirms one distance estimate as an estimate of the distance between the object and the vehicle (first invention).

この第1発明によれば、前記カメラ運動計測手段によって、前記車載カメラの並進移動方向を少なくとも含む該車載カメラの運動状態が逐次計測される。この場合、該車載カメラの運動状態の計測は、互いに異なる撮像時刻で撮像された2つ以上の撮像画像を基に行なわれる。このような計測は、例えばStructure from Motion(以下SfMということがある)に基づく公知の画像処理手法によって行なうことができる。 According to the first aspect of the present invention , the camera motion measurement means sequentially measures the motion state of the in-vehicle camera including at least the translational movement direction of the in-vehicle camera. In this case, the measurement of the motion state of the in-vehicle camera is performed based on two or more captured images captured at different imaging times. Such measurement can be performed by a known image processing method based on, for example, Structure from Motion (hereinafter, sometimes referred to as SfM).

そして、この計測された車載カメラの運動状態から、前記第2参照角度推定手段によって前記第2参照角度が推定される。この第2参照角度は、図1(a)又は図2(a)における角度αを意味するものである。   Then, the second reference angle is estimated by the second reference angle estimation means from the measured motion state of the in-vehicle camera. This second reference angle means the angle α in FIG. 1 (a) or FIG. 2 (a).

この場合、前記車載カメラの並進移動方向は、概ね前記自車両存在路面と平行な方向となるので、前記第2参照角度(α)は、基本的には、前記車載カメラの光軸に対する該車載カメラの並進移動方向に応じて規定される。従って、前記車載カメラの並進移動方向を少なくとも含む該車載カメラの運動状態に基づいて、前記第2参照角度(α)の値を推定することができる。   In this case, since the translational movement direction of the in-vehicle camera is substantially parallel to the road surface on which the host vehicle is present, the second reference angle (α) is basically the in-vehicle direction with respect to the optical axis of the in-vehicle camera. It is defined according to the translation direction of the camera. Therefore, the value of the second reference angle (α) can be estimated based on the motion state of the in-vehicle camera including at least the translational movement direction of the in-vehicle camera.

補足すると、前記カメラ運動計測手段により計測する車載カメラの運動状態は、該車載カメラの姿勢の角度変化量(互いに異なる撮像時刻間の角度変化量)を含んでいてもよい。そして、その場合、車載カメラの並進移動方向と、車載カメラの姿勢の運動変化量との両方を使用して、第2参照角度(α)の値を推定するようにすることもできる。   Supplementally, the motion state of the in-vehicle camera measured by the camera motion measuring means may include an angle change amount of the posture of the in-vehicle camera (an angle change amount between different imaging times). In that case, the value of the second reference angle (α) can be estimated using both the translational movement direction of the in-vehicle camera and the movement change amount of the attitude of the in-vehicle camera.

そして、第1発明では、第2参照角度推定手段は、少なくとも前記第1参照角度(γ)の推定値と前記第2参照角度(α)の推定値と前記車載カメラの高さの設定値とを基に、前記第2距離推定値(D2)を決定する。例えば前記式(3)により第2距離推定値(D2)が決定される。このように第2距離推定値(D2)を決定することで、車両の車体の姿勢の変動に伴う車載カメラの光軸の向きの変動分を反映させて、第2距離推定値(D2)を決定することができる。 In the first invention , the second reference angle estimation means includes at least an estimated value of the first reference angle (γ), an estimated value of the second reference angle (α), and a set value of the height of the in-vehicle camera. Based on the above, the second distance estimated value (D2) is determined. For example, the second distance estimated value (D2) is determined by the equation (3). By determining the second distance estimated value (D2) in this way, the second distance estimated value (D2) is reflected by reflecting the change in the direction of the optical axis of the in-vehicle camera accompanying the change in the posture of the vehicle body. Can be determined.

ここで、車両の車速が低速である場合には、短い時間内で撮像される複数の撮像画像は、それらの間の差異が生じ難いものとなる。このため、このような状態では、前記カメラ運動計測手段は、一般に、該車載カメラの運動状態を精度よく計測することが困難となり、計測される車載カメラの運動状態の信頼性が低下する。ひいては、前記第2参照角度(α)の推定値や、これを用いて決定される前記第2距離推定値(D2)の信頼性も低下する。   Here, when the vehicle speed of the vehicle is low, a plurality of captured images captured within a short time are unlikely to have a difference between them. For this reason, in such a state, it is generally difficult for the camera motion measurement means to accurately measure the motion state of the in-vehicle camera, and the reliability of the motion state of the in-vehicle camera to be measured is reduced. As a result, the reliability of the estimated value of the second reference angle (α) and the estimated value of the second distance (D2) determined using the estimated value are also reduced.

そこで、第1発明では、前記距離推定値確定手段は、前記車両の車速が所定値以下の低車速である場合には、前記第2距離推定値判断手段の判断結果によらずに、前記第1距離推定値を前記対象物と自車両との間の距離の推定値として確定する。 Therefore, in the first invention , the distance estimated value determining means, when the vehicle speed of the vehicle is a low vehicle speed equal to or lower than a predetermined value, is not dependent on the determination result of the second distance estimated value determining means. The 1-distance estimated value is determined as the estimated value of the distance between the object and the vehicle.

これにより、信頼性が低い第2距離推定値(D2)が、最終的に対象物と自車両との距離の推定値として確定されてしまうことを防止できる。   Thereby, it can prevent that the 2nd distance estimated value (D2) with low reliability is finally decided as an estimated value of the distance of a target object and the own vehicle.

上記第1発明において、路面の勾配の変化が無いか、もしくは微小なものとなる路面を車両が走行している場合には、前記角度βの値を“0”にしておいてもよいが、撮像画像を用いて角度βの値を逐次推定するようにすることも可能である。 In the first aspect of the present invention , when the vehicle is traveling on a road surface where there is no change in the slope of the road surface, or the road surface becomes minute, the value of the angle β may be set to “0”. It is also possible to sequentially estimate the value of the angle β using the captured image.

具体的には、例えば、次のような構成を採用することができる。すなわち、前記測距用特徴点抽出手段は、前記静止点を前記撮像時刻t1で撮像された撮像画像に投影してなる特徴点と、該撮像時刻t1と異なる撮像時刻t2で撮像された撮像画像に投影してなる特徴点とを当該2つの撮像画像のそれぞれから抽出して、当該2つの撮像画像のそれぞれにおける各特徴点の位置を特定する手段であり、前記カメラ運動計測手段は、前記2つの撮像画像のそれぞれの撮像時刻t1,t2の間の期間における前記車載カメラの位置及び姿勢の変化を表すカメラ運動パラメータを逐次計測する手段であり、前記カメラ運動パラメータと、前記2つの撮像画像のそれぞれにおける前記特徴点の位置と、前記車載カメラの高さと、前記撮像時刻t1において前記自車両存在路面のうちの前記車載カメラの下方に位置する点から前記静止点に至る直線が前記車載カメラの光軸に対してなす角度である第3参照角度との間の関係を表す演算式に基づいて、前記カメラ運動パラメータの計測値と、前記2つの撮像画像のそれぞれにおいて特定された前記特徴点の位置と、前記車載カメラの高さの設定値とから、該演算式における未知数としての前記第3参照角度の値を推定する第3参照角度推定手段をさらに備えており、前記第2距離推定手段は、前記第1参照角度の推定値と前記第2参照角度の推定値と前記第3参照角度の推定値と前記車載カメラの高さの設定値とを基に、前記第2距離推定値を決定する手段である(第2発明)。 Specifically, for example, the following configuration can be adopted. That is, the distance measurement feature point extracting means includes a feature point obtained by projecting the still point onto a captured image captured at the imaging time t1, and a captured image captured at an imaging time t2 different from the imaging time t1. Is extracted from each of the two captured images, and the position of each feature point in each of the two captured images is specified. Means for successively measuring camera motion parameters representing changes in the position and orientation of the in-vehicle camera in a period between the respective imaging times t1 and t2 of the two captured images, and the camera motion parameters and the two captured images; From the position of the feature point in each, the height of the vehicle-mounted camera, and the point located below the vehicle-mounted camera on the road surface where the vehicle is present at the imaging time t1 The measured value of the camera motion parameter and the two imaging based on an arithmetic expression representing a relationship between a straight line leading to the stationary point and a third reference angle that is an angle formed with respect to the optical axis of the in-vehicle camera. Third reference angle estimation means for estimating the value of the third reference angle as an unknown in the calculation formula from the position of the feature point specified in each of the images and the set value of the height of the in-vehicle camera The second distance estimating means further includes an estimated value of the first reference angle, an estimated value of the second reference angle, an estimated value of the third reference angle, and a set value of the height of the in-vehicle camera. Is a means for determining the second distance estimation value on the basis of ( 2nd invention ).

この第2発明においては、前記第3参照角度推定手段が値を推定する前記第3参照角度は、第1撮像画像の撮像時刻t1において自車両存在路面のうちの前記車載カメラの下方
に位置する点から前記静止点に至る直線が前記車載カメラの光軸に対してなす角度であるから、図2(a)に示した角度θ(車載カメラの光軸に対する後述の対象物存在仮想路面(Sa)の傾斜角度θ)に相当するもの、すなわち、前記角度αと角度βとの合成角度(=α+β)に相当するものである。
In the second aspect of the invention , the third reference angle estimated by the third reference angle estimation means is located below the in-vehicle camera on the road surface of the host vehicle at the imaging time t1 of the first captured image. Since the straight line from the point to the stationary point is an angle formed with respect to the optical axis of the vehicle-mounted camera, the angle θ shown in FIG. ) Corresponding to the combined angle (= α + β) of the angle α and the angle β.

ここで、第2発明における上記第3参照角度(θ)の推定手法の原理を以下に説明しておく。 Here, the principle of the third reference angle (θ) estimation method in the second invention will be described below.

まず、図4(a)に示すように、互いに異なる時刻t1,t2において、車載カメラ2の前方に存在する平坦な路面S(平面)を撮像した場合を想定する。そして、路面S上の任意の1つの静止点Pを、時刻t1での撮像画像(以下、第1撮像画像ということがある)に投影してなる点をP1、時刻t2での撮像画像(以下、第2撮像画像ということがある)に投影してなる点をP2とする。   First, as shown in FIG. 4A, it is assumed that a flat road surface S (plane) existing in front of the in-vehicle camera 2 is imaged at different times t1 and t2. A point obtained by projecting an arbitrary stationary point P on the road surface S onto a captured image at time t1 (hereinafter sometimes referred to as a first captured image) is P1, and a captured image at time t2 (hereinafter referred to as a first captured image). P2 is a point that is projected onto the second captured image).

この場合、第1撮像画像における投影点P1と、第2撮像画像における投影点P2とは、それぞれ各撮像画像における特徴点として抽出され、その点の各撮像画像での位置が特定されるものとする。   In this case, the projection point P1 in the first captured image and the projection point P2 in the second captured image are each extracted as a feature point in each captured image, and the position of each point in the captured image is specified. To do.

そして、第1撮像画像における投影点P1の位置を同次座標で表現してなる位置ベクトルを↑P1(≡[x1,y1,1]T)、第2撮像画像における投影点P2の位置を同次座標で表現してなる位置ベクトルを↑P2(≡[x2,y2,1]T)と表記する。 Then, a position vector representing the position of the projection point P1 in the first captured image in homogeneous coordinates is ↑ P1 (≡ [x1, y1,1] T ), and the position of the projection point P2 in the second captured image is the same. A position vector expressed in the next coordinate is represented by ↑ P2 (≡ [x2, y2,1] T ).

なお、x1,y1はそれぞれ第1撮像画像における投影点P1の横方向の座標位置、縦方向(上下方向)の座標位置である。同様に、x2,y2はそれぞれ第2撮像画像における投影点P2の横方向の座標位置、縦方向(上下方向)の座標位置である。また、添え字“T”は、転置を意味する。   Note that x1 and y1 are the coordinate position in the horizontal direction and the coordinate position in the vertical direction (vertical direction) of the projection point P1 in the first captured image, respectively. Similarly, x2 and y2 are the coordinate position in the horizontal direction and the coordinate position in the vertical direction (vertical direction) of the projection point P2 in the second captured image, respectively. The subscript “T” means transposition.

また、時刻t1と時刻t2との間の期間での車載カメラ2の位置の空間的な並進変位を表す並進移動ベクトルを↑t、時刻t1と時刻t2との間の期間での車載カメラ2の姿勢の空間的な回転変位を表す回転行列をRとする。これらの並進移動ベクトル↑t及び回転行列Rは、換言すれば、時刻t1と時刻t2との間の期間でのカメラ座標系の空間的な並進変位と回転変位とをそれぞれ表すものである。   Further, a translation vector representing the spatial translational displacement of the position of the in-vehicle camera 2 in the period between the time t1 and the time t2 is represented by ↑ t, and the in-vehicle camera 2 in the period between the time t1 and the time t2. Let R be a rotation matrix representing the spatial rotational displacement of the posture. In other words, the translation vector ↑ t and the rotation matrix R represent the spatial translational displacement and the rotational displacement of the camera coordinate system in the period between the time t1 and the time t2, respectively.

なお、回転行列Rは直交行列である。また、上記カメラ座標系は、該車載カメラ2に対して固定された座標系である。より具体的には、カメラ座標系は、例えば、車載カメラ2の光学中心Cを原点として、車載カメラ2の撮像画像の横方向をX軸方向、縦方向(上下方向)をY軸方向、光軸Lcの方向をZ軸方向とする3軸座標系である。   Note that the rotation matrix R is an orthogonal matrix. The camera coordinate system is a coordinate system fixed to the vehicle-mounted camera 2. More specifically, the camera coordinate system has, for example, the optical center C of the in-vehicle camera 2 as the origin, the horizontal direction of the captured image of the in-vehicle camera 2 in the X-axis direction, the vertical direction (vertical direction) in the Y-axis direction, and light. This is a three-axis coordinate system in which the direction of the axis Lc is the Z-axis direction.

さらに、図4(b)に示すように、路面Sの法線方向の単位ベクトル(以下、単に法線ベクトルという)を↑n、時刻t1,t2のいずれか一方の時刻、例えば時刻t1での車載カメラ2の光学中心Cと路面Sとの距離をdとする。これらの↑n,dは、それぞれ路面S(平面)の空間的な姿勢及び位置を規定する平面パラメータである。   Further, as shown in FIG. 4B, a unit vector in the normal direction of the road surface S (hereinafter simply referred to as a normal vector) is represented by ↑ n, one of the times t1 and t2, for example, at time t1. Let d be the distance between the optical center C of the in-vehicle camera 2 and the road surface S. These ↑ n and d are plane parameters that define the spatial posture and position of the road surface S (plane), respectively.

なお、路面Sは、通常、車幅方向とほぼ平行であるので、車載カメラ2の撮像画像の横方向(カメラ座標系のX軸方向)にほぼ平行である。このため、時刻t1における車載カメラ2の光軸Lcに対する路面Sの傾き角度を図4(b)に示す如くθとした場合、路面Sの法線ベクトル↑nは、時刻t1でのカメラ座標系における座標成分を用いて、↑n=[0,cosθ,sinθ]Tと表記される。 In addition, since the road surface S is generally substantially parallel to the vehicle width direction, the road surface S is substantially parallel to the lateral direction of the captured image of the in-vehicle camera 2 (X-axis direction of the camera coordinate system). Therefore, when the inclination angle of the road surface S with respect to the optical axis Lc of the in-vehicle camera 2 at time t1 is θ as shown in FIG. 4B, the normal vector ↑ n of the road surface S is the camera coordinate system at time t1. ↑ n = [0, cos θ, sin θ] T is expressed using the coordinate component at.

ここで、第1撮像画像の投影点P1の位置ベクトル↑P1と、第2撮像画像の投影点P2の位置ベクトル↑P2との間の関係は、平面射影変換によって対応付けられる。具体的には、第1撮像画像の投影点P1の位置ベクトル↑P1を第2撮像画像の投影点P2の位置ベクトル↑P2に変換するためのホモグラフィ行列(平面射影変換行列)をHとおくと、次式(6)に示す如く、↑P2は、H・↑P1に、ある比例定数kを乗じたベクトルとなる。   Here, the relationship between the position vector ↑ P1 of the projection point P1 of the first captured image and the position vector ↑ P2 of the projection point P2 of the second captured image is associated by plane projective transformation. Specifically, H is a homography matrix (planar projection transformation matrix) for converting the position vector ↑ P1 of the projection point P1 of the first captured image into the position vector ↑ P2 of the projection point P2 of the second captured image. Then, as shown in the following equation (6), ↑ P2 is a vector obtained by multiplying H ・ ↑ P1 by a certain proportionality constant k.


↑P2=k・H・↑P1 ……(6)

また、ホモグラフィ行列Hは、上記並進移動ベクトル↑t、回転行列R、路面Sの平面パラメータ↑n,dを用いて、次式(7)により与えられる。

↑ P2 = k ・ H ・ ↑ P1 (6)

The homography matrix H is given by the following equation (7) using the translation vector ↑ t, the rotation matrix R, and the plane parameters ↑ n, d of the road surface S.


H=RT−RT・↑t・(↑n/d)T ……(7)

従って、式(7)を式(6)に適用することで、次式(8)が得られる。

H = RT- RT , ↑ t, (↑ n / d) T (7)

Therefore, the following formula (8) is obtained by applying the formula (7) to the formula (6).


↑P2=k・(RT−RT・↑t・(↑n/d)T)・↑P1 ……(8)

この式(8)において、↑P1、↑P2、R、↑tが既知であれば、↑n/dの成分である(cosθ)/d又は(sinθ)/dの値を次のように求めることができる。

↑ P2 = k · (R T −R T · ↑ t · (↑ n / d) T ) · ↑ P1 (8)

In this equation (8), if ↑ P1, ↑ P2, R, and ↑ t are known, the value of (cosθ) / d or (sinθ) / d that is the component of ↑ n / d is obtained as follows. be able to.

すなわち、時刻t1でのカメラ座標系で見た並進移動ベクトル↑tが座標成分を用いて↑t=[t1,t2,t3]Tと表記されるものとする。また、回転行列Rの転置行列RTの成分表示は、次式(9)により与えられるものとする。 That is, the translation vector ↑ t seen in the camera coordinate system at time t1 is expressed as ↑ t = [t1, t2, t3] T using coordinate components. The component display of the transposed matrix RT of the rotation matrix R is given by the following equation (9).

さらに、変数a,bをそれぞれa≡(cosθ)/d、b≡(sinθ)/dと定義し、↑n/d=[0,a,b]Tとおく。このとき、式(8)は、↑P1,↑P2,RT,↑t,↑n/dのそれぞれの成分を用いて、次式(10)により表される。 Further, variables a and b are defined as a≡ (cos θ) / d and b≡ (sin θ) / d, respectively, and ↑ n / d = [0, a, b] T is set. At this time, the equation (8) is expressed by the following equation (10) using respective components of ↑ P1, ↑ P2, R T , ↑ t, and ↑ n / d.

そして、この式(10)の第3行の式を用いて、第1行及び第2行からkを消去すると、次式(11a),(11b)が得られる。   Then, when k is deleted from the first row and the second row using the equation in the third row of the equation (10), the following equations (11a) and (11b) are obtained.

なお、式(11a),(11b)に関する変数a,bの係数行列((ef)を第1行成分、(hi)を第2行成分とする2次の正方行列)の行列式は、“0”となるので、これらの式(11a)、(11b)を連立方程式として、変数a,bの値を決定することはできない。   Note that the determinant of the coefficient matrix (second-order square matrix with (ef) as the first row component and (hi) as the second row component) of the variables a and b related to the equations (11a) and (11b) is “ Therefore, the values of the variables a and b cannot be determined using these equations (11a) and (11b) as simultaneous equations.

一方、a≡(cosθ)/d、b≡(sinθ)/dであるから、次式(11c)が成立する。   On the other hand, since a≡ (cos θ) / d and b≡ (sin θ) / d, the following equation (11c) is established.


2+b2=1/d2 ……(11c)

従って、式(11a)〜(11c)を連立方程式として用いることで、a,bの値を算出することができる。例えば、式(11a),(11b)の両辺をそれぞれ加え合わせた式と、式(11c)とを用いてbを消去すると、次式(12)が得られる。

a 2 + b 2 = 1 / d 2 (11c)

Therefore, the values of a and b can be calculated by using the equations (11a) to (11c) as simultaneous equations. For example, when b is deleted using the formula obtained by adding both sides of the formulas (11a) and (11b) and the formula (11c), the following formula (12) is obtained.

従って、変数aの値は、式(12)により示される二次方程式の解として求めることができる。この場合、式(12)の解となるaの値は、一般には2つ存在することとなるものの、それらの2つの値のうち、式(11a)、(11b)を満足し得るaの値を、最終的に、前記式(11a)〜(11c)の全てを満たすaの値として選定すればよい。   Therefore, the value of the variable a can be obtained as a solution of the quadratic equation shown by the equation (12). In this case, there are generally two values of a that are the solutions of equation (12), but of these two values, the value of a that satisfies equations (11a) and (11b) Is finally selected as the value of a that satisfies all of the equations (11a) to (11c).

なお、式(11a)〜(11c)からaを消去して、上記と同様に、bの値を決定するようにすることもできることはもちろんである。また、a,bの一方の値から、式(11a)又は(11b)により他方の値を決定することもできる。   Of course, it is possible to delete a from the equations (11a) to (11c) and determine the value of b in the same manner as described above. Further, the other value can be determined from one value of a and b by the formula (11a) or (11b).

このように↑P1、↑P2、R、↑tが既知であれば、前記式(11a)〜(11c)に基づいて、変数a又はbの値を算出することができることとなる。そして、a≡(cosθ)/d、b≡(sinθ)/dであるから、上記のように変数a又はbの値を算出すれば、dの値を用いて次式(13a)又は(13b)により、車載カメラ2の光軸Lcに対する路面Sの傾斜角度θを求めることができることとなる。   Thus, if ↑ P1, ↑ P2, R, and ↑ t are known, the value of the variable a or b can be calculated based on the equations (11a) to (11c). Since a≡ (cos θ) / d and b≡ (sin θ) / d, if the value of the variable a or b is calculated as described above, the following equation (13a) or (13b ), The inclination angle θ of the road surface S with respect to the optical axis Lc of the in-vehicle camera 2 can be obtained.


θ=cos-1(a・d) ……(13a)
θ=sin-1(b・d) ……(13b)

次に、時刻t1で車載カメラ2により撮像された第1撮像画像が、前記した図2(a)の状況において撮像された画像であるとし、第2撮像画像の撮像時刻t2が、時刻t1の直後、又は直前の時刻であるとする。なお、時刻t1,t2の時間差は、その時間間隔内での対象物53と自車両1との間の距離の変化が十分に微小なものとなるような短い時間差であるとする。

θ = cos −1 (a · d) (13a)
θ = sin −1 (b · d) (13b)

Next, it is assumed that the first captured image captured by the vehicle-mounted camera 2 at time t1 is an image captured in the situation of FIG. 2A described above, and the imaging time t2 of the second captured image is the time t1. It is assumed that it is immediately after or immediately before. It is assumed that the time difference between the times t1 and t2 is a short time difference that makes the change in the distance between the object 53 and the vehicle 1 within the time interval sufficiently small.

そして、時刻t1、t2において、それぞれ第1撮像画像、第2撮像画像に投影される前記静止点Pは、時刻t1における自車両1からの距離が対象物53の接地点P53と同一又はほぼ同一となるような前記対象物存在路面52上の静止点であるとする。なお、該静止点Pは、時刻t1での対象物53の接地点P53と一致する静止点であってもよい。   The stationary point P projected onto the first captured image and the second captured image at times t1 and t2, respectively, is the same as or substantially the same as the ground point P53 of the object 53 at the distance from the host vehicle 1 at the time t1. It is assumed that the object is a stationary point on the road surface 52. The stationary point P may be a stationary point that coincides with the grounding point P53 of the object 53 at time t1.

さらに、図2(a)に示した状況で、車載カメラ2の光軸Lcを含んで自車両存在路面51に対して垂直に起立する平面の法線方向(図2(a)の状況では車両1の車幅方向(紙面に垂直な方向))に平行で、且つ、直線L2を含むような仮想的な平面を、対象物53が存在する仮想的な路面として想定し、以降、これを対象物存在仮想路面Saという。そして、この対象物存在仮想路面Saの法線ベクトルと、時刻t1での車載カメラ2の光学中心Cから対象物存在仮想路面Saまでの距離とをそれぞれ改めて↑n、dとおく。   Further, in the situation shown in FIG. 2 (a), the normal direction of the plane that stands up perpendicularly to the own vehicle existing road surface 51 including the optical axis Lc of the in-vehicle camera 2 (the vehicle in the situation of FIG. 1 is assumed to be a virtual road surface parallel to the vehicle width direction (direction perpendicular to the paper surface) and including the straight line L2 as a virtual road surface on which the object 53 exists. This is referred to as an object existence virtual road surface Sa. Then, the normal vector of the object existence virtual road surface Sa and the distance from the optical center C of the in-vehicle camera 2 to the object existence virtual road surface Sa at time t1 are newly set as ↑ n and d, respectively.

このとき、上記対象物存在仮想路面Saの平面パラメータ↑n、dを前記式(8)の右辺に適用した場合、第1撮像画像の投影点P1の位置ベクトル↑P1と、第2撮像画像の投影点P2の位置ベクトル↑P2との間には、式(8)により表される関係が近似的に成立すると考えられる。   At this time, when the plane parameters ↑ n and d of the object existence virtual road surface Sa are applied to the right side of the equation (8), the position vector ↑ P1 of the projection point P1 of the first captured image and the second captured image It is considered that the relationship represented by the equation (8) is approximately established with the position vector ↑ P2 of the projection point P2.

従って、時刻t1と時刻t2との間の期間での車載カメラ2の位置及び姿勢の変化をそれぞれ表す移動並進ベクトル↑t及び回転行列Rと、時刻t1において自車両1からの距離が対象物53の接地点P53と同一となるような対象物存在路面52上の静止点Pを第1及び第2撮像画像にそれぞれ投影してなる投影点P1,P2の位置ベクトル↑P1,↑P2とを用いて、前記した如く変数a(≡(cosθ)/d)又はb(≡(sinθ)/d)値を算出した場合、その変数a又はbの値は、近似的に、対象物存在仮想路面Saに対応する↑n/dの成分の値に相当するものとなる。   Accordingly, the translation vector ↑ t and the rotation matrix R representing the change in the position and orientation of the in-vehicle camera 2 in the period between the time t1 and the time t2, respectively, and the distance from the host vehicle 1 at the time t1 are the object 53. Position vectors ↑ P1 and ↑ P2 of projection points P1 and P2 obtained by projecting a stationary point P on the object presence road surface 52 that is the same as the ground contact point P53 to the first and second captured images, respectively. When the variable a (≡ (cos θ) / d) or b (≡ (sin θ) / d) is calculated as described above, the value of the variable a or b is approximately the object existing virtual road surface Sa. It corresponds to the value of the component of ↑ n / d corresponding to.

また、上記対象物存在仮想路面Saと、時刻t1での車載カメラ2の光学中心Cとの距離dは、近似的にカメラ高Hcに一致するものと考えられる。   The distance d between the object existence virtual road surface Sa and the optical center C of the in-vehicle camera 2 at time t1 is considered to approximately match the camera height Hc.

従って、dの値として、カメラ高Hcを使用することで、そのdの値(=Hc)と、変数a又はbの値とから前記式(13a)又は式(13b)により、時刻t1での車載カメラ2の光軸Lcに対する対象物存在仮想路面Saの傾斜角度θ(換言すれば、図2(a)の直線L2の光軸Lcに対する傾斜角度)を推定することができることとなる。   Therefore, by using the camera height Hc as the value of d, from the value of d (= Hc) and the value of the variable a or b, the above equation (13a) or equation (13b) can be used at time t1. The inclination angle θ of the object existence virtual road surface Sa with respect to the optical axis Lc of the in-vehicle camera 2 (in other words, the inclination angle of the straight line L2 with respect to the optical axis Lc in FIG. 2A) can be estimated.

一方、図2(a)を参照して判るように、車載カメラ2の光軸Lcに対する対象物存在仮想路面Saの傾斜角度θは、θ=α+βとなる。従って、対象物53の自車両1からの距離Dを前記式(2)に基づき測定するために必要となる前記角度βは、上記の如く推定した対象物存在仮想路面Saの傾斜角度θと、前記角度αとから、次式(14)により算出できることとなる。   On the other hand, as can be seen with reference to FIG. 2A, the inclination angle θ of the object existence virtual road surface Sa with respect to the optical axis Lc of the in-vehicle camera 2 is θ = α + β. Accordingly, the angle β necessary for measuring the distance D of the object 53 from the host vehicle 1 based on the equation (2) is the inclination angle θ of the object existence virtual road surface Sa estimated as described above. From the angle α, it can be calculated by the following equation (14).


β=θ−α ……(14)

以上のようにして、互いに異なる時刻t1,t2で車載カメラ2により撮像した2つの撮像画像を用いて、前記角度βの値を推定することが可能である。

β = θ−α (14)

As described above, it is possible to estimate the value of the angle β using two captured images captured by the in-vehicle camera 2 at different times t1 and t2.

そして、この角度βの値の推定値を用いることで、前記式(4)に基づいて、対象物53と自車両1との距離Dを推定できることとなる。   Then, by using the estimated value of the angle β, the distance D between the target object 53 and the host vehicle 1 can be estimated based on the equation (4).

以上説明した技術事項を前提として、前記第2発明を以下に説明する。 Based on the technical matters described above, the second invention will be described below.

前記第2発明によれば、前記測距用特徴点抽出手段によって、自車両からの距離が前記2つの撮像画像のうちの第1撮像画像の撮像時刻t1での前記対象物の接地点と同じにな
るような前記対象物存在路面上の静止点を前記2つの撮像画像にそれぞれ投影してなる特徴点が抽出される。そして、前記2つの撮像画像のそれぞれにおける該特徴点の位置が特定される。これにより、前記した位置ベクトル↑P1,↑P2が特定されることとなる。
According to the second aspect of the present invention , the distance from the own vehicle is the same as the ground point of the object at the imaging time t1 of the first captured image of the two captured images by the distance measurement feature point extracting means. The feature points obtained by projecting the still points on the road surface where the object exists to the two captured images are extracted. Then, the position of the feature point in each of the two captured images is specified. As a result, the position vectors ↑ P1 and ↑ P2 described above are specified.

なお、第1撮像画像における前記特徴点は、例えば、第1撮像画像の撮像時刻t1での前記対象物の接地点を第1撮像画像に投影してなる点(図1(b)又は図2(b)示した例では、点P53a)を通る横方向のライン上で、輝度等の局所特徴を有する点として抽出することできる。そして、他方の撮像画像(撮像時刻t2で撮像された第2撮像画像)における前記特徴点は、該第2撮像画像において、第1撮像画像の特徴点と同じような特徴を有する点として抽出することができる。このような特徴点としては、例えばハリスコーナ点や、最小固有値点等を利用することができる。   The feature point in the first captured image is, for example, a point formed by projecting the ground point of the object at the imaging time t1 of the first captured image onto the first captured image (FIG. 1B or FIG. 2). (B) In the example shown, it can be extracted as a point having local features such as luminance on a horizontal line passing through the point P53a). Then, the feature point in the other captured image (second captured image captured at imaging time t2) is extracted as a point having the same characteristics as the feature point of the first captured image in the second captured image. be able to. As such a feature point, for example, a Harris corner point, a minimum eigenvalue point, or the like can be used.

また、前記カメラ運動計測手段によって、2つの撮像画像(第1撮像画像及び第2撮像画像)のそれぞれの撮像時刻t1,t2の間の期間における前記車載カメラの位置及び姿勢の変化を表すカメラ運動パラメータが計測される。該カメラ運動パラメータは、前記並進移動ベクトル↑tと回転行列Rとを規定し得るようなパラメータであり、並進移動ベクトル↑t及び回転行列Rそのものであってもよい。   In addition, the camera motion measuring means represents camera motion representing changes in the position and orientation of the in-vehicle camera in the period between the imaging times t1 and t2 of the two captured images (first captured image and second captured image). Parameters are measured. The camera motion parameters are parameters that can define the translation vector ↑ t and the rotation matrix R, and may be the translation vector ↑ t and the rotation matrix R itself.

なお、上記並進移動ベクトル↑tや回転行列R等のカメラ運動パラメータは、例えばStructure from Motion(以下SfMということがある)に基づく公知の画像処理手法によって計測することができる。   Note that the camera motion parameters such as the translation vector ↑ t and the rotation matrix R can be measured by a known image processing method based on, for example, Structure from Motion (hereinafter sometimes referred to as SfM).

さらに、前記第3参照角度推定手段によって、前記第3参照角度の値が推定される。この第3参照角度は、車載カメラの光軸に対する前記対象物存在仮想路面(Sa)の傾斜角度θに相当するものである。   Further, the value of the third reference angle is estimated by the third reference angle estimation means. This third reference angle corresponds to the inclination angle θ of the object existence virtual road surface (Sa) with respect to the optical axis of the in-vehicle camera.

従って、前記カメラ運動パラメータと、前記2つの撮像画像のそれぞれにおける前記特徴点の位置と、前記車載カメラの高さと、第3参照角度との間には、前記式(11a)〜(11c)により示される如き関係が近似的に成立する。そして、その関係を表す演算式に基づいて、前記カメラ運動パラメータの計測値と、前記2つの撮像画像のそれぞれにおいて特定された前記特徴点の位置と、前記車載カメラの高さの設定値とから、前記第3参照角度(θ)の値を推定することができる。   Therefore, between the camera motion parameter, the position of the feature point in each of the two captured images, the height of the vehicle-mounted camera, and the third reference angle, the equations (11a) to (11c) are used. The relationship shown is approximately established. Then, based on an arithmetic expression representing the relationship, from the measured value of the camera motion parameter, the position of the feature point specified in each of the two captured images, and the set value of the height of the in-vehicle camera The value of the third reference angle (θ) can be estimated.

より具体的には、例えば、前記カメラ運動計測手段により、前記2つの撮像画像のそれぞれの撮像時刻の間の期間における前記車載カメラの位置の変位ベクトルである並進移動ベクトル↑tと、該車載カメラの姿勢の角度変化量を表す回転行列Rとを前記カメラ運動パラメータとして計測する場合、前記式(11a)〜(11c)に基づいて、前記カメラ運動パラメータの計測値(前記並進移動ベクトル↑tの各成分の値、並びに回転行列Rの各成分の値)と、前記2つの撮像画像のそれぞれにおいて特定された前記特徴点の位置(位置ベクトル↑P1,↑P2のそれぞれの各成分の値)とから、前記した如く変数a又はbの値を求めることができる。そして、この変数a又はbの値と、dの値としての車載カメラの高さの設定値(Hc)とから、前記式(11a)又は(11b)により第3参照角度(θ)の推定値を求めることができる。   More specifically, for example, by the camera motion measuring means, a translation vector ↑ t that is a displacement vector of the position of the in-vehicle camera in a period between the imaging times of the two captured images, and the in-vehicle camera When the rotation matrix R representing the angle change amount of the posture is measured as the camera motion parameter, based on the equations (11a) to (11c), the measured value of the camera motion parameter (of the translation vector ↑ t) The value of each component and the value of each component of the rotation matrix R), the position of the feature point specified in each of the two captured images (the value of each component of the position vectors ↑ P1, ↑ P2), and As described above, the value of the variable a or b can be obtained. Then, from the value of the variable a or b and the set value (Hc) of the in-vehicle camera height as the value of d, the estimated value of the third reference angle (θ) by the above formula (11a) or (11b). Can be requested.

そして、第2発明では、前記第2距離推定手段は、前記第1参照角度(γ)の推定値と前記第2参照角度の推定値(α)と前記第3参照角度(θ)の推定値と前記車載カメラの高さの設定値とを基に、前記第2距離推定値(D2)を決定する。この場合、前記第2参照角度の推定値(α)と前記第3参照角度(θ)の推定値とから、前記式(14)により前記角度βの値を推定できるので、このβの値と、前記第1参照角度(γ)の推定値及び前記第2参照角度の推定値(α)とを用いて、式(4)に基づいて第2距離推定値(D2)を決定できる。 In the second invention , the second distance estimating means includes the estimated value of the first reference angle (γ), the estimated value of the second reference angle (α), and the estimated value of the third reference angle (θ). And the second distance estimation value (D2) is determined based on the height setting value of the in-vehicle camera. In this case, since the value of the angle β can be estimated by the equation (14) from the estimated value of the second reference angle (α) and the estimated value of the third reference angle (θ), the value of β Using the estimated value of the first reference angle (γ) and the estimated value of the second reference angle (α), the second distance estimated value (D2) can be determined based on Equation (4).

かかる第2発明によれば、第2距離推定値(D2)を、最終的に対象物と自車両との間の距離の推定値として確定する場合、すなわち、第2距離推定値(D2)の信頼性が確保されていると見なせる状況において、対象物と自車両との間の距離を精度よく推定することが可能となる。 According to the second invention , when the second distance estimated value (D2) is finally determined as the estimated value of the distance between the object and the host vehicle, that is, the second distance estimated value (D2) It is possible to accurately estimate the distance between the object and the host vehicle in a situation where reliability can be regarded as being ensured.

また、前記基本構成又は第1発明においては、前記対象物存在路面が、前記車両が存在する路面である自車両存在路面に対して勾配を有するか否かを検知する勾配検知手段をさらに備えており、前記距離推定値確定手段は、前記勾配検知手段の検知結果が肯定的である場合には、前記第2距離推定値判断手段の判断結果によらずに、前記第1距離推定値を前記対象物と自車両との間の距離の推定値として確定するようにしてもよい(第3発明)。 In the basic configuration or the first aspect of the invention , the vehicle further includes a gradient detection unit that detects whether the object existing road surface has a gradient with respect to the own vehicle existing road surface on which the vehicle exists. The distance estimated value determining means, when the detection result of the gradient detecting means is affirmative, the first distance estimated value is determined based on the determination result of the second distance estimated value determining means. You may make it fix as an estimated value of the distance between a target object and the own vehicle ( 3rd invention ).

この第3発明によれば、前記対象物存在路面が、前記自車両存在路面に対して勾配を有することが前記勾配検知手段により検知された場合には、前記第2距離推定値判断手段の判断結果によらずに、前記第1距離推定値が前記対象物と自車両との間の距離の推定値として確定される。このため、例えば、前記第2距離推定手段が路面の勾配の変化が無いか、もしくは微小であることを前提とした演算処理(例えば前記式(3)により)、第2距離推定値(D2)を決定するように構成された場合において、第2距離推定値(D2)の信頼性が乏しいものとなる状況で、該第2距離推定値(D2)が対象物と自車両との間の距離の推定値として確定されるのが防止される。 According to the third aspect of the present invention, when the gradient detecting unit detects that the object existing road surface has a gradient with respect to the own vehicle existing road surface, the determination by the second distance estimated value determining unit is performed. Regardless of the result, the first distance estimated value is determined as the estimated value of the distance between the object and the host vehicle. For this reason, for example, a calculation process (for example, by the above equation (3)) on the premise that the second distance estimating means has no change or slight change in the road surface gradient, and the second distance estimated value (D2). In the situation where the reliability of the second distance estimated value (D2) is poor, the second distance estimated value (D2) is the distance between the object and the host vehicle. It is prevented that the estimated value is determined.

また、前記基本構成又は第1〜第3発明では、前記対象物抽出手段により抽出された対象物の画像に基づいて、該対象物が、該対象物の属する種類における前記対象物標準サイズ値から乖離する規格外のサイズ値を有する規格外対象物であるか否かを判断する規格外対象物判断手段をさらに備え、前記距離推定値確定手段は、前記対象物が規格外対象物であると判断された場合には、前記第2距離推定値判断手段の判断結果によらずに、前記第2距離推定値を前記対象物と自車両との間の距離の推定値として確定するようにしてもよい(第4発明)。 In the basic configuration or the first to third inventions , based on the object image extracted by the object extraction means, the object is obtained from the object standard size value in the type to which the object belongs. It further comprises non-standard object judging means for judging whether or not it is a non-standard object having a non-standard size value that diverges, and the distance estimation value determining means is that the object is a non-standard object If it is determined, the second distance estimated value is determined as an estimated value of the distance between the object and the host vehicle without depending on the determination result of the second distance estimated value determining means. ( 4th invention ).

この第4発明によれば、前記規格外対象物推定手段により前記対象物が規格外対象物であると判断された場合には、前記第2距離推定値判断手段の判断結果によらずに、前記第2距離推定値が前記対象物と自車両との間の距離の推定値として確定される。これにより、規格外のサイズ値の対象物に対して、信頼性の乏しい第1距離推定値(D1)が、該対象物と自車両との間の距離の推定値として確定されるのが防止される。 According to the fourth aspect of the invention, when the non-standard object estimation unit determines that the target object is a non-standard object, regardless of the determination result of the second distance estimated value determination unit, The second distance estimated value is determined as an estimated value of the distance between the object and the host vehicle. This prevents the unreliable first distance estimated value (D1) from being determined as an estimated value of the distance between the object and the host vehicle for an object having a non-standard size value. Is done.

図1(a)は車両と対象物との一例の状態を示す図、図1(b)は図1(a)の状況で車載カメラにより撮像された撮像画像の概略を示す図。FIG. 1A is a diagram illustrating an example of a state of a vehicle and an object, and FIG. 1B is a diagram illustrating an outline of a captured image captured by a vehicle-mounted camera in the state of FIG. 図2(a)は車両と対象物との他の例の状態を示す図、図2(b)は図2(a)の状況で車載カメラにより撮像された撮像画像の概略を示す図。FIG. 2A is a diagram illustrating another example of the state of the vehicle and the object, and FIG. 2B is a diagram illustrating an outline of a captured image captured by the in-vehicle camera in the situation of FIG. 対象物と車両との間の距離の推定誤差の特性を示すグラフ。The graph which shows the characteristic of the estimation error of the distance between a target object and a vehicle. 図4(a)車載カメラによる互いに異なる時刻t1,t2での撮像状態を示す図、図4(b)は図4(a)の時刻t1での撮像状態を示す図。4A is a diagram showing an imaging state at different times t1 and t2 by the in-vehicle camera, and FIG. 4B is a diagram showing an imaging state at time t1 in FIG. 4A. 本発明の第1実施形態における測距装置の構成を示すブロック図。1 is a block diagram showing a configuration of a distance measuring device according to a first embodiment of the present invention. 図5に示す第2距離推定部の処理を示すブロック図。The block diagram which shows the process of the 2nd distance estimation part shown in FIG. 図7(a),(b)は図6の第2参照角度第A推定部の処理を説明するための図。FIGS. 7A and 7B are diagrams for explaining processing of the second reference angle A-estimation unit in FIG. 6. 本発明の第2実施形態における距離推定値確定部の処理を示すブロック図。The block diagram which shows the process of the distance estimated value determination part in 2nd Embodiment of this invention. 本発明の第3実施形態における距離推定値確定部の処理を示すブロック図。The block diagram which shows the process of the distance estimated value determination part in 3rd Embodiment of this invention.

[第1実施形態]
本発明の第1実施形態を図1〜図7を参照して以下に説明する。
[First Embodiment]
A first embodiment of the present invention will be described below with reference to FIGS.

図5を参照して、本実施形態の測距装置10は、先に図1(a)及び図2(a)に示した車両1に搭載されたものであり、前記車載カメラ2に接続された演算処理ユニット11を備える。なお、図1(a)及び図2(a)では、車両1を模式的に図示したが、実際の車両1は例えば自動車である。   With reference to FIG. 5, the distance measuring device 10 of the present embodiment is mounted on the vehicle 1 shown in FIGS. 1A and 2A and is connected to the in-vehicle camera 2. The arithmetic processing unit 11 is provided. In addition, in FIG. 1A and FIG. 2A, the vehicle 1 is schematically illustrated, but the actual vehicle 1 is, for example, an automobile.

そして、本実施形態では、車載カメラ2は、車両1の前方を監視するために車両1の前部に搭載されており、車両1の前方の画像を撮像する。この場合、車載カメラ2は、その光軸Lcを車両1の前後方向に向けるようにして車両1の車体に取り付けられている。ただし、車載カメラ2の光軸Lcは、車両1の前後方向に対して多少の傾きを有していてもよい。   In the present embodiment, the in-vehicle camera 2 is mounted on the front of the vehicle 1 to monitor the front of the vehicle 1 and captures an image in front of the vehicle 1. In this case, the in-vehicle camera 2 is attached to the vehicle body of the vehicle 1 such that its optical axis Lc is directed in the front-rear direction of the vehicle 1. However, the optical axis Lc of the in-vehicle camera 2 may have a slight inclination with respect to the longitudinal direction of the vehicle 1.

この車載カメラ2は、CCDカメラ又はCMOSカメラ等により構成され、撮像画像の画像信号を生成して出力する。その撮像画像は、カラー画像、モノトーン画像のいずれであってもよい。   The in-vehicle camera 2 is constituted by a CCD camera, a CMOS camera, or the like, and generates and outputs an image signal of a captured image. The captured image may be either a color image or a monotone image.

なお、車載カメラ2は、車両1の後方又は側方の画像を撮像するように車両1に搭載されたカメラであってもよい。   The in-vehicle camera 2 may be a camera mounted on the vehicle 1 so as to capture a rear or side image of the vehicle 1.

演算処理ユニット11は、図示を省略するCPU、RAM、ROM、インターフェース回路等を含む電子回路ユニットであり、車載カメラ2で生成された画像信号が入力される。   The arithmetic processing unit 11 is an electronic circuit unit including a CPU, a RAM, a ROM, an interface circuit, etc. (not shown), and receives an image signal generated by the in-vehicle camera 2.

この演算処理ユニット11は、実装されたプログラムを実行することによって実現される機能として、車載カメラ2の撮像画像を取得する画像取得部12と、その撮像画像から自車両1からの距離Dを測定しようとする対象物53の画像を抽出する対象物抽出部13と、各対象物と自車両1との間の距離Dを前記第1測距手法及び第2測距手法によりそれぞれ推定する第1距離推定部14及び第2距離推定部15と、各対象物と自車両1との距離の推定値を確定して出力する距離推定値確定部16とを備える。該演算処理ユニット11は、所定の演算処理周期でこれらの各機能部の処理を逐次実行することによって、車両1の前方に存在する各対象物53と自車両1との間の距離Dの推定値を逐次決定して出力する。   As a function realized by executing the implemented program, the arithmetic processing unit 11 measures the distance D from the host vehicle 1 from the image acquisition unit 12 that acquires a captured image of the in-vehicle camera 2 and the captured image. A target extraction unit 13 that extracts an image of the target object 53 to be extracted, and a first distance estimation method that estimates a distance D between each target object and the host vehicle 1 using the first distance measurement method and the second distance measurement method. The distance estimation part 14 and the 2nd distance estimation part 15 and the distance estimated value determination part 16 which fixes and outputs the estimated value of the distance of each target object and the own vehicle 1 are provided. The arithmetic processing unit 11 estimates the distance D between each object 53 present in front of the vehicle 1 and the host vehicle 1 by sequentially executing the processing of each of these functional units at a predetermined arithmetic processing cycle. The value is sequentially determined and output.

以下に、演算処理ユニット11の各機能部の処理を含めて、該演算処理ユニット11の全体処理の詳細を説明する。   The details of the overall processing of the arithmetic processing unit 11 including the processing of each functional unit of the arithmetic processing unit 11 will be described below.

車載カメラ2は、演算処理ユニット11から所定の演算処理周期で指示されるタイミングで車両1の前方の画像を撮像する。そして、その撮像により生成された画像信号が、車載カメラ2から演算処理ユニット11の画像取得部12に逐次取り込まれる。この画像取得部12は、車載カメラ2から入力されるアナログ信号である画像信号(各画素毎の画像信号)をデジタルデータに変換し、図示しない画像メモリに記憶保持する。   The in-vehicle camera 2 captures an image in front of the vehicle 1 at a timing instructed by the arithmetic processing unit 11 at a predetermined arithmetic processing cycle. And the image signal produced | generated by the imaging is taken in sequentially by the image acquisition part 12 of the arithmetic processing unit 11 from the vehicle-mounted camera 2. FIG. The image acquisition unit 12 converts an image signal (an image signal for each pixel) that is an analog signal input from the in-vehicle camera 2 into digital data, and stores and stores the digital signal in an image memory (not shown).

この場合、画像取得部12は、車載カメラ2によって互いに異なる時刻(所定の演算処理周期の時間間隔毎の時刻)で撮像された複数の撮像画像、例えば2つの撮像画像の組を定期的に更新しつつ、画像メモリに記憶保持する。以降の説明では、画像メモリに記憶保持される2つの撮像画像の撮像時刻を時刻t1、t2とし、時刻t1での撮像画像を第1撮像画像、時刻t2での撮像画像を第2撮像画像ということがある。なお、時刻t2は時刻t1の後の時刻及び前の時刻のいずれであってもよい。   In this case, the image acquisition unit 12 periodically updates a plurality of captured images, for example, a set of two captured images captured at different times (times at time intervals of a predetermined calculation processing cycle) by the in-vehicle camera 2. However, it is stored in the image memory. In the following description, the imaging times of two captured images stored and held in the image memory are referred to as times t1 and t2, the captured image at time t1 is referred to as a first captured image, and the captured image at time t2 is referred to as a second captured image. Sometimes. Note that the time t2 may be either the time after the time t1 or the previous time.

画像取得部12の処理によって画像メモリに記憶保持された2つの撮像画像(第1撮像画像及び第2撮像画像)のうちの第1撮像画像は、対象物抽出部13に与えられる。   The first captured image of the two captured images (first captured image and second captured image) stored and held in the image memory by the processing of the image acquisition unit 12 is given to the object extraction unit 13.

この対象物抽出部13は、第1撮像画像から、自車両1との距離Dを測定(推定)しようとする所定種類の対象物53の画像部分を抽出し、各対象物に関する画像情報である対象物画像情報を決定して出力する。   This target object extraction unit 13 extracts image portions of a predetermined type of target object 53 from which the distance D to the host vehicle 1 is to be measured (estimated) from the first captured image, and is image information regarding each target object. The object image information is determined and output.

本実施形態では、測距対象とする対象物53の種類は、大別すると、歩行者(人)と、他車両との2種類である。さらに、歩行者は、成人の歩行者と、児童の歩行者とに分類される。従って、対象物抽出部13は、測距対象の対象物53として、成人の歩行者、児童の歩行者、及び他車両の画像部分を第1撮像画像から抽出する。   In the present embodiment, the types of the object 53 to be measured are roughly classified into two types: a pedestrian (person) and another vehicle. Furthermore, pedestrians are classified into adult pedestrians and child pedestrians. Therefore, the object extraction unit 13 extracts the image portion of the adult pedestrian, the child pedestrian, and the other vehicle from the first captured image as the object 53 to be measured.

この場合、対象物抽出部13は、第1撮像画像から、歩行者又は車両に特徴的な形状パターン等を有する画像部分を探索することで、該第1撮像画像に含まれる歩行者の画像部分と他車両の画像部分とを抽出する。例えば、図1(a)又は図2(a)に示した状況では、図1(b)又は図2(b)の参照符号53aの部分が、歩行者の画像部分として抽出される。   In this case, the object extraction unit 13 searches the first captured image for an image portion having a shape pattern or the like that is characteristic of the pedestrian or the vehicle, so that the pedestrian image portion included in the first captured image. And image parts of other vehicles are extracted. For example, in the situation shown in FIG. 1 (a) or 2 (a), the portion indicated by reference numeral 53a in FIG. 1 (b) or 2 (b) is extracted as the image portion of the pedestrian.

なお、撮像画像から、歩行者や他車両の画像部分を探索する手法は種々様々な手法が公知となっており、その公知の手法を用いて第1撮像画像から対象物53としての歩行者又は他車両を抽出するようにすればよい。   Note that various methods are known for searching for image portions of pedestrians and other vehicles from captured images, and a pedestrian or target object 53 from the first captured image using the known methods. What is necessary is just to extract another vehicle.

そして、抽出した対象物53が歩行者である場合には、対象物抽出部13は、さらに、その歩行者が成人であるか、児童であるかを特定する。この特定は、例えば、歩行者の画像部分の縦方向(上下方向)の長さと、横方向の長さとの比率に基づいて行なわれる。   When the extracted object 53 is a pedestrian, the object extraction unit 13 further specifies whether the pedestrian is an adult or a child. This specification is performed based on, for example, the ratio between the length in the vertical direction (vertical direction) and the length in the horizontal direction of the image portion of the pedestrian.

具体的には、児童は、一般に、その身長(上下方向の全長)に対する幅(横方向の全長)の比率が、成人に比して大きい。そこで、本実施形態では、対象物抽出部53は、抽出した歩行者の画像部分の縦方向の長さに対する横方向の長さの比率を求め、その比率があらかじめ定めた所定の閾値以上であるか否かによって、該歩行者が児童であるか否かを特定する。これにより、抽出された歩行者が、成人と児童とに区別されることとなる。   Specifically, in general, the ratio of the width (full length in the horizontal direction) to the height (full length in the vertical direction) of a child is larger than that of an adult. Therefore, in the present embodiment, the object extraction unit 53 obtains a ratio of the length in the horizontal direction to the length in the vertical direction of the extracted image portion of the pedestrian, and the ratio is equal to or greater than a predetermined threshold value. Whether or not the pedestrian is a child. Thereby, the extracted pedestrian is distinguished into an adult and a child.

そして、対象物抽出部13は、第1撮像画像から抽出した各対象物毎の対象物画像情報を決定して出力する。具体的には、本実施形態では、対象物抽出部13は、抽出した対象物53の種類を示す属性情報と、第1撮像画像における各対象物53のサイズである画像中対象物サイズと、各対象物53の接地点(対象物53と対象物存在路面52との接触点)を第1撮像画像に投影してなる画像上対象物接地点の位置(第1撮像画像内での位置)とを対象物画像情報として出力する。   Then, the object extraction unit 13 determines and outputs object image information for each object extracted from the first captured image. Specifically, in the present embodiment, the object extraction unit 13 includes attribute information indicating the type of the extracted object 53, the in-image object size that is the size of each object 53 in the first captured image, Position of the object grounding point on the image obtained by projecting the grounding point of each object 53 (the contact point between the object 53 and the object existence road surface 52) onto the first captured image (position in the first captured image) Are output as object image information.

この場合、画像中対象物サイズは、対象物53の種類毎にあらかじめ定められた方向での長さである。具体的には、対象物53が歩行者(成人又は児童)である場合には、その対象物53の画像中対象物サイズは、第1撮像画像における該対象物53の上下方向(縦方向)の全長(図1(b)又は図2(b)に示したh53a)である。   In this case, the object size in the image is a length in a direction determined in advance for each type of the object 53. Specifically, when the object 53 is a pedestrian (adult or child), the object size in the image of the object 53 is the vertical direction (vertical direction) of the object 53 in the first captured image. Is the full length (h53a shown in FIG. 1B or FIG. 2B).

また、対象物53が他車両である場合には、その対象物53の画像中対象物サイズは、第1撮像画像における該対象物53の横方向(車幅方向)の全長である。   When the object 53 is another vehicle, the object size in the image of the object 53 is the total length of the object 53 in the horizontal direction (vehicle width direction) in the first captured image.

さらに、本実施形態では、対象物抽出部13は、第1撮像画像中の各対象物53の画像の最下点を、画像上対象物接地点として特定し、その画像上対象物接地点の位置(第1撮像画像における位置)を出力する。例えば図1(a)又は図2(a)に示した状況では、対象物53(歩行者)の画像53aに関し、図1(b)又は図2(b)に示す点P53aが画像上対象物接地点として特定され、この点P53aの第1撮像画像での位置が出力される。   Further, in the present embodiment, the object extraction unit 13 specifies the lowest point of the image of each object 53 in the first captured image as the image object ground point, and the object ground point on the image. The position (position in the first captured image) is output. For example, in the situation shown in FIG. 1 (a) or FIG. 2 (a), regarding the image 53a of the object 53 (pedestrian), the point P53a shown in FIG. The ground point is specified, and the position of the point P53a in the first captured image is output.

次いで、演算処理ユニット11は、第1距離推定部14及び第2距離推定部15の処理を実行する。   Next, the arithmetic processing unit 11 executes the processing of the first distance estimation unit 14 and the second distance estimation unit 15.

第1距離推定部14には、上記対象物画像情報が対象物抽出部13から入力される。そして、第1距離推定部14は、入力された対象物画像情報を用いて、各対象物53毎に、前記第1測距手法に基づく第1距離推定値D1を決定する。   The object image information is input from the object extraction unit 13 to the first distance estimation unit 14. And the 1st distance estimation part 14 determines the 1st distance estimated value D1 based on the said 1st ranging method for every target object 53 using the input target object image information.

この第1距離推定部14の処理では、まず、各対象物53毎に、その種類に応じて、該対象物53が属する種類の対象物のサイズ(所定方向での長さ)の標準値である対象物標準サイズ値を決定する。具体的には、対象物53が成人の歩行者である場合には、国内に存在する成人の身長(上下方向の全長)の平均値として一般的に知られている値(既知の値)が、該対象物53に対応する対象物標準サイズ値として決定される。   In the processing of the first distance estimation unit 14, first, for each target object 53, a standard value of the size (length in a predetermined direction) of the target object to which the target object 53 belongs according to the type. Determine an object standard size value. Specifically, when the object 53 is an adult pedestrian, a value (known value) generally known as an average value of the height (full length in the vertical direction) of adults existing in the country is used. , The object standard size value corresponding to the object 53 is determined.

同様に、対象物53が児童の歩行者である場合には、国内に存在する児童の身長の平均値として一般的に知られている値(既知の値)が、該対象物53に対応する対象物標準サイズ値として決定される。   Similarly, when the object 53 is a pedestrian of a child, a value (known value) generally known as an average value of the height of a child existing in the country corresponds to the object 53. Determined as the object standard size value.

また、対象物53が他車両である場合には、国内に存在する車両の車幅(横方向の全長)の平均値として一般的に知られている値(既知の値)が、該対象物53に対応する対象物標準サイズ値として決定される。   Further, when the object 53 is another vehicle, a value (known value) generally known as an average value of the vehicle width (total length in the lateral direction) of the vehicle existing in the country is the object. The object standard size value corresponding to 53 is determined.

なお、対象物53の各種類毎の対象物標準サイズ値(本実施形態では各種類毎の対象物サイズの平均値)は、演算処理ユニット11の記憶装置にあらかじめ記憶保持されている。   The object standard size value for each type of the object 53 (in this embodiment, the average value of the object size for each type) is stored and held in advance in the storage device of the arithmetic processing unit 11.

そして、第1距離推定部14は、各対象物53毎に、上記の如く決定した対象物標準サイズ値と、前記画像中対象物サイズとの比率に基づいて、該対象物53の自車両1からの距離の推定値としての第1距離推定値D1を決定する。   Then, the first distance estimating unit 14 determines, for each object 53, the own vehicle 1 of the object 53 based on the ratio between the object standard size value determined as described above and the object size in the image. A first distance estimated value D1 is determined as an estimated value of the distance from.

具体的には、第1距離推定部14は、各対象物53毎に、対象物標準サイズ値と、画像中対象物サイズとをそれぞれ、前記式(1a)の右辺のH53s、h53aに代入して、該右辺の演算を行なうことにより、第1距離推定値D1を算出する。   Specifically, the first distance estimation unit 14 substitutes the object standard size value and the object size in the image for H53s and h53a on the right side of the equation (1a) for each object 53. Then, the first distance estimated value D1 is calculated by calculating the right side.

なお、この場合、車載カメラ2の焦点距離Fの値は演算処理ユニット11の記憶装置にあらかじめ記憶保持されている。   In this case, the value of the focal length F of the in-vehicle camera 2 is stored and held in advance in the storage device of the arithmetic processing unit 11.

以上の如く、第1距離推定部14は、前記第1測距手法によって、各対象物53と自車両1との間の距離の推定値(第1距離推定値D1)を決定する。   As described above, the first distance estimating unit 14 determines the estimated value (first distance estimated value D1) of the distance between each object 53 and the host vehicle 1 by the first distance measuring method.

前記第2距離推定部15には、第1撮像画像及び第2撮像画像が画像取得部12から入力されると共に、対象物画像情報が対象物抽出部13から入力される。そして、第2距離推定部15は、各対象物53毎に、前記第2測距手法に基づく第2距離推定値D2を決定する。この場合、本実施形態では、第2距離推定部15は、前記角度γだけでなく、角度α、θの推定も行い、それらの角度γ、α、θの推定値を用いて、第2距離推定値D2を決定する。   The second distance estimation unit 15 receives the first captured image and the second captured image from the image acquisition unit 12 and the target image information from the target extraction unit 13. And the 2nd distance estimation part 15 determines the 2nd distance estimated value D2 based on the said 2nd ranging method for every target object 53. FIG. In this case, in the present embodiment, the second distance estimation unit 15 estimates not only the angle γ but also the angles α and θ, and uses the estimated values of the angles γ, α, and θ, and the second distance. Estimate value D2 is determined.

この第2距離推定部15は、その主要な機能部として、第1撮像画像及び第2撮像画像から各対象物53と自車両1との間の距離を第2測距手法により推定するために使用する特徴点を抽出する測距用特徴点抽出部17と、車載カメラ2の運動状態を推定(計測)するカメラ運動推定部18と、第1〜第3参照角度をそれぞれ推定する第1参照角度推定部19、第2参照角度推定部20及び第3参照角度推定部21と、各対象物53と自車両1との間の第2距離推定値D2を求める第2距離推定値算出部22とを備える。第1〜第3参照角度は、それぞれ、前記角度γ、α、θに相当するものである。   The second distance estimating unit 15 is a main functional unit for estimating the distance between each object 53 and the host vehicle 1 from the first captured image and the second captured image by the second ranging method. Ranging feature point extraction unit 17 for extracting feature points to be used, camera motion estimation unit 18 for estimating (measuring) the motion state of in-vehicle camera 2, and first reference for estimating first to third reference angles, respectively. The angle estimation unit 19, the second reference angle estimation unit 20, the third reference angle estimation unit 21, and the second distance estimation value calculation unit 22 that calculates the second distance estimation value D <b> 2 between each object 53 and the host vehicle 1. With. The first to third reference angles correspond to the angles γ, α, and θ, respectively.

測距用特徴点抽出部17は、各対象物毎に、第1撮像画像及び第2撮像画像と、対象物画像情報のうちの画像上対象物接地点P53aの位置(第1撮像画像での位置)とから、自車両1からの距離が該対象物53の接地点P53と同一(又はほぼ同一)となるような対象物存在路面52上の静止点Pを第1撮像画像及び第2撮像画像にそれぞれ投影してなる点を、該対象物53の測距用の特徴点として各撮像画像から探索する。   The distance-measuring feature point extraction unit 17 for each target, the first captured image and the second captured image, and the position of the on-image target ground point P53a in the target image information (in the first captured image). Position) and the stationary point P on the object existence road surface 52 where the distance from the host vehicle 1 is the same (or substantially the same) as the ground contact point P53 of the object 53. The points respectively projected on the image are searched from each captured image as the characteristic points for distance measurement of the object 53.

本実施形態では、車載カメラ2は、その撮像画像の横方向(カメラ座標系のx軸方向)が自車両存在路面51とほぼ平行になるように車両1に搭載されている。   In the present embodiment, the in-vehicle camera 2 is mounted on the vehicle 1 so that the lateral direction of the captured image (the x-axis direction of the camera coordinate system) is substantially parallel to the own vehicle existing road surface 51.

このため、自車両1からの距離が対象物接地点P53と同一の距離となるような対象物存在路面52上の静止点を第1撮像画像に投影してなる点は、基本的には、図1(b)又は図2(b)に示す如く、画像上対象物接地点P53aを通って横方向(カメラ座標系のx軸方向)に延在する直線L53a上に存在する。   For this reason, the point formed by projecting a stationary point on the object existence road surface 52 such that the distance from the own vehicle 1 is the same distance as the object ground contact point P53 is basically the following: As shown in FIG. 1B or FIG. 2B, it exists on a straight line L53a extending in the horizontal direction (x-axis direction of the camera coordinate system) through the object grounding point P53a on the image.

そこで、測距用特徴点抽出部17は、まず、第1撮像画像における対象物53の画像53aの近辺の画像領域内において、上記直線L53a上で、対象物存在路面52の画像52a中に存在する特徴点を探索し、その点を対象物存在路面52上の静止点(自車両1からの距離が対象物接地点P53と同じになる静止点)を第1撮像画像に投影してなる特徴点として抽出する。   Therefore, the distance measurement feature point extraction unit 17 first exists in the image 52a of the object existence road surface 52 on the straight line L53a in the image region in the vicinity of the image 53a of the object 53 in the first captured image. A feature point obtained by searching for a feature point to be detected and projecting the point on the first captured image as a stationary point on the object existence road surface 52 (a stationary point whose distance from the vehicle 1 is the same as the object grounding point P53). Extract as a point.

このような特徴点は、一般的には、その点を含む局所領域における輝度、彩度、色相等の状態量が、特徴的な(他の局所領域と区別可能な)大きさもしくは変化を示すような点である。例えばハリスコーナ点や、最小固有値点等が上記特徴点して探索される。   Such a feature point generally shows a characteristic (distinguishable from other local regions) size or change in state quantities such as luminance, saturation, and hue in the local region including the point. It is such a point. For example, a Harris corner point, a minimum eigenvalue point, or the like is searched for as the feature point.

これにより、例えば図1(b)又は図2(b)の点P1が、対象物53に対応する第1撮像画像中の特徴点として抽出される。   Thereby, for example, the point P1 in FIG. 1B or 2B is extracted as a feature point in the first captured image corresponding to the object 53.

このように第1撮像画像における特徴点を抽出した後、測距用特徴点抽出部17は、次に第2撮像画像において、第1撮像画像の特徴点と同じ特徴を有する点を探索し、その探索した点を、上記静止点を第2撮像画像に投影してなる特徴点として抽出する。この第2撮像画像における探索処理は、例えばブロックマッチング等の公知の画像処理手法を用いて行なえばよい。   After extracting the feature points in the first captured image in this way, the distance measurement feature point extracting unit 17 next searches the second captured image for a point having the same feature as the feature point of the first captured image, The searched point is extracted as a feature point obtained by projecting the stationary point onto the second captured image. The search process in the second captured image may be performed using a known image processing method such as block matching.

測距用特徴点抽出部17の上記の処理によって、自車両1からの距離が対象物接地点P53と同じになる対象物存在路面52上の静止点を第1撮像画像に投影してなる特徴点と、該静止点を第2撮像画像に投影してなる特徴点とが抽出されることとなる。このようにして、第1撮像画像及び第2撮像画像から抽出される特徴点の例が、図4(a)に示した特徴点P1,P2である。   A feature obtained by projecting a stationary point on the object existence road surface 52 whose distance from the vehicle 1 is the same as the object grounding point P53 to the first captured image by the above-described processing of the distance measurement feature point extraction unit 17. A point and a feature point obtained by projecting the still point on the second captured image are extracted. In this way, examples of feature points extracted from the first captured image and the second captured image are the feature points P1 and P2 illustrated in FIG.

そして、測距用特徴点抽出部17は、このように抽出した特徴点P1,P2の各撮像画像での位置(前記位置ベクトル↑P1,↑P2の座標成分)を求めて出力する。   Then, the distance measurement feature point extraction unit 17 obtains and outputs the positions of the extracted feature points P1 and P2 in the captured images (the coordinate components of the position vectors ↑ P1 and ↑ P2).

補足すると、本実施形態では、対象物53(歩行者又は他車両)が移動体であるため、第1撮像画像の撮像時刻t1と、第2撮像画像の撮像時刻t2とでは、対象物接地点P53が一般には一致しない。このため、本実施形態では、対象物接地点P53とは別の静止点を各撮像画像に投影してなる点を、上記特徴点として各撮像画像から抽出するようにした。   Supplementally, in this embodiment, since the object 53 (pedestrian or other vehicle) is a moving object, the object grounding point is obtained at the imaging time t1 of the first captured image and the imaging time t2 of the second captured image. P53 generally does not match. For this reason, in this embodiment, a point formed by projecting a stationary point different from the object ground point P53 on each captured image is extracted from each captured image as the feature point.

ただし、距離を測定しようとする対象物53は、歩行者等の移動体でなくてもよく、固定設置物(静止物)であってもよい。その場合には、対象物としての固定設置物の接地点を各撮像画像に投影してなる点を、上記特徴点として各撮像画像から抽出するようにしてもよい。   However, the object 53 whose distance is to be measured may not be a moving body such as a pedestrian, but may be a fixed installation object (stationary object). In that case, you may make it extract the point formed by projecting the grounding point of the fixed installation object as a target object on each captured image from each captured image as the said feature point.

前記カメラ運動推定部18には、第1撮像画像及び第2撮像画像が入力される。そして、カメラ運動推定部18は、本実施形態では、与えられた2つの撮像画像(第1撮像画像及び第2撮像画像)と、車載カメラ2の単位時間当たりの撮像数を示すフレームレートと、図示しない車速センサにより検出された車両1の車速Vとから、SfM(Structure from Motion)に基づく公知の画像処理手法を用いて、車載カメラ2の空間的な位置の変位ベクトルの推定値(計測値)としての前記並進移動ベクトル↑tと、2つの撮像画像の撮像時刻t1,t2の間の期間における車載カメラ2の空間的な姿勢の角度変化量の推定値(計測値)を示す前記回転行列Rとを、車載カメラ2の運動状態(時刻t1での運動状態)を示すカメラ運動パラメータとして算出する。   The camera motion estimation unit 18 receives a first captured image and a second captured image. Then, in this embodiment, the camera motion estimation unit 18 has two given captured images (first captured image and second captured image), a frame rate indicating the number of captured images per unit time of the in-vehicle camera 2, and From the vehicle speed V of the vehicle 1 detected by a vehicle speed sensor (not shown), an estimated value (measurement value) of a spatial position displacement vector of the in-vehicle camera 2 using a known image processing method based on SfM (Structure from Motion). ) And the rotation matrix indicating the estimated value (measured value) of the angular change amount of the spatial orientation of the in-vehicle camera 2 in the period between the imaging times t1 and t2 of the two captured images. R is calculated as a camera motion parameter indicating the motion state of the in-vehicle camera 2 (the motion state at time t1).

これらの並進移動ベクトル↑tと回転行列Rとは、例えば、第1撮像画像及び第2撮像画像にそれぞれ投影されている静止物体(固定設置物)の画像の各撮像画像での特徴点から得られるオプティカルフローに関するSfMに基づく公知の手法(例えば、「Structure from Motion without Correspondence」/Frank Dellaert, Steven M.Seitz, Charles E.Thorpe, Sebastian Thrun/Computer Sience Department & Robotics Institute Canegie Mellon University, Pittsborgh PA 15213を参照)によって算出される。   The translation vector ↑ t and the rotation matrix R are obtained from feature points in each captured image of a stationary object (fixed installation) image projected on the first captured image and the second captured image, for example. Known methods based on SfM for optical flow (eg “Structure from Motion without Correspondence” / Frank Dellaert, Steven M. Seitz, Charles E. Thorpe, Sebastian Thrun / Computer Sience Department & Robotics Institute Canegie Mellon University, Pittsborgh PA 15213 ).

補足すると、SfMに基づいて算出される並進移動ベクトルは、スケールが不定なものとなるが、上記フレームレートと車速の検出値とを基に、並進移動ベクトル↑tのスケールが決定される。   Supplementally, the translational movement vector calculated based on SfM has an indefinite scale, but the scale of the translational movement vector ↑ t is determined based on the frame rate and the detected vehicle speed.

第2距離推定部15は、上記の如く測距用特徴点算出部17及びカメラ運動推定部18の処理を実行した後、次に、第1参照角度推定部19、第2参照角度推定部20、第3参照角度推定部21の処理をそれぞれ実行する。なお、第1参照角度推定部19の処理は、カメラ運動推定部18の処理と並行して、又はその前に実行してもよい。また、第2参照角度推定部20の処理は、測距用特徴点算出部17の処理と並行して、又はその前に実行してもよい。   The second distance estimation unit 15 performs the processing of the distance measurement feature point calculation unit 17 and the camera motion estimation unit 18 as described above, and then performs the first reference angle estimation unit 19 and the second reference angle estimation unit 20. The processing of the third reference angle estimation unit 21 is executed. Note that the processing of the first reference angle estimation unit 19 may be executed in parallel with or before the processing of the camera motion estimation unit 18. Further, the process of the second reference angle estimation unit 20 may be executed in parallel with or before the process of the distance measurement feature point calculation unit 17.

第1参照角度推定部19には、各対象物53毎に、測距用特徴点抽出部17から第1撮像画像における前記特徴点P1の位置(又は前記位置ベクトル↑P1)が入力される。そして、第1参照角度推定部19は、各対象物53毎に、第1撮像画像の画像中心Pcaと、入力された特徴点P1との間の、上下方向(カメラ座標系のY軸方向)の位置偏差Δy(図1(b)又は図2(b)を参照)を算出する。そして、第1参照角度推定部19は、各対象物53毎に、この位置偏差Δyと、記憶装置にあらかじめ記憶保持された車載カメラ2に焦点距離Fの値とから、前記式(5)に基づいて、第1参照角度としての角度γの推定値(=tan-1(Δy/F))を算出する。 The position of the feature point P1 in the first captured image (or the position vector ↑ P1) is input from the ranging feature point extraction unit 17 to the first reference angle estimation unit 19 for each object 53. The first reference angle estimator 19 then, for each object 53, moves in the vertical direction (Y-axis direction of the camera coordinate system) between the image center Pca of the first captured image and the input feature point P1. Is calculated (see FIG. 1B or FIG. 2B). The first reference angle estimator 19 then calculates, for each object 53, the equation (5) from the positional deviation Δy and the value of the focal length F of the vehicle-mounted camera 2 stored and stored in advance in the storage device. Based on this, an estimated value (= tan −1 (Δy / F)) of the angle γ as the first reference angle is calculated.

第3参照角度推定部21には、測距用特徴点抽出部17から第1撮像画像及び第2撮像画像のそれぞれにおける各対象物53毎の前記特徴点P1,P2の位置(又は前記位置ベクトル↑P1,↑P2)が入力されると共に、カメラ運動推定部18から並進移動ベクトル↑t及び回転行列Rの各成分値が入力される。   The third reference angle estimator 21 includes the positions (or the position vectors) of the feature points P1, P2 for each object 53 in the first captured image and the second captured image from the distance measurement feature point extraction unit 17, respectively. ↑ P1, ↑ P2) are input, and the translation movement vector ↑ t and each component value of the rotation matrix R are input from the camera motion estimation unit 18.

そして、第3参照角度推定部21は、測距用特徴点抽出部17からの入力値により示される各対象物53毎の前記特徴点P1,P2の位置ベクトル↑P1,↑P2の各成分値と、カメラ運動推定部18から入力された並進移動ベクトル↑t及び回転行列Rの各成分値と、前記式(11c)のd(前記対象物存在仮想路面Saと時刻t1での車載カメラ2の光学中心Cとの間の距離)の近似的な設定値として図示しない記憶装置にあらかじめ記憶保持されたカメラ高Hcの値とから、各対象物53毎に、前記式(11a)〜(11c)に基づいて、第3参照角度としての角度θの推定値を算出する。   The third reference angle estimation unit 21 then determines the component values of the position vectors ↑ P1, ↑ P2 of the feature points P1, P2 for each object 53 indicated by the input values from the distance measurement feature point extraction unit 17. And each component value of the translation vector ↑ t and the rotation matrix R input from the camera motion estimation unit 18 and d of the equation (11c) (the object existing virtual road surface Sa and the vehicle-mounted camera 2 at the time t1 From the value of the camera height Hc stored and held in advance in a storage device (not shown) as an approximate set value of the distance to the optical center C), the above formulas (11a) to (11c) are obtained for each object 53. Based on the above, an estimated value of the angle θ as the third reference angle is calculated.

具体的には、例えば前記式(12)の二次方程式の係数r,s,tの値が、前記式(11a)〜(11c)に関するただし書きの定義と、式(12)に関するただし書きの定義とに従って、↑P1,↑P2,↑t,Rの各成分値の値から算出される。そして、係数r,s,tの値を用いて、式(12)の二次方程式の解の値が前記変数a(≡(cosθ)/d)の値として算出される。   Specifically, for example, the values of the coefficients r, s, and t of the quadratic equation of the equation (12) are defined in the proviso for the equations (11a) to (11c) and the proviso for the equation (12). Is calculated from the component values of ↑ P1, ↑ P2, ↑ t, R. Then, using the values of the coefficients r, s, and t, the value of the solution of the quadratic equation of Expression (12) is calculated as the value of the variable a (≡ (cos θ) / d).

この場合、前記した如く、式(12)の解となるaの値は、一般には2つ存在することとなるものの、それらの2つの値のうち、式(11a)、(11b)を満足し得るaの値が選定される。   In this case, as described above, there are generally two values of a which are the solutions of the equation (12), but among these two values, the equations (11a) and (11b) are satisfied. The value of a to be obtained is selected.

そして、この変数aの値と、dの設定値(Hc)とから、前記式(13a)により第3参照角度θの推定値が算出される。   Then, the estimated value of the third reference angle θ is calculated from the value of the variable a and the set value (Hc) of d by the equation (13a).

なお、前記変数aの代わりに、前記変数b(≡(sinθ)/d)の値を算出し、この変数bの値と、dの設定値(Hc)とから、前記式(13b)により第3参照角度θの推定値を算出するようにしてもよい。   Instead of the variable a, the value of the variable b (≡ (sin θ) / d) is calculated, and the value of the variable b and the set value (Hc) of d are calculated by the equation (13b). 3 An estimated value of the reference angle θ may be calculated.

第2参照角度推定部20には、カメラ運動推定部18から並進移動ベクトル↑t及び回転行列Rの各成分値が入力される。   The second reference angle estimation unit 20 receives the translation movement vector ↑ t and the component values of the rotation matrix R from the camera motion estimation unit 18.

この第2参照角度推定部20は、第2参照角度としての角度αの第A暫定推定値αaと第B暫定推定値αbとをそれぞれ算出する処理を実行する第2参照角度第A暫定推定部20a、第2参照角度第B暫定推定部20bを備えている。   The second reference angle estimator 20 executes a process for calculating the A-th provisional estimated value αa and the B-th tentative estimated value αb of the angle α as the second reference angle, respectively. 20a and a second reference angle B-th provisional estimation unit 20b.

第2参照角度第A暫定推定部20aは、入力された並進移動ベクトル↑tの向き(撮像時刻t1での車載カメラ2の光軸Lcに対する向き)に基づいて、第2参照角度αの第A暫定推定値αaを算出する。   The second reference angle A provisional estimation unit 20a determines the second reference angle α of the second reference angle α based on the direction of the input translational movement vector ↑ t (direction relative to the optical axis Lc of the vehicle-mounted camera 2 at the imaging time t1). A provisional estimated value αa is calculated.

この場合、並進移動ベクトル↑tは、車両1が時刻t1で走行している自車両存在路面51にほぼ平行(車両1の進行方向とほぼ平行)なベクトルと見なすことができる。   In this case, the translation vector ↑ t can be regarded as a vector that is substantially parallel (substantially parallel to the traveling direction of the vehicle 1) to the own vehicle existing road surface 51 where the vehicle 1 is traveling at the time t1.

従って、車載カメラ2の光軸Lcに対する並進移動ベクトル↑tの向き(あるいは、並進移動ベクトル↑tに対する光軸Lcの向き)は、自車両存在路面51に対して車載カメラ2の光軸Lcがなす角度、すなわち、第2参照角度αに応じたものとなる。   Therefore, the direction of the translation vector ↑ t with respect to the optical axis Lc of the in-vehicle camera 2 (or the direction of the optical axis Lc with respect to the translation vector ↑ t) is such that the optical axis Lc of the in-vehicle camera 2 is relative to the own vehicle existing road surface 51. The angle formed depends on the second reference angle α.

すなわち、図7(a),(b)に示す如く、時刻t1での車載カメラ2のカメラ座標系で見た並進移動ベクトル↑tが、車載カメラ2の光軸Lc(Z軸)に対してなす角度αaが、第2参照角度αに相当するものとなる。   That is, as shown in FIGS. 7A and 7B, the translational movement vector ↑ t seen in the camera coordinate system of the vehicle-mounted camera 2 at time t1 is relative to the optical axis Lc (Z-axis) of the vehicle-mounted camera 2. The formed angle αa corresponds to the second reference angle α.

そこで、第2参照角度第A暫定推定部20aは、本実施形態では、入力された並進移動ベクトル↑tが、時刻t1における車載カメラ2のカメラ座標系のXZ平面に対してなす角度αaを、第2参照角度αの暫定推定値として算出する。   Therefore, in the present embodiment, the second reference angle A-provisional estimation unit 20a determines the angle αa that the input translational movement vector ↑ t makes with the XZ plane of the camera coordinate system of the vehicle-mounted camera 2 at time t1. Calculated as a provisional estimated value of the second reference angle α.

具体的には、第2参照角度第A暫定推定部20aは、時刻t1における車載カメラ2のカメラ座標系での並進移動ベクトル↑t(=[t1,t2,t3]T)の成分値から、次式(15)により、第A暫定推定値αaを算出する。 Specifically, the second reference angle A provisional estimation unit 20a calculates the component value of the translation vector ↑ t (= [t1, t2, t3] T ) in the camera coordinate system of the vehicle-mounted camera 2 at time t1. The A-th provisional estimated value αa is calculated by the following equation (15).

また、第2参照角度第B暫定推定部20bは、入力された回転行列Rに基づいて、第2参照角度αの第B暫定推定値αbを算出する。   Further, the second reference angle B provisional estimation unit 20b calculates a B provisional estimated value αb of the second reference angle α based on the input rotation matrix R.

具体的には、第2参照角度第B暫定推定部20bは、入力された回転行列Rにより示される車載カメラ2の空間的な姿勢の角度変化量(2つの撮像画像の撮像時刻t1,t2の間の期間における角度変化量)のうちの車両1のピッチ方向(第2参照角度αの変化が生じる軸周り方向)の角度変化量を演算処理ユニット11の演算処理周期で逐次積算(累積加算)することによって、第2参照角度αの第B暫定推定値αbを算出する。   Specifically, the second reference angle B provisional estimator 20b determines the amount of change in the angle of the spatial orientation of the in-vehicle camera 2 indicated by the input rotation matrix R (the imaging times t1 and t2 of the two captured images). Of the change in angle in the pitch direction of the vehicle 1 (the direction around the axis where the change in the second reference angle α occurs) is sequentially accumulated (accumulated addition) in the calculation processing cycle of the calculation processing unit 11. As a result, the B-th provisional estimated value αb of the second reference angle α is calculated.

なお、第B暫定推定値αbは、車両1の運転開始時等に初期化される。この場合、第B暫定推定値αbの初期値としては、例えば、車両1が水平な路面上に停車した状態での第2参照角度αの値としてあらじめ定められた値(例えば“0”)、あるいは、前回の車両1の運転時に最終的に算出された第2参照角度αの値が設定される。   The B-th provisional estimated value αb is initialized when the vehicle 1 starts to operate. In this case, as the initial value of the B-th provisional estimated value αb, for example, a value (for example, “0”) determined in advance as the value of the second reference angle α when the vehicle 1 is stopped on a horizontal road surface. ) Or the value of the second reference angle α finally calculated during the previous driving of the vehicle 1 is set.

以上説明した第2参照角度第A推定部20a及び第2参照角度第B推定部20bの処理によって、並進移動ベクトル↑tに基づく第2参照角度αの第A暫定推定値αaと、回転行列Rに基づく第2参照角度αの第B暫定推定値αbとが所定の演算処理周期で逐次算出される。   Through the processing of the second reference angle A estimation unit 20a and the second reference angle B estimation unit 20b described above, the A provisional estimated value αa of the second reference angle α based on the translation vector ↑ t and the rotation matrix R And a B-th provisional estimated value αb of the second reference angle α based on is sequentially calculated at a predetermined calculation processing cycle.

ここで、並進移動ベクトル↑tに基づく第A暫定推定値αaは、車両1の車体の姿勢の瞬時的な変動の影響を直接的に受けるため、実際の第2参照角度に対して瞬時的なずれを生じやすいものの、実際の第2参照角度αに対する定常的なオフセットは一般には生じない。   Here, since the A-th provisional estimated value αa based on the translational movement vector ↑ t is directly affected by the instantaneous fluctuation of the posture of the vehicle body of the vehicle 1, it is instantaneous with respect to the actual second reference angle. Although a deviation is likely to occur, a steady offset with respect to the actual second reference angle α generally does not occur.

一方、回転行列Rに基づく第B暫定推定値αbの波形は、実際の第2参照角度αの波形に比較的精度よく合致するものの、実際の第2参照角度αに対して定常的なオフセットを生じやすい。このオフセットは、αbの初期値の誤差、あるいは、瞬時的な誤差の累積に起因するものである。   On the other hand, the waveform of the B-th provisional estimated value αb based on the rotation matrix R matches the waveform of the actual second reference angle α with relatively high accuracy, but has a steady offset with respect to the actual second reference angle α. Prone to occur. This offset is caused by an error in the initial value of αb or an accumulation of instantaneous errors.

そこで、本実施形態では、第A暫定推定値αa及び第B暫定推定値αbの上記の性状を踏まえて、第2参照角度推定部20は、以下に説明する如く第2参照角度αの推定値を逐次決定する。   Therefore, in the present embodiment, based on the above-described properties of the A-th provisional estimated value αa and the B-th provisional estimated value αb, the second reference angle estimation unit 20 estimates the second reference angle α as described below. Are sequentially determined.

すなわち、第2参照角度推定部20は、現在時刻から所定時間前までの期間で算出された第A暫定推定値αaと第B暫定推定値αbとを時系列的に記憶保持する。この場合、記憶保持される第A暫定推定値αaと第B暫定推定値αbとは、新たな(最新の)αa,αbが算出される毎に更新される。   That is, the second reference angle estimation unit 20 stores and holds the A-th provisional estimated value αa and the B-th provisional estimated value αb calculated in a period from the current time to a predetermined time before in time series. In this case, the stored A-th provisional estimated value αa and B-th provisional estimated value αb are updated each time new (latest) αa and αb are calculated.

そして、第2参照角度推定部20は、まず、記憶保持したαa,αbの時系列データのうち、所定の時間間隔の期間分の最新のデータ(現在時刻から所定の時間間隔前の過去時刻までの期間内のデータ)を抽出し、その抽出したαa,αbのそれぞれのデータの平均値を算出する。すなわち、第2参照角度推定部20は、現在時刻から所定の時間間隔前の過去時刻までの期間内のαaの平均値αa_aveとαbの平均値αb_aveとを算出する。なお、上記所定の時間間隔は、一定時間でもよいが、本実施形態では、例えば車両1の車速に応じて設定する(車速が大きいほど、上記所定の時間間隔を短い時間間隔に設定する)。   Then, the second reference angle estimation unit 20 firstly stores the latest data for a predetermined time interval (from the current time to a past time before the predetermined time interval) among the stored time-series data of αa and αb. Data within the period of time) is extracted, and the average value of the extracted data of αa and αb is calculated. That is, the second reference angle estimation unit 20 calculates the average value αa_ave of αa and the average value αb_ave of αb within a period from the current time to a past time before a predetermined time interval. The predetermined time interval may be a fixed time, but in the present embodiment, for example, it is set according to the vehicle speed of the vehicle 1 (the higher the vehicle speed, the shorter the predetermined time interval is set).

次いで、第2参照角度推定部20は、第A暫定推定値αaの平均値αa_aveと第B暫定推定値αbの平均値αb_aveとの偏差(=αa_ave−αb_ave)を算出する。そして、第2参照角度推定部20は、この偏差によって、現在時刻での第B暫定推定値αb(αbの最新値)を補正することによって、現在時刻での第2参照角度αの推定値を決定する。具体的には、第2参照角度推定部20は、上記偏差を現在時刻での第B暫定推定値αbに加算することによって、現在時刻での第2参照角度αの推定値を決定する。   Next, the second reference angle estimation unit 20 calculates a deviation (= αa_ave−αb_ave) between the average value αa_ave of the A-th provisional estimated value αa and the average value αb_ave of the B-th provisional estimated value αb. The second reference angle estimation unit 20 corrects the estimated value of the second reference angle α at the current time by correcting the B-th provisional estimated value αb (the latest value of αb) at the current time based on this deviation. decide. Specifically, the second reference angle estimation unit 20 determines the estimated value of the second reference angle α at the current time by adding the deviation to the B-th provisional estimated value αb at the current time.

以上の第2参照角度推定部20の処理により、第2参照角度αの推定値が逐次決定される。このようにして決定される第2参照角度αの推定値は、各対象物53に対して共通の推定値である。なお、現在時刻から所定の時間間隔前の過去時刻までの期間内における各時刻でのαaとαbとの偏差を求め、その偏差の該期間内での平均値を求めることによって、第A暫定推定値αaの平均値αa_aveと第B暫定推定値αbの平均値αb_aveとの偏差(=αa_ave−αb_ave)を算出するようにしてもよい。   Through the above-described processing of the second reference angle estimation unit 20, the estimated value of the second reference angle α is sequentially determined. The estimated value of the second reference angle α determined in this way is an estimated value common to each object 53. The A-th provisional estimation is obtained by calculating the deviation between αa and αb at each time in the period from the current time to the past time before the predetermined time interval, and obtaining the average value of the deviation within the period. The deviation (= αa_ave−αb_ave) between the average value αa_ave of the values αa and the average value αb_ave of the B-th provisional estimated value αb may be calculated.

また、前記第2参照角度αの第A暫定推定値と、累積していない第B暫定推定値(すなわち、車載カメラ2の姿勢の単位時間当たりの角度変化量)とからカルマンフィルタを用いて第2参照角度αを推定するようにしてもよい。   A second Kalman filter is used to calculate the second reference angle α based on the A-th provisional estimated value and the non-cumulative B-thick estimated value (that is, the angle change amount per unit time of the attitude of the in-vehicle camera 2). The reference angle α may be estimated.

第1〜第3参照角度推定部19〜21でそれぞれ上記の如く求められた第1参照角度γの推定値、第2参照角度αの推定値、第3参照角度θの推定値は、前記第2距離推定値算出部22に入力れる。そして、該第2距離推定値算出部22は、各対象物53毎に、これらの入力値から対象物53と自車両1との間の距離の推定値としての第2距離推定値D2を算出する。   The estimated value of the first reference angle γ, the estimated value of the second reference angle α, and the estimated value of the third reference angle θ obtained by the first to third reference angle estimators 19 to 21 as described above are Input to the 2-distance estimated value calculation unit 22. Then, for each object 53, the second distance estimated value calculation unit 22 calculates a second distance estimated value D2 as an estimated value of the distance between the object 53 and the host vehicle 1 from these input values. To do.

具体的には、第2距離推定値算出部22は、第3参照角度θの推定値から第2参照角度αの推定値を減算することにより(前記式(14)により)、図2(a)に示した角度β、すなわち図中の直線L2(又は前記対象物存在仮想路面Sa)が自車両存在路面51に対してなす角度βの推定値を算出する。そして、第2距離推定値算出部22は、この角度βの推定値と、第1参照角度γの推定値と、第2参照角度αの推定値と、カメラ高Hcの値とから、前記式(4)によって、前記第2測距手法に基づく第2距離推定値D2を算出する。   Specifically, the second distance estimated value calculation unit 22 subtracts the estimated value of the second reference angle α from the estimated value of the third reference angle θ (according to the equation (14)), thereby obtaining FIG. ), That is, an estimated value of the angle β formed by the straight line L2 (or the object existence virtual road surface Sa) in the drawing with respect to the own vehicle existence road surface 51 is calculated. Then, the second distance estimated value calculation unit 22 calculates the above equation from the estimated value of the angle β, the estimated value of the first reference angle γ, the estimated value of the second reference angle α, and the value of the camera height Hc. By (4), the second distance estimated value D2 based on the second distance measuring method is calculated.

以上の如く、第1距離推定部14及び第2距離推定部15の処理を実行した後、演算処理ユニット11は、次に、距離推定値確定部16の処理を実行する。   As described above, after the processing of the first distance estimation unit 14 and the second distance estimation unit 15 is executed, the arithmetic processing unit 11 next executes the processing of the distance estimated value determination unit 16.

この距離推定値確定部16には、各対象物53毎の第1距離推定値D1及び第2距離推定値D2が、それぞれ第1距離推定部14及び第2距離推定部15から入力されると共に、さらに、図示しない車速センサから自車両1の車速Vの検出値が入力される。   The distance estimated value determination unit 16 receives the first distance estimated value D1 and the second distance estimated value D2 for each object 53 from the first distance estimating unit 14 and the second distance estimating unit 15, respectively. Further, a detected value of the vehicle speed V of the host vehicle 1 is input from a vehicle speed sensor (not shown).

そして、距離推定値確定部16は、図5中に示す如く、まず、S16−1の判断処理を実行する。このS16−1では、入力された車速Vの検出値(現在の検出値)が、所定の閾値VLよりも大きいか否かが判断される。そして、この判断結果が否定的である場合、すなわち、車速Vの検出値が閾値VL以下の低車速(停車状態を含む)である場合には、距離推定値確定部16は、各対象物53に関して入力された第1距離推定値D1を、該対象物53と自車両1との間の距離Dの推定値(時刻t1での距離Dの推定値)として確定して出力する。   Then, as shown in FIG. 5, the distance estimated value determination unit 16 first executes the determination process of S16-1. In S16-1, it is determined whether or not the input detection value (current detection value) of the vehicle speed V is greater than a predetermined threshold value VL. When this determination result is negative, that is, when the detected value of the vehicle speed V is a low vehicle speed (including a stop state) equal to or less than the threshold value VL, the distance estimated value determination unit 16 determines each object 53. The first estimated distance value D1 input with respect to is determined and output as an estimated value of the distance D between the object 53 and the vehicle 1 (estimated value of the distance D at time t1).

一方、車速Vの検出値が、所定の閾値VLよりも大きい場合には、距離推定値確定部16は、次に、S16−2の判断処理を実行する。このS16−2では、距離推定値確定部16は、各対象物53毎に、第2距離推定値D2の許容範囲(下限値と上限値との組)を、入力された第1距離推定値D1に応じて決定する。そして、距離推定値確定部16は、各対象物53毎に、入力された第2距離推定値D2が上記の許容範囲内に収まっているか否かを判断する。   On the other hand, when the detected value of the vehicle speed V is larger than the predetermined threshold VL, the distance estimated value determination unit 16 next executes the determination process of S16-2. In S <b> 16-2, the distance estimated value determination unit 16 inputs an allowable range (a set of a lower limit value and an upper limit value) of the second distance estimated value D <b> 2 for each target object 53. Determine according to D1. Then, the distance estimated value determination unit 16 determines, for each object 53, whether or not the input second distance estimated value D2 is within the allowable range.

この場合、距離推定値確定部16は、第2距離推定値D2の許容範囲の下限値と、上限値とをそれぞれ次式(16a),(16b)により決定する。   In this case, the distance estimated value determination unit 16 determines the lower limit value and the upper limit value of the allowable range of the second distance estimated value D2 by the following expressions (16a) and (16b), respectively.


D2の許容範囲の下限値=D1/(1+Emax) ……(16a)
D2の許容範囲の上限値=D1/(1+Emin) ……(16b)

ここで、Emax,Eminは、それぞれ前記式(2)により与えられる第1距離推定値D1の誤差範囲(対象物53の種類毎の誤差範囲)の最大値[%](>0)、最小値[%](<0)を“100”で除算してなる値である。

Lower limit value of allowable range of D2 = D1 / (1 + Emax) (16a)
Upper limit value of allowable range of D2 = D1 / (1 + Emin) (16b)

Here, Emax and Emin are the maximum value [%] (> 0) and the minimum value of the error range (error range for each type of the object 53) of the first distance estimated value D1 given by the equation (2), respectively. This is a value obtained by dividing [%] (<0) by “100”.

従って、Emaxは、各対象物53毎に、その種類に対応する前記対象物標準サイズH53sと、その種類の対象物に関して一般的に知られている対象物サイズの最小値Hmin(<H53s)とから、次式(17a)により算出される値である。また、Eminは、各対象物53毎に、その種類に対応する前記対象物標準サイズH53sと、その種類の対象物に関して一般的に知られている対象物サイズの最大値Hmax(>H53s)から、次式(17b)により算出される値である。   Therefore, for each object 53, Emax is the object standard size H53s corresponding to the type, and the minimum value Hmin (<H53s) of the object size generally known for the type of object. From this, the value is calculated by the following equation (17a). Further, Emin is determined for each object 53 from the object standard size H53s corresponding to the type and the maximum value Hmax (> H53s) of the object size generally known for the type of object. Is a value calculated by the following equation (17b).


Emax=(H53s/Hmin)−1 ……(17a)
Emin=(H53s/Hmax)−1 ……(17b)

なお、対象物53が、歩行者(成人又は児童)である場合には、H53s、Hmin、Hmaxはそれぞれ身長(上下方向の全長)に関する値である。対象物53が他車両である場合には、H53s、Hmin、Hmaxはそれぞれ車幅(横方向の全長)に関する値である。また、Hmin、Hmaxの値は、対象物53の種類別に(成人の歩行者、児童の歩行者、他車両のそれぞれ毎に)演算処理ユニット11の記憶装置にあらかじめ記憶保持されている。

Emax = (H53s / Hmin) -1 (17a)
Emin = (H53s / Hmax) -1 (17b)

When the object 53 is a pedestrian (adult or child), H53s, Hmin, and Hmax are values related to height (the total length in the vertical direction). When the object 53 is another vehicle, H53s, Hmin, and Hmax are values related to the vehicle width (the total length in the lateral direction). Further, the values of Hmin and Hmax are stored and held in advance in the storage device of the arithmetic processing unit 11 for each type of the object 53 (for each adult pedestrian, child pedestrian, and other vehicle).

補足すると、第2距離推定値D2の許容範囲の下限値と上限値とはそれぞれ、次式(18a),(18b)により設定してもよい。これらの式(18a),(18b)により設定される許容範囲は、式(17a),(17b)により設定される許容範囲と同じである。   Supplementally, the lower limit value and the upper limit value of the allowable range of the second distance estimated value D2 may be set by the following equations (18a) and (18b), respectively. The allowable range set by these equations (18a) and (18b) is the same as the allowable range set by equations (17a) and (17b).


D2の許容範囲の下限値=D1・(Hmin/H53s)=F・(Hmin/h53a)
……(18a)
D2の許容範囲の上限値=D1・(Hmax/H53s)=F・(Hmax/h53a)
……(18b)

上記の如く設定される許容範囲は、各対象物53の画像中対象物サイズh53aと該対象物53が属する種類における対象物サイズの最大値の設定値(最大サイズ設定値)としてのHmaxとの比率を基に推定される距離Dの値(前記式(1a)のH53sをHmaxに置き換えた式により算出されるDの値)と、該対象物53の画像中対象物サイズh53aと該対象物53が属する種類における対象物サイズの最小値の設定値(最小サイズ設定値)としてのHminとの比率を基に推定される距離Dの値(前記式(1a)のH53sをHminに置き換えた式により算出されるDの値)との間の範囲となる。

Lower limit value of allowable range of D2 = D1 · (Hmin / H53s) = F · (Hmin / h53a)
...... (18a)
Upper limit value of allowable range of D2 = D1. (Hmax / H53s) = F. (Hmax / h53a)
...... (18b)

The allowable range set as described above includes the object size h53a in the image of each object 53 and Hmax as the set value (maximum size set value) of the maximum value of the object size in the type to which the object 53 belongs. The value of the distance D estimated based on the ratio (the value of D calculated by replacing H53s in the equation (1a) with Hmax), the object size h53a in the image of the object 53, and the object The value of the distance D estimated based on the ratio to the minimum value setting value (minimum size setting value) of the object size in the type to which 53 belongs (the expression in which H53s in the expression (1a) is replaced with Hmin. The value of D calculated by (1).

従って、この許容範囲は、対象物53の実際の対象物サイズH53と対象物標準サイズ値H53sとの差に起因する第1距離推定値D1の誤差範囲に対応するものである。   Therefore, this allowable range corresponds to the error range of the first distance estimated value D1 caused by the difference between the actual object size H53 of the object 53 and the object standard size value H53s.

そして、距離推定値確定部16は、各対象物53毎に、入力された第2距離推定値D2が上記の如く設定した許容範囲内に収まっている場合(S16−2の判断結果が肯定的である場合)には、該対象物53の第2距離推定値D2を、該対象物53と自車両1の間の距離Dの推定値(時刻t1での距離Dの推定値)として確定して出力する。   Then, the distance estimated value determination unit 16 determines that the input second distance estimated value D2 is within the allowable range set as described above for each object 53 (the determination result in S16-2 is positive). The second distance estimated value D2 of the object 53 is determined as an estimated value of the distance D between the object 53 and the host vehicle 1 (estimated value of the distance D at time t1). Output.

また、距離推定値確定部16は、各対象物53毎に、入力された第2距離推定値D2が上記の如く設定した許容範囲内から逸脱している場合(S16−2の判断結果が否定的である場合)には、該対象物53の第1距離推定値D1を、該対象物53と自車両1の間の距離Dの推定値(時刻t1での距離Dの推定値)として確定して出力する。   In addition, the distance estimated value determination unit 16 determines that the input second distance estimated value D2 deviates from the allowable range set as described above for each object 53 (the determination result in S16-2 is negative). The first distance estimated value D1 of the object 53 is determined as an estimated value of the distance D between the object 53 and the host vehicle 1 (estimated value of the distance D at time t1). And output.

従って、距離推定値確定部16の処理では、車速Vの検出値が所定の閾値VL以下の低車速である場合には、いずれの対象物53についても、各対象物53の第1距離推定値D1が、距離Dの推定値として確定される。また、車速Vの検出値が所定の閾値VLよりも大きい場合には、各対象物53について、S16−2の判断結果が肯定的である場合に、第2距離推定値D2が、該対象物53の距離Dの推定値として確定される。また、S16−2の判断結果が否定的である場合には、第1距離推定値D1が該対象物53の距離Dの推定値として確定される。   Therefore, in the process of the distance estimated value determination unit 16, when the detected value of the vehicle speed V is a low vehicle speed equal to or lower than the predetermined threshold VL, the first distance estimated value of each object 53 for any target object 53. D1 is determined as the estimated value of the distance D. In addition, when the detected value of the vehicle speed V is larger than the predetermined threshold VL, for each object 53, when the determination result of S16-2 is affirmative, the second distance estimated value D2 is the object. The estimated distance D is 53. When the determination result in S16-2 is negative, the first distance estimated value D1 is determined as the estimated value of the distance D of the object 53.

以上が本実施形態における演算処理ユニット11が実行する処理の詳細である。この処理によって、車両1の前方の路面に自車両1との間の距離を測定しようとする対象物53(本実施形態では歩行者又は他車両)が存在する場合に、その各対象物53と自車両1との間の距離Dが逐次、推定されることとなる。   The above is the detail of the process which the arithmetic processing unit 11 in this embodiment performs. By this processing, when there is an object 53 (in this embodiment, a pedestrian or another vehicle) whose distance to the host vehicle 1 is to be measured on the road surface in front of the vehicle 1, each object 53 and The distance D between the host vehicle 1 and the host vehicle 1 is estimated sequentially.

ここで、本実施形態と本発明との対応関係について補足しておく。本実施形態では、前記対象物抽出部13、第1距離推定部14、第2距離推定部15(又は第2距離推定値算出部22)、距離推定値確定部16によって、それぞれ、本発明における対象物抽出手段、第1距離推定手段、第2距離推定手段、距離推定値確定手段が実現される。   Here, a supplementary description will be given of the correspondence between the present embodiment and the present invention. In the present embodiment, the object extracting unit 13, the first distance estimating unit 14, the second distance estimating unit 15 (or the second distance estimated value calculating unit 22), and the distance estimated value determining unit 16 are respectively used in the present invention. An object extracting means, a first distance estimating means, a second distance estimating means, and a distance estimated value determining means are realized.

また、測距用特徴点抽出部17、カメラ運動推定部18、第1参照角度推定部19、第2参照角度推定部20、第3参照角度推定部21によって、それぞれ、本発明における測距用特徴点抽出手段、第1参照角度推定手段、第2参照角度推定手段、第3参照角度推定手段が実現される。   Further, the distance measurement feature point extraction unit 17, the camera motion estimation unit 18, the first reference angle estimation unit 19, the second reference angle estimation unit 20, and the third reference angle estimation unit 21 respectively perform distance measurement in the present invention. A feature point extraction unit, a first reference angle estimation unit, a second reference angle estimation unit, and a third reference angle estimation unit are realized.

さらに、距離推定値確定部16のS16−2の判断処理によって、本発明における第2距離推定値判断手段が実現される。   Furthermore, the second distance estimated value determination means in the present invention is realized by the determination processing in S16-2 of the distance estimated value determination unit 16.

以上説明した実施形態によれば、車速Vの検出値が所定の閾値VL以下の低車速でない場合において、第2測距手法に基づく第2距離推定値D2が、前記式(16a),(16b)(又は前記式(18a),(18b))により設定した許容範囲内に収まっている場合には、各対象物53の自車両1からの距離Dの推定値として、第2距離推定値D2が決定される。   According to the embodiment described above, when the detected value of the vehicle speed V is not a low vehicle speed equal to or lower than the predetermined threshold VL, the second distance estimated value D2 based on the second distance measuring method is expressed by the equations (16a) and (16b). ) (Or within the allowable range set by the equations (18a) and (18b)), the second distance estimated value D2 is used as the estimated value of the distance D of each object 53 from the host vehicle 1. Is determined.

ここで、前記許容範囲は、各対象物53毎の第1測距手法に基づく第1距離推定値D1の誤差範囲に対応しており、前記第2参照角度αや、第3参照角度θの影響を受けない。このため、各対象物53の自車両1からの実際の距離D(真値)は、十分に高い確度で上記許容範囲内に収まることとなる。   Here, the allowable range corresponds to an error range of the first distance estimation value D1 based on the first distance measurement method for each object 53, and the second reference angle α and the third reference angle θ are Not affected. For this reason, the actual distance D (true value) of each object 53 from the host vehicle 1 falls within the allowable range with sufficiently high accuracy.

従って、第2距離推定値D2が、上記許容範囲内に収まっている場合には、第2参照角度αや第3参照角度θの推定値の誤差が十分に小さく、ひいては、第2測距手法に基づいて算出した第2距離推定値D2の信頼性が十分に確保されていると見なすことができる。そして、この場合には、第2距離推定値D2は、実際の対象物サイズの影響を受けないので、その誤差も十分に小さなものとなっていると考えられる。   Therefore, when the second distance estimated value D2 is within the allowable range, the error of the estimated values of the second reference angle α and the third reference angle θ is sufficiently small, and as a result, the second distance measuring method. It can be considered that the reliability of the second estimated distance value D2 calculated based on the above is sufficiently secured. In this case, since the second estimated distance value D2 is not affected by the actual object size, the error is considered to be sufficiently small.

このため、第2距離推定値D2が、上記許容範囲内に収まっている場合に、該第2距離推定値D2を、対象物53の自車両1からの距離Dの推定値として確定することで、対象物53の信頼性の高い距離推定値を得ることができる。   For this reason, when the second distance estimated value D2 is within the allowable range, the second distance estimated value D2 is determined as the estimated value of the distance D of the object 53 from the host vehicle 1. A reliable distance estimation value of the object 53 can be obtained.

また、第2測距手法に基づく第2距離推定値D2が、前記式(16a),(16b)(又は前記式(18a),(18b))により設定した許容範囲から逸脱している場合、すなわち、D2の信頼性が低い場合には、対象物53の自車両1からの距離Dの推定値として、第1測距手法に基づく第1距離推定値D1が決定される。これにより、対象部53の自車両1からの距離Dの推定値として、実際の距離値から大きく乖離した値が決定されることが防止される。   Further, when the second distance estimation value D2 based on the second distance measurement method deviates from the allowable range set by the equations (16a) and (16b) (or the equations (18a) and (18b)), That is, when the reliability of D2 is low, the first distance estimated value D1 based on the first distance measuring method is determined as the estimated value of the distance D of the object 53 from the host vehicle 1. Thereby, it is prevented that a value greatly deviating from the actual distance value is determined as the estimated value of the distance D of the target unit 53 from the host vehicle 1.

また、車速Vの検出値が所定の閾値VL以下の低車速である場合には、各対象物53の自車両1からの距離Dの推定値として、第1測距手法に基づく第1距離推定値D1が決定される。   Further, when the detected value of the vehicle speed V is a low vehicle speed equal to or lower than a predetermined threshold VL, the first distance estimation based on the first distance measuring method is used as the estimated value of the distance D of each object 53 from the host vehicle 1. The value D1 is determined.

ここで、本実施形態では、カメラ運動推定部18は、互いに異なる撮像時刻t1,t2で撮像された第1撮像画像及び第2撮像画像を基に、車載カメラ2の運動状態を示す並進移動ベクトル↑tや回転行列Rを算出する。そして、この並進移動ベクトル↑tや回転行列Rを用いて第2参照角度αや第3参照角度θが推定される。さらに、この第2参照角度αや第3参照角度θを用いて、第2距離推定値D2が算出される。   Here, in the present embodiment, the camera motion estimation unit 18 translates the translational motion vector indicating the motion state of the in-vehicle camera 2 based on the first captured image and the second captured image captured at different imaging times t1 and t2. ↑ t and rotation matrix R are calculated. Then, the second reference angle α and the third reference angle θ are estimated using the translation vector ↑ t and the rotation matrix R. Further, the second distance estimated value D2 is calculated using the second reference angle α and the third reference angle θ.

一方、車速Vが低い場合には、第1撮像画像及び第2撮像画像間の差異が生じ難いため、それらの撮像画像を用いて推定される並進移動ベクトル↑tや回転行列Rの信頼性が低下し易い。ひいては、第2距離推定値D2の信頼性も低下し易い。   On the other hand, when the vehicle speed V is low, the difference between the first captured image and the second captured image is unlikely to occur. Therefore, the reliability of the translation vector ↑ t and the rotation matrix R estimated using the captured images is high. It tends to decrease. As a result, the reliability of the second distance estimated value D2 is likely to decrease.

このため、本実施形態では、車速Vの検出値が所定の閾値VL以下の低車速である場合には、S16−2の判断結果によらずに、各対象物53の自車両1からの距離Dの推定値として、第1測距手法に基づく第1距離推定値D1を決定するようにしている。これにより、第2距離推定値D2の信頼性が低い状況で、該第2距離推定値D2が、対象物53の自車両1からの距離Dの推定値として決定されるのを防止することができる。   For this reason, in this embodiment, when the detected value of the vehicle speed V is a low vehicle speed equal to or lower than the predetermined threshold VL, the distance from each vehicle 53 to the host vehicle 1 regardless of the determination result of S16-2. As an estimated value of D, a first distance estimated value D1 based on the first distance measuring method is determined. This prevents the second distance estimated value D2 from being determined as the estimated value of the distance D of the object 53 from the host vehicle 1 in a situation where the reliability of the second distance estimated value D2 is low. it can.

さらに、本実施形態では、第1参照角度γの推定値に加えて、前記第2参照角度α及び第3参照角度θを推定し、それらの角度γ、α、θの推定値を用いて第2測距手法に基づく第2距離推定値D2を決定する。   Furthermore, in this embodiment, in addition to the estimated value of the first reference angle γ, the second reference angle α and the third reference angle θ are estimated, and the estimated values of these angles γ, α, and θ are used to estimate the first reference angle γ. A second distance estimation value D2 based on the two distance measurement method is determined.

このため、第2距離推定値D2が、対象物53の自車両1からの距離Dの推定値として採用される状況(D2の信頼性が高いと考えられる状況)では、車両1が走行する路面の勾配の変化や、車両1の車体の姿勢の変動(特にピッチ方向の姿勢の変動)の影響を適切に補償してなる精度のよい(誤差の小さい)第2距離推定値D2を、対象物53の自車両1からの距離Dの推定値として決定することができる。   For this reason, in a situation where the second distance estimated value D2 is adopted as an estimated value of the distance D of the object 53 from the host vehicle 1 (a situation where the reliability of D2 is considered to be high), the road surface on which the vehicle 1 travels. The second distance estimated value D2 with high accuracy (small error) obtained by appropriately compensating for the influence of the change in the gradient of the vehicle and the change in the posture of the vehicle 1 (particularly, the change in the posture in the pitch direction) It can be determined as an estimated value of the distance D from 53 of the own vehicle 1.

また、第2距離推定値D2を決定するために用いる第2参照角度αの推定処理においては、所定の演算処理周期で算出される前記第B暫定推定値αbを、現在時刻から所定の時間間隔前の過去時刻までの期間内における前記第A暫定推定値αaの平均値αa_aveと第B暫定推定値αbの平均値αb_aveとの偏差(=αa_ave−αb_ave)の分だけ補正することによって、最終的な第2参照角度αの推定値が逐次決定される。   Further, in the process of estimating the second reference angle α used for determining the second distance estimated value D2, the B-th provisional estimated value αb calculated at a predetermined calculation processing cycle is set to a predetermined time interval from the current time. By correcting the deviation (= αa_ave−αb_ave) between the average value αa_ave of the A-th provisional estimated value αa and the average value αb_ave of the B-th provisional estimated value αb within the period up to the previous past time, The estimated value of the second reference angle α is sequentially determined.

これにより、第2参照角度αの推定値の精度を高めることができる。   Thereby, the precision of the estimated value of the second reference angle α can be increased.

また、上記偏差(=αa_ave−αb_ave)を求めるために使用するαa、αbのサンプリング期間を規定する前記所定の時間間隔が、車速が大きいほど、短い時間に設定される。このため、該所定の時間間隔の期間は、その期間内での自車両1の車体の姿勢(特にピッチ方向の姿勢)に大きな変動が生じ難い期間に設定される。   Further, the predetermined time interval that defines the sampling periods of αa and αb used for obtaining the deviation (= αa_ave−αb_ave) is set to a shorter time as the vehicle speed increases. For this reason, the period of the predetermined time interval is set to a period in which a large variation is unlikely to occur in the posture of the vehicle 1 (particularly the posture in the pitch direction) within the period.

この結果、第A暫定推定値αa及び第B暫定推定値αbの信頼性の高い(S/N比の高い)平均値αa_ave,αb_aveを使用して、上記偏差(=αa_ave−αb_ave)を算出することができる。このため、第2参照角度αの推定値の精度を効果的に高めることができる。ひいては、第2測距手法に基づく第2距離推定値D2の精度を高めることができる。   As a result, the deviation (= αa_ave−αb_ave) is calculated using the average values αa_ave and αb_ave with high reliability (high S / N ratio) of the A-th provisional estimated value αa and the B-th provisional estimated value αb. be able to. For this reason, the precision of the estimated value of the second reference angle α can be effectively increased. As a result, the precision of the 2nd distance estimated value D2 based on a 2nd ranging method can be improved.

以上のようにして、本実施形態によれば、第2測距手法に基づく第2距離推定値D2の信頼性が高いと考えられる状況では、その第2距離推定値D2を、対象物53と自車両1との間の距離Dの推定値として確定するので、該距離Dを精度よく推定することができる。また、第2測距手法に基づく第2距離推定値D2の信頼性が低いと考えられる状況では、第1測距手法に基づく第1距離推定値D1を、対象物53と自車両1との間の距離Dの推定値として確定するので、その距離Dの推定値が、実際の距離Dに対して過大な誤差を有するものとなるを防止することができる。   As described above, according to the present embodiment, in a situation where the reliability of the second distance estimated value D2 based on the second distance measuring method is considered to be high, the second distance estimated value D2 is set as the object 53. Since the estimated value of the distance D to the host vehicle 1 is determined, the distance D can be estimated with high accuracy. Further, in a situation where the reliability of the second distance estimation value D2 based on the second distance measurement method is considered to be low, the first distance estimation value D1 based on the first distance measurement method is calculated as the distance between the object 53 and the host vehicle 1. Therefore, the estimated value of the distance D can be prevented from having an excessive error with respect to the actual distance D.

[第2実施形態]
次に、本発明の第2実施形態を図8を参照して説明する。なお、本実施形態は、前記第1実施形態と、演算処理ユニット11の一部の処理のみが相違する。このため、本実施形態の説明では、その相違点を中心に説明し、第1実施形態と同一の事項については説明を省略する。
[Second Embodiment]
Next, a second embodiment of the present invention will be described with reference to FIG. This embodiment is different from the first embodiment only in a part of the processing of the arithmetic processing unit 11. For this reason, in the description of the present embodiment, the differences will be mainly described, and the description of the same matters as in the first embodiment will be omitted.

前記第1実施形態では、第2距離推定部15の第1距離推定値算出部22は、前記式(4)により、第2距離推定値D2を算出するようにした。これに対して、本実施形態では、第1距離推定値算出部22は、第1参照角度γ及び第2参照角度αの推定値と、カメラ高Hcの設定値とから前記式(3)により第2距離推定値D2を算出する。そして、第2距離推定部15は、この第2距離推定値D2を距離推定値確定部16に出力すると共に、第2参照角度α及び第3参照角度θの推定値から前記式(14)に算出した角度βの推定値を距離推定値確定部16に出力する。   In the first embodiment, the first distance estimated value calculator 22 of the second distance estimator 15 calculates the second distance estimated value D2 using the equation (4). In contrast, in the present embodiment, the first distance estimated value calculation unit 22 calculates the first reference angle γ and the second reference angle α from the estimated value of the camera height Hc and the equation (3). A second distance estimated value D2 is calculated. Then, the second distance estimation unit 15 outputs the second distance estimation value D2 to the distance estimation value determination unit 16, and calculates the second reference angle α and the third reference angle θ from the estimated values of the equation (14). The calculated estimated value of the angle β is output to the distance estimated value determination unit 16.

さらに、本実施形態では、距離推定値確定部16は、各対象物53毎に、図8に示す処理を実行することによって、各対象物53と自車両1との間の距離Dの推定値を確定して出力する。   Furthermore, in this embodiment, the distance estimated value determination unit 16 executes the process shown in FIG. 8 for each object 53, thereby estimating the distance D between each object 53 and the host vehicle 1. Confirm and output.

具体的には、距離推定値確定部16は、まず、S16−1の判断処理を実行する。このS16−1の判断処理は、第1実施形態におけるS16−1の判断処理と同じであり、車速Vの検出値が、所定の閾値VLよりも大きいか否かを判断する。そして、この判断結果が、否定的である場合には、第1距離推定値D1が、対象物53と自車両1との間の距離Dの推定値として確定される。   Specifically, the distance estimated value determination unit 16 first executes the determination process of S16-1. The determination process of S16-1 is the same as the determination process of S16-1 in the first embodiment, and it is determined whether or not the detected value of the vehicle speed V is larger than a predetermined threshold value VL. When the determination result is negative, the first distance estimated value D1 is determined as an estimated value of the distance D between the object 53 and the host vehicle 1.

また、S16−1の判断結果が肯定的である場合には、距離推定値確定部16は、次に、S16−3の判断処理を実行する。このS16−3では、距離推定値確定部16は、第2距離推定部15から入力された角度βの推定値が所定の閾値βLよりも大きいか否かを判断する。この判断結果が肯定的となる状況は、角度βがある程度大きい状況、すなわち、対象物存在路面52が自車両存在路面51に対して勾配を有する状況である。   If the determination result in S16-1 is affirmative, the distance estimated value determination unit 16 next executes the determination process in S16-3. In S16-3, the distance estimated value determining unit 16 determines whether or not the estimated value of the angle β input from the second distance estimating unit 15 is larger than a predetermined threshold value βL. The situation where the determination result is affirmative is a situation where the angle β is large to some extent, that is, a situation where the object existing road surface 52 has a gradient with respect to the own vehicle existing road surface 51.

ここで、本実施形態では、前記式(3)により第2距離推定値D2を算出するので、路面の勾配の変化があると、該第2距離推定値D2が、対象物53の自車両1からの実際の距離Dに対して誤差を生じる。   Here, in the present embodiment, since the second distance estimated value D2 is calculated by the equation (3), if there is a change in the slope of the road surface, the second distance estimated value D2 is converted to the subject vehicle 1 of the object 53. An error occurs with respect to the actual distance D from

そこで、本実施形態では、S16−3の判断結果が肯定的となる場合には、第1距離推定値D1を、対象物53と自車両1との間の距離Dの推定値として確定する。   Therefore, in the present embodiment, when the determination result in S16-3 is affirmative, the first distance estimated value D1 is determined as the estimated value of the distance D between the object 53 and the host vehicle 1.

一方、S16−3の判断結果が否定的となる状況は、角度βが“0”もしくはそれに近い状況、すなわち、対象物存在路面52が自車両存在路面51に対してほとんど勾配を有さない状況である。この状況では、前記第2参照角度αが適切に推定されている限り、第2距離推定値D2の信頼性は高い。   On the other hand, the situation in which the determination result of S16-3 is negative is a situation where the angle β is “0” or close to it, that is, a situation where the object existence road surface 52 has almost no gradient with respect to the own vehicle existence road surface 51. It is. In this situation, as long as the second reference angle α is appropriately estimated, the reliability of the second distance estimated value D2 is high.

そこで、S16−3の判断結果が否定的となる場合には、距離推定値確定部16は、次に、S16−2の判断処理を実行する。このS16−2の判断処理は、第1実施形態におけるS16−2の判断処理と同じであり、第2距離推定値D2が許容範囲内に収まっているか否かを判断する。そして、この判断結果が、否定的である場合には、第1距離推定値D1が、対象物53と自車両1との間の距離Dの推定値として確定される。また、この判断結果が肯定的である場合には、第2距離推定値D2が、対象物53と自車両1との間の距離Dの推定値として確定される。   Therefore, when the determination result in S16-3 is negative, the distance estimated value determination unit 16 next executes the determination process in S16-2. The determination process of S16-2 is the same as the determination process of S16-2 in the first embodiment, and it is determined whether or not the second distance estimated value D2 is within the allowable range. When the determination result is negative, the first distance estimated value D1 is determined as an estimated value of the distance D between the object 53 and the host vehicle 1. When the determination result is affirmative, the second distance estimated value D2 is determined as an estimated value of the distance D between the object 53 and the host vehicle 1.

本実施形態は、以上説明した事項以外は、前記第1実施形態と同じである。   The present embodiment is the same as the first embodiment except for the matters described above.

かかる本実施形態においても、第2測距手法に基づく第2距離推定値D2の信頼性が高いと考えられる状況では、その第2距離推定値D2を、対象物53と自車両1との間の距離Dの推定値として確定するので、該距離Dを精度よく推定することができる。   Also in this embodiment, in a situation where the reliability of the second distance estimated value D2 based on the second distance measuring method is considered to be high, the second distance estimated value D2 is set between the object 53 and the host vehicle 1. Therefore, the distance D can be estimated with high accuracy.

また、対象物存在路面52が自車両存在路面51に対して勾配を有する状況を含めて、第2測距手法に基づく第2距離推定値D2の信頼性が低いと考えられる状況では、第1測距手法に基づく第1距離推定値D1を、対象物53と自車両1との間の距離Dの推定値として確定するので、その距離Dの推定値が、実際の距離Dに対して過大な誤差を有するものとなるを防止することができる。   In a situation where the reliability of the second distance estimation value D2 based on the second ranging method is considered to be low, including the situation where the object existence road surface 52 has a gradient with respect to the own vehicle existence road surface 51, the first Since the first distance estimated value D1 based on the distance measuring method is determined as the estimated value of the distance D between the object 53 and the host vehicle 1, the estimated value of the distance D is excessive with respect to the actual distance D. Can be prevented.

補足すると、本実施形態では、S16−3の処理によって、本発明における勾配検知手段が実現される。   Supplementally, in the present embodiment, the gradient detection means in the present invention is realized by the processing of S16-3.

[第3実施形態]
次に、本発明の第3実施形態を図9を参照して説明する。なお、本実施形態は、前記第1実施形態と、演算処理ユニット11の一部の処理のみが相違する。このため、本実施形態の説明では、その相違点を中心に説明し、第1実施形態と同一の事項については説明を省略する。
[Third Embodiment]
Next, a third embodiment of the present invention will be described with reference to FIG. This embodiment is different from the first embodiment only in a part of the processing of the arithmetic processing unit 11. For this reason, in the description of the present embodiment, the differences will be mainly described, and the description of the same matters as in the first embodiment will be omitted.

前記第1実施形態では、対象物53としての歩行者を成人の歩行者と児童の歩行者とに区別して、それぞれ毎に、対象物53と自車両1との間の距離Dを推定するようにした。これに対して、本実施形態では、対象物抽出部13で対象物53として歩行者が抽出された場合に、その歩行者が成人の歩行者であると仮定して、第1距離推定部14の処理を実行する。すなわち、本実施形態では、第1距離推定部14は、対象物53が歩行者である場合に、成人の歩行者に関する対象物標準サイズH53s(成人の歩行者の身長の平均値)を用いて、前記式(1a)により第1距離推定値D1を算出する。   In the first embodiment, the pedestrian as the object 53 is classified into an adult pedestrian and a child pedestrian, and the distance D between the object 53 and the vehicle 1 is estimated for each. I made it. On the other hand, in this embodiment, when a pedestrian is extracted as the target object 53 by the target object extraction unit 13, the first distance estimation unit 14 assumes that the pedestrian is an adult pedestrian. Execute the process. That is, in the present embodiment, when the object 53 is a pedestrian, the first distance estimation unit 14 uses the object standard size H53s (an average value of the height of an adult pedestrian) related to an adult pedestrian. The first estimated distance value D1 is calculated from the equation (1a).

そして、本実施形態では、距離推定値確定部16には、各対象物53毎の第1距離推定値D1及び第2距離推定値D2に加えて、各対象物53毎の対象物画像情報が対象物抽出部13から与えられる。この対象物画像情報には、本実施形態では、第1撮像画像における各対象物53の画像の縦方向の長さと横方向の長さとが含まれる。   In the present embodiment, the distance estimated value determination unit 16 includes object image information for each object 53 in addition to the first distance estimated value D1 and the second distance estimated value D2 for each object 53. It is given from the object extraction unit 13. In this embodiment, the object image information includes the length in the vertical direction and the length in the horizontal direction of the image of each object 53 in the first captured image.

さらに、本実施形態では、距離推定値確定部16は、各対象物53毎に、図9に示す処理を実行することによって、各対象物53と自車両1との間の距離Dの推定値を確定して出力する。   Furthermore, in this embodiment, the distance estimated value determination unit 16 performs the process shown in FIG. 9 for each object 53, thereby estimating the distance D between each object 53 and the host vehicle 1. Confirm and output.

具体的には、距離推定値確定部16は、まず、S16−1の判断処理を実行する。このS16−1の判断処理は、第1実施形態におけるS16−1の判断処理と同じであり、車速Vの検出値が、所定の閾値VLよりも大きいか否かを判断する。そして、この判断結果が、否定的である場合には、第1距離推定値D1が、対象物53と自車両1との間の距離Dの推定値として確定される。   Specifically, the distance estimated value determination unit 16 first executes the determination process of S16-1. The determination process of S16-1 is the same as the determination process of S16-1 in the first embodiment, and it is determined whether or not the detected value of the vehicle speed V is larger than a predetermined threshold value VL. When the determination result is negative, the first distance estimated value D1 is determined as an estimated value of the distance D between the object 53 and the host vehicle 1.

また、S16−1の判断結果が否定的である場合には、距離推定値確定部16は、次に、S16−4の判断処理を実行する。このS16−4では、距離推定値確定部16は、対象物抽出部13から与えられる対象物画像情報に基づいて、対象物53が、その実際の対象物サイズが対象物標準サイズ値から大きく乖離したものとなっている可能性が高い規格外の対象物であるか否かを判断する。   If the determination result in S16-1 is negative, the distance estimated value determination unit 16 next executes the determination process in S16-4. In S16-4, the distance estimated value determination unit 16 determines that the object 53 has a large deviation from the object standard size value based on the object image information given from the object extraction unit 13. It is determined whether or not the object is out of specification with a high possibility of being a product.

この場合、この判断は、第1撮像画像における対象物53の画像の縦方向の長さと横方向の長さとの比率を、対象物53の種類別にあらかじめ定めた所定値と比較することで行なわれる。例えば、対象物53が歩行者である場合、その画像の縦方向の長さに対する横方向の長さの比率は、該歩行者が一般的な成人である場合に較べて、該歩行者が一般的な児童である場合の方が大きくなる。そこで、本実施形態では、は、対象物53が歩行者である場合、その画像の縦方向の長さに対する横方向の長さの比率が、あらかじめ定めた所定値よりも大きい場合には、その対象物53が規格外の対象物であると判断する。   In this case, this determination is made by comparing the ratio between the length in the vertical direction and the length in the horizontal direction of the image of the object 53 in the first captured image with a predetermined value determined in advance for each type of the object 53. . For example, when the object 53 is a pedestrian, the ratio of the length in the horizontal direction to the length in the vertical direction of the image is higher than that in the case where the pedestrian is a general adult. If you are a child, you will be bigger. Therefore, in the present embodiment, when the object 53 is a pedestrian, if the ratio of the horizontal length to the vertical length of the image is greater than a predetermined value, It is determined that the object 53 is a non-standard object.

また、対象物53が他車両である場合には、例えば、その画像の縦方向の長さに対する横方向の長さの比率が、あらかじめ定めた所定範囲から逸脱している場合には、その対象物53が、一般的な対象物サイズから逸脱する対象物サイズを有する特殊車両の如き規格外の対象物であると判断する。   Further, when the object 53 is another vehicle, for example, when the ratio of the horizontal length to the vertical length of the image deviates from a predetermined range, the target It is determined that the object 53 is a non-standard object such as a special vehicle having an object size that deviates from a general object size.

そして、距離推定値確定部16は、S16−4の判断結果が肯定的である場合、すなわち、第1距離推定値D1の信頼性が低い場合には、第2距離推定値D2を、対象物53と自車両1との間の距離Dの推定値として確定する。   Then, when the determination result of S16-4 is affirmative, that is, when the reliability of the first distance estimated value D1 is low, the distance estimated value determination unit 16 determines the second distance estimated value D2 as the object. The estimated value of the distance D between the vehicle 53 and the host vehicle 1 is determined.

一方、S16−4の判断結果が否定的である場合には、距離推定値確定部16は、次に、S16−2の判断処理を実行する。このS16−2の判断処理は、第1実施形態におけるS16−2の判断処理と同じであり、第2距離推定値D2が許容範囲内に収まっているか否かを判断する。そして、この判断結果が、否定的である場合には、第1距離推定値D1が、対象物53と自車両1との間の距離Dの推定値として確定される。また、この判断結果が肯定的である場合には、第2距離推定値D2が、対象物53と自車両1との間の距離Dの推定値として確定される。   On the other hand, when the determination result of S16-4 is negative, the distance estimated value determination unit 16 next executes the determination process of S16-2. The determination process of S16-2 is the same as the determination process of S16-2 in the first embodiment, and it is determined whether or not the second distance estimated value D2 is within the allowable range. When the determination result is negative, the first distance estimated value D1 is determined as an estimated value of the distance D between the object 53 and the host vehicle 1. When the determination result is affirmative, the second distance estimated value D2 is determined as an estimated value of the distance D between the object 53 and the host vehicle 1.

本実施形態は、以上説明した事項以外は、前記第1実施形態と同じである。なお、S16−2では、対象物53の画像の縦方向の長さと横方向の長さとの比率に限らず、例えば、対象物53の画像の全体又は局所部分の形状的な特徴等に基づいて対象物53が、規格外の対象物であるか否かを判断するようにしてもよい。   The present embodiment is the same as the first embodiment except for the matters described above. Note that in S16-2, not only the ratio between the length in the vertical direction and the length in the horizontal direction of the image of the object 53, but based on, for example, the shape characteristics of the entire image of the object 53 or a local portion. It may be determined whether or not the object 53 is a non-standard object.

かかる本実施形態においては、第1測距手法に基づく第1距離推定値D1の信頼性が低いと考えられる状況では、その第1距離推定値D1を、対象物53と自車両1との間の距離Dの推定値として確定するので、その推定値が、実際の値に対して過剰に乖離するのを防止することができる。   In this embodiment, in a situation where the reliability of the first distance estimated value D1 based on the first distance measuring method is considered to be low, the first distance estimated value D1 is set between the object 53 and the host vehicle 1. Therefore, it is possible to prevent the estimated value from being excessively deviated from the actual value.

補足すると、本実施形態では、S16−4の処理によって、本発明における規格外対象物判断手段が実現される。   Supplementally, in the present embodiment, the non-standard object judging means in the present invention is realized by the processing of S16-4.

なお、以上説明した各実施形態では、第2参照角度αを逐次推定するようにしたが、車両1が平坦な路面上を定常走行しているような状況では、第2参照角度αの値は、ほぼ一定に維持される。そして、その第2参照角度αの値は、車体に対する車載カメラ2の取付姿勢により規定される既知の値となる。従って、このような状況では、第2距離推定部15の処理で、第2参照角度αを逐次推定せずとも、該αの値をあらかじめ定められた既定値として、前記式(3)又は(4)により第2距離推定値D2を決定するようにしてもよい。   In each of the embodiments described above, the second reference angle α is sequentially estimated. However, in a situation where the vehicle 1 is traveling on a flat road surface, the value of the second reference angle α is , Maintained almost constant. The value of the second reference angle α is a known value defined by the mounting posture of the in-vehicle camera 2 with respect to the vehicle body. Therefore, in such a situation, even if the second reference angle α is not sequentially estimated by the processing of the second distance estimating unit 15, the value of α is set as a predetermined default value, and the equation (3) or ( The second distance estimated value D2 may be determined according to 4).

また、前記各実施形態では、測距対象の対象物53が歩行者又は他車両である場合を例にとって説明したが、対象物53は歩行者以外の動物等であってもよい。あるいは、対象物53は、固定接地物(静止物)であってもよい。対象物53が固定接地物である場合には、測距用特徴点抽出部17の処理では、前記した如く、対象物53の接地点を各撮像画像に投影してなる点を前記特徴点P1,P2として使用してもよい。   In each of the above-described embodiments, the case where the object 53 to be measured is a pedestrian or another vehicle has been described as an example, but the object 53 may be an animal other than a pedestrian. Alternatively, the object 53 may be a fixed ground object (stationary object). In the case where the object 53 is a fixed ground object, in the process of the distance measurement feature point extraction unit 17, as described above, a point formed by projecting the ground point of the object 53 onto each captured image is the feature point P1. , P2 may be used.

また、前記各実施形態では、車載カメラ2の運動状態を表すカメラ運動パラメータ(詳しくは並進移動ベクトル↑t及び回転行列R)を、撮像画像を用いて推定するようにしたが、車両1の車体の姿勢を検出するためのジャイロセンサ等の姿勢センサや、車体の加速度を検出するための加速度センサが車両1に搭載されている場合には、例えばそれらセンサの出力に基づいて、カメラ運動パラメータを計測するようにしてもよい。   In the above embodiments, the camera motion parameters (specifically, the translation vector ↑ t and the rotation matrix R) representing the motion state of the in-vehicle camera 2 are estimated using the captured image. When an attitude sensor such as a gyro sensor for detecting the attitude of the vehicle or an acceleration sensor for detecting the acceleration of the vehicle body is mounted on the vehicle 1, for example, based on the output of these sensors, the camera motion parameters are set. You may make it measure.

また、前記1実施形態では、第2参照角度α及び第3参照角度θを推定し、それらの推定値を用いて第2距離推定値D2を決定するようにしたが、第2参照角度α、又は第3参照角度θの値をあらかじめ定めた所定値として、前記式(3)又は式(4)により第2距離推定値D2を算出するようにしてもよい。   In the first embodiment, the second reference angle α and the third reference angle θ are estimated, and the second distance estimated value D2 is determined using the estimated values. However, the second reference angle α, Alternatively, the second distance estimated value D2 may be calculated by the above formula (3) or formula (4) with the value of the third reference angle θ set as a predetermined value.

また、前記第3実施形態では、前記第2参照角度推定部20及び第3参照角度推定部21でそれぞれ決定した第2参照角度α及び第3参照角度θから、前記式(14)により算出した角度βに基づいて、前記S16−4において、対象物存在路面52が自車両存在路面51に対して勾配を有するか否かを検知するようにしたが、例えばレーザレーダを車両1に搭載しているような場合には、そのレーザレーダの反射波の受信強度等を基に、勾配の有無を検知するようにしてもよい。   In the third embodiment, the second reference angle α and the third reference angle θ determined by the second reference angle estimator 20 and the third reference angle estimator 21, respectively, are calculated by the equation (14). Based on the angle β, in S16-4, it is detected whether the object existing road surface 52 has a gradient with respect to the own vehicle existing road surface 51. For example, a laser radar is mounted on the vehicle 1. In such a case, the presence or absence of a gradient may be detected based on the received intensity of the reflected wave of the laser radar.

また、前記第3実施形態において、第2距離推定値D2を、前記式(3)により決定するようにしてもい。そして、その場合、距離推定値確定部16の処理では、第2実施形態におけるS16−3の判断処理を追加し、その判断結果が肯定的である場合には、第2実施形態と同様に第1距離推定値D1を、対象物53と自車両1との間の距離Dの推定値として確定するようにしてもよい。   In the third embodiment, the second distance estimated value D2 may be determined by the equation (3). In that case, in the process of the distance estimated value determination unit 16, the determination process of S16-3 in the second embodiment is added, and if the determination result is affirmative, the process is the same as in the second embodiment. The 1-distance estimated value D1 may be determined as an estimated value of the distance D between the object 53 and the host vehicle 1.

1…車両、2…車載カメラ、10…測距装置、13…対象物抽出部(対象物抽出手段)、14…第1距離推定部(第1距離推定手段)、15…第2距離推定部(第2距離推定手段)、16…距離推定値確定部(距離推定値確定手段)、17…測距用特徴点抽出部(測距用特徴点抽出手段)、18…カメラ運動推定部(カメラ運動計測手段)、19…第1参照角度推定部(第1参照角度推定手段)、20…第2参照角度推定部(第2参照角度推定手段)、21…第3参照角度推定部(第3参照角度推定手段)、S16−2…第2距離推定値判断手段、S16−3…勾配検知手段、S16−4…規格外対象物判断手段。   DESCRIPTION OF SYMBOLS 1 ... Vehicle, 2 ... Car-mounted camera, 10 ... Distance measuring device, 13 ... Object extraction part (object extraction means), 14 ... 1st distance estimation part (1st distance estimation means), 15 ... 2nd distance estimation part (Second distance estimation means), 16 ... distance estimation value determination section (distance estimation value determination means), 17 ... distance measurement feature point extraction section (range measurement feature point extraction means), 18 ... camera motion estimation section (camera Motion measurement means), 19 ... first reference angle estimation unit (first reference angle estimation means), 20 ... second reference angle estimation unit (second reference angle estimation means), 21 ... third reference angle estimation unit (third Reference angle estimating means), S16-2 ... second distance estimated value judging means, S16-3 ... gradient detecting means, S16-4 ... non-standard object judging means.

Claims (4)

車載カメラによって撮像された路面上の対象物と前記車載カメラが搭載された自車両との間の距離を測定する測距装置であって、
前記車載カメラの撮像画像から、前記自車両との距離を測定しようとする対象物の画像を抽出する対象物抽出手段と、
前記撮像画像から抽出された対象物の画像を基に、該撮像画像中での該対象物のサイズである画像中対象物サイズを特定し、その特定した画像中対象物サイズと、前記車載カメラの光軸方向で見た前記対象物の実空間でのサイズである対象物サイズの標準値としてあらかじめ設定された対象物標準サイズ値との比率と、前記車載カメラの焦点距離の設定値とから、前記撮像画像の撮像時刻t1での前記対象物と自車両との間の距離の第1推定値
である第1距離推定値を決定する第1距離推定手段と、
前記対象物が存在する路面である対象物存在路面上の静止点であって、自車両からの距離が前記撮像時刻t1での前記対象物の接地点と同じになる静止点を該撮像時刻t1で撮像された前記撮像画像に投影してなる特徴点を該撮像画像から抽出して、該撮像画像における該特徴点の位置を特定する測距用特徴点抽出手段と、
前記撮像画像において特定された前記特徴点の位置に基づき、前記車載カメラから前記静止点に至る直線が、該車載カメラの光軸に対してなす角度である第1参照角度の値を推定する第1参照角度推定手段と、
少なくとも前記第1参照角度の推定値と前記車載カメラの高さの設定値とを基に、前記対象物と自車両との間の距離の第2推定値である第2距離推定値を決定する第2距離推定手段と、
前記特定された画像中対象物サイズと前記対象物サイズの最大値としてあらかじめ設定された最大サイズ設定値との比率を基に推定される前記距離の値と、前記特定された画像中対象物サイズと前記対象物サイズの最小値としてあらかじめ設定された最小サイズ設定値との比率を基に推定される前記距離の値との間の範囲を、前記第2距離推定値の許容範囲として設定し、その設定した許容範囲に前記第2距離推定値が収まっているか否かを判断する第2距離推定値判断手段と、
前記第2距離推定値判断手段の判断結果が、肯定的である場合に、前記第2距離推定値を前記対象物と自車両との間の距離の推定値として確定し、該判断結果が否定的である場合に、前記第1距離推定値を前記対象物と自車両との間の距離の推定値として確定する距離推定値確定手段と
互いに異なる撮像時刻で撮像された2つ以上の撮像画像を基に、前記車載カメラの並進移動方向を少なくとも含む該車載カメラの運動状態を逐次計測するカメラ運動計測手段と、
前記車載カメラの計測された運動状態から、前記撮像時刻t1において前記車載カメラの光軸が前記車両が存在する路面である自車両存在路面に対してなす角度である第2参照角度の値を推定する第2参照角度推定手段とを備え、
前記第2参照角度推定手段は、少なくとも前記第1参照角度の推定値と前記第2参照角度の推定値と前記車載カメラの高さの設定値とを基に、前記第2距離推定値を決定する手段であり、
前記距離推定値確定手段は、前記車両の車速が所定値以下の低車速である場合には、前記第2距離推定値判断手段の判断結果によらずに、前記第1距離推定値を前記対象物と自車両との間の距離の推定値として確定することを特徴とする測距装置。
A distance measuring device that measures a distance between an object on a road surface imaged by an in-vehicle camera and the vehicle on which the in-vehicle camera is mounted,
An object extraction means for extracting an image of an object to be measured from the captured image of the in-vehicle camera, and the distance from the host vehicle;
Based on the image of the object extracted from the captured image, the object size in the image, which is the size of the object in the captured image, is specified, and the specified object size in the image and the in-vehicle camera From the ratio of the object standard size value set in advance as the standard value of the object size, which is the size of the object in real space seen in the optical axis direction, and the setting value of the focal length of the in-vehicle camera First distance estimating means for determining a first distance estimated value that is a first estimated value of the distance between the object and the host vehicle at the imaging time t1 of the captured image;
A stationary point on the object existing road surface on which the object exists is a stationary point whose distance from the host vehicle is the same as the ground contact point of the object at the imaging time t1. A feature point extraction means for distance measurement that extracts from the captured image a feature point formed by projecting on the captured image captured in step, and specifies a position of the feature point in the captured image;
Based on the position of the feature point specified in the captured image, a first reference angle value that is an angle formed by a straight line from the in-vehicle camera to the stationary point with respect to the optical axis of the in-vehicle camera is estimated. 1 reference angle estimation means;
Based on at least the estimated value of the first reference angle and the set value of the height of the in-vehicle camera, a second estimated distance value that is a second estimated value of the distance between the object and the host vehicle is determined. A second distance estimating means;
The distance value estimated based on the ratio between the specified object size in the image and the maximum size setting value set in advance as the maximum value of the object size, and the specified object size in the image And a range between the distance value estimated based on a ratio of a minimum size setting value set in advance as a minimum value of the target object size as an allowable range of the second distance estimation value, Second distance estimated value judging means for judging whether or not the second distance estimated value is within the set allowable range;
If the determination result of the second distance estimated value determining means is affirmative, the second distance estimated value is determined as an estimated value of the distance between the object and the host vehicle, and the determination result is negative A distance estimated value determining means for determining the first distance estimated value as an estimated value of the distance between the object and the host vehicle ,
Camera motion measurement means for sequentially measuring the motion state of the in-vehicle camera including at least the translational movement direction of the in-vehicle camera based on two or more captured images captured at different imaging times;
Based on the measured motion state of the in-vehicle camera, a value of a second reference angle that is an angle formed by the optical axis of the in-vehicle camera with respect to the road surface on which the vehicle exists is estimated at the imaging time t1. Second reference angle estimating means for
The second reference angle estimation means determines the second distance estimated value based on at least the estimated value of the first reference angle, the estimated value of the second reference angle, and the set value of the height of the in-vehicle camera. Means to
When the vehicle speed of the vehicle is a low vehicle speed equal to or lower than a predetermined value, the distance estimated value determining means determines the first distance estimated value as the target regardless of the determination result of the second distance estimated value determining means. A distance measuring device, wherein the distance measuring device is fixed as an estimated value of a distance between an object and the host vehicle .
請求項記載の測距装置において、
前記測距用特徴点抽出手段は、前記静止点を前記撮像時刻t1で撮像された撮像画像に投影してなる特徴点と、該撮像時刻t1と異なる撮像時刻t2で撮像された撮像画像に投影してなる特徴点とを当該2つの撮像画像のそれぞれから抽出して、当該2つの撮像画像のそれぞれにおける各特徴点の位置を特定する手段であり、
前記カメラ運動計測手段は、前記2つの撮像画像のそれぞれの撮像時刻t1,t2の間の期間における前記車載カメラの位置及び姿勢の変化を表すカメラ運動パラメータを逐次計測する手段であり、
前記カメラ運動パラメータと、前記2つの撮像画像のそれぞれにおける前記特徴点の位置と、前記車載カメラの高さと、前記撮像時刻t1において前記自車両存在路面のうちの前記車載カメラの下方に位置する点から前記静止点に至る直線が前記車載カメラの光軸に対してなす角度である第3参照角度との間の関係を表す演算式に基づいて、前記カメラ運動パラメータの計測値と、前記2つの撮像画像のそれぞれにおいて特定された前記特徴点の位置と、前記車載カメラの高さの設定値とから、該演算式における未知数としての前記第3参照角度の値を推定する第3参照角度推定手段をさらに備えており、
前記第2距離推定手段は、前記第1参照角度の推定値と前記第2参照角度の推定値と前記第3参照角度の推定値と前記車載カメラの高さの設定値とを基に、前記第2距離推定値を決定する手段であることを特徴とする測距装置。
The distance measuring device according to claim 1 ,
The distance-measuring feature point extraction means projects the feature point obtained by projecting the still point onto the captured image captured at the imaging time t1, and the captured image captured at the imaging time t2 different from the imaging time t1. A feature point that is extracted from each of the two captured images and specifies the position of each feature point in each of the two captured images.
The camera motion measurement means is means for sequentially measuring camera motion parameters representing changes in position and posture of the in-vehicle camera in a period between the imaging times t1 and t2 of the two captured images,
The camera motion parameter, the position of the feature point in each of the two captured images, the height of the vehicle-mounted camera, and the point positioned below the vehicle-mounted camera on the road surface where the vehicle is present at the imaging time t1 And a measured value of the camera motion parameter based on an arithmetic expression representing a relationship between a straight line from the stationary point to the stationary point and a third reference angle that is an angle formed with respect to the optical axis of the in-vehicle camera, Third reference angle estimation means for estimating the value of the third reference angle as an unknown in the arithmetic expression from the position of the feature point specified in each captured image and the set value of the height of the in-vehicle camera Further comprising
The second distance estimating means, based on the estimated value of the first reference angle, the estimated value of the second reference angle, the estimated value of the third reference angle, and the set value of the height of the in-vehicle camera, A distance measuring apparatus which is means for determining a second distance estimated value.
車載カメラによって撮像された路面上の対象物と前記車載カメラが搭載された自車両との間の距離を測定する測距装置であって、
前記車載カメラの撮像画像から、前記自車両との距離を測定しようとする対象物の画像を抽出する対象物抽出手段と、
前記撮像画像から抽出された対象物の画像を基に、該撮像画像中での該対象物のサイズである画像中対象物サイズを特定し、その特定した画像中対象物サイズと、前記車載カメラの光軸方向で見た前記対象物の実空間でのサイズである対象物サイズの標準値としてあらかじめ設定された対象物標準サイズ値との比率と、前記車載カメラの焦点距離の設定値とから、前記撮像画像の撮像時刻t1での前記対象物と自車両との間の距離の第1推定値
である第1距離推定値を決定する第1距離推定手段と、
前記対象物が存在する路面である対象物存在路面上の静止点であって、自車両からの距離が前記撮像時刻t1での前記対象物の接地点と同じになる静止点を該撮像時刻t1で撮像された前記撮像画像に投影してなる特徴点を該撮像画像から抽出して、該撮像画像における該特徴点の位置を特定する測距用特徴点抽出手段と、
前記撮像画像において特定された前記特徴点の位置に基づき、前記車載カメラから前記静止点に至る直線が、該車載カメラの光軸に対してなす角度である第1参照角度の値を推定する第1参照角度推定手段と、
少なくとも前記第1参照角度の推定値と前記車載カメラの高さの設定値とを基に、前記対象物と自車両との間の距離の第2推定値である第2距離推定値を決定する第2距離推定手段と、
前記特定された画像中対象物サイズと前記対象物サイズの最大値としてあらかじめ設定された最大サイズ設定値との比率を基に推定される前記距離の値と、前記特定された画像中対象物サイズと前記対象物サイズの最小値としてあらかじめ設定された最小サイズ設定値との比率を基に推定される前記距離の値との間の範囲を、前記第2距離推定値の許容範囲として設定し、その設定した許容範囲に前記第2距離推定値が収まっているか否かを判断する第2距離推定値判断手段と、
前記第2距離推定値判断手段の判断結果が、肯定的である場合に、前記第2距離推定値を前記対象物と自車両との間の距離の推定値として確定し、該判断結果が否定的である場合に、前記第1距離推定値を前記対象物と自車両との間の距離の推定値として確定する距離推定値確定手段と
前記対象物存在路面が、前記車両が存在する路面である自車両存在路面に対して勾配を有するか否かを検知する勾配検知手段とを備え、
前記距離推定値確定手段は、前記勾配検知手段の検知結果が肯定的である場合には、前記第2距離推定値判断手段の判断結果によらずに、前記第1距離推定値を前記対象物と自車両との間の距離の推定値として確定することを特徴とする測距装置。
A distance measuring device that measures a distance between an object on a road surface imaged by an in-vehicle camera and the vehicle on which the in-vehicle camera is mounted,
An object extraction means for extracting an image of an object to be measured from the captured image of the in-vehicle camera, and the distance from the host vehicle;
Based on the image of the object extracted from the captured image, the object size in the image, which is the size of the object in the captured image, is specified, and the specified object size in the image and the in-vehicle camera From the ratio of the object standard size value set in advance as the standard value of the object size, which is the size of the object in real space seen in the optical axis direction, and the setting value of the focal length of the in-vehicle camera First distance estimating means for determining a first distance estimated value that is a first estimated value of the distance between the object and the host vehicle at the imaging time t1 of the captured image;
A stationary point on the object existing road surface on which the object exists is a stationary point whose distance from the host vehicle is the same as the ground contact point of the object at the imaging time t1. A feature point extraction means for distance measurement that extracts from the captured image a feature point formed by projecting on the captured image captured in step, and specifies a position of the feature point in the captured image;
Based on the position of the feature point specified in the captured image, a first reference angle value that is an angle formed by a straight line from the in-vehicle camera to the stationary point with respect to the optical axis of the in-vehicle camera is estimated. 1 reference angle estimation means;
Based on at least the estimated value of the first reference angle and the set value of the height of the in-vehicle camera, a second estimated distance value that is a second estimated value of the distance between the object and the host vehicle is determined. A second distance estimating means;
The distance value estimated based on the ratio between the specified object size in the image and the maximum size setting value set in advance as the maximum value of the object size, and the specified object size in the image And a range between the distance value estimated based on a ratio of a minimum size setting value set in advance as a minimum value of the target object size as an allowable range of the second distance estimation value, Second distance estimated value judging means for judging whether or not the second distance estimated value is within the set allowable range;
If the determination result of the second distance estimated value determining means is affirmative, the second distance estimated value is determined as an estimated value of the distance between the object and the host vehicle, and the determination result is negative A distance estimated value determining means for determining the first distance estimated value as an estimated value of the distance between the object and the host vehicle ,
Gradient detection means for detecting whether or not the object existence road surface has a gradient with respect to the own vehicle existence road surface on which the vehicle exists,
The distance estimated value determining means, when the detection result of the gradient detecting means is affirmative, uses the first distance estimated value as the object regardless of the determination result of the second distance estimated value determining means. A distance measuring device that is determined as an estimated value of a distance between the vehicle and the host vehicle .
請求項1〜のいずれか1項に記載の測距装置において、
前記対象物抽出手段により抽出された対象物の画像に基づいて、該対象物が、該対象物の属する種類における前記対象物標準サイズ値から乖離する規格外のサイズ値を有する規格外対象物であるか否かを判断する規格外対象物判断手段をさらに備え、
前記距離推定値確定手段は、前記対象物が規格外対象物であると判断された場合には、前記第2距離推定値判断手段の判断結果によらずに、前記第2距離推定値を前記対象物と自車両との間の距離の推定値として確定することを特徴とする測距装置。
In the distance measuring device according to any one of claims 1 to 3 ,
Based on the image of the object extracted by the object extraction means, the object is a non-standard object having a non-standard size value that deviates from the object standard size value in the type to which the object belongs. A non-standard object judging means for judging whether or not there is,
When it is determined that the object is a non-standard object, the distance estimated value determining means determines the second distance estimated value without depending on the determination result of the second distance estimated value determining means. A distance measuring device, wherein the distance measuring device is fixed as an estimated value of a distance between an object and a host vehicle.
JP2011132594A 2011-06-14 2011-06-14 Ranging device Expired - Fee Related JP5663411B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011132594A JP5663411B2 (en) 2011-06-14 2011-06-14 Ranging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011132594A JP5663411B2 (en) 2011-06-14 2011-06-14 Ranging device

Publications (2)

Publication Number Publication Date
JP2013002884A JP2013002884A (en) 2013-01-07
JP5663411B2 true JP5663411B2 (en) 2015-02-04

Family

ID=47671618

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011132594A Expired - Fee Related JP5663411B2 (en) 2011-06-14 2011-06-14 Ranging device

Country Status (1)

Country Link
JP (1) JP5663411B2 (en)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014171052A1 (en) * 2013-04-16 2014-10-23 コニカミノルタ株式会社 Image processing method, image processing device, image-capture device, and image processing program
DE102013012930A1 (en) * 2013-08-02 2015-02-05 Connaught Electronics Ltd. Method for determining a current distance and / or a current speed of a target object from a reference point in a camera image, camera system and motor vehicle
KR101578158B1 (en) * 2014-01-09 2015-12-16 주식회사 텔릿와이어리스솔루션즈 Device and method for calculating position value
JP6361927B2 (en) * 2014-08-13 2018-07-25 ソニー株式会社 Information processing apparatus, information processing method, and program
US10952648B2 (en) 2015-06-26 2021-03-23 Nec Solution Innovators, Ltd. Measurement device and measurement method
US10949656B2 (en) * 2015-09-29 2021-03-16 Sony Corporation Information processing apparatus and information processing method
KR101921706B1 (en) * 2017-05-31 2018-11-26 모젼스랩 (주) Creation and providing system of mixed reality using distance of reality image
CN113436256B (en) * 2021-06-07 2024-05-31 影石创新科技股份有限公司 Shooting device state identification method, shooting device state identification device, computer equipment and storage medium
CN116147597B (en) * 2023-04-24 2023-06-20 四川跃航智能设备制造有限公司 Electric automobile charging pile installation reference measurement device and method
KR102640096B1 (en) * 2023-11-06 2024-02-22 김예준 An apparatus for determining the risk of a forward slope

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2535927B2 (en) * 1987-07-09 1996-09-18 アイシン精機株式会社 On-vehicle distance detection device
JP3643157B2 (en) * 1995-11-29 2005-04-27 池上通信機株式会社 Object height measurement method using stereo images
JP3827368B2 (en) * 1996-08-01 2006-09-27 富士通テン株式会社 Inter-vehicle distance measuring device with compound eye camera
JP2000283753A (en) * 1999-03-31 2000-10-13 Fuji Heavy Ind Ltd Device for measuring distance using stereographic picture
JP4144464B2 (en) * 2003-07-08 2008-09-03 日産自動車株式会社 In-vehicle distance calculation device
JP2006266848A (en) * 2005-03-23 2006-10-05 Sharp Corp Distance measuring device
JP2008224620A (en) * 2007-03-15 2008-09-25 Omron Corp Range finder
JP4486997B2 (en) * 2008-04-24 2010-06-23 本田技研工業株式会社 Vehicle periphery monitoring device
JP5258977B2 (en) * 2009-11-25 2013-08-07 本田技研工業株式会社 Object distance measuring device and vehicle equipped with the device

Also Published As

Publication number Publication date
JP2013002884A (en) 2013-01-07

Similar Documents

Publication Publication Date Title
JP5663411B2 (en) Ranging device
EP2657920B1 (en) Driving assist device
JP5804185B2 (en) Moving object position / orientation estimation apparatus and moving object position / orientation estimation method
WO2018142900A1 (en) Information processing device, data management device, data management system, method, and program
JP2022113746A (en) Determination device
EP2933790A1 (en) Moving object location/attitude angle estimation device and moving object location/attitude angle estimation method
US20080181591A1 (en) Camera posture estimation device, vehicle, and camera posture estimation method
JP5587250B2 (en) Ranging device
JP2017215193A (en) Information processing device and method therefor
US20150363653A1 (en) Road environment recognition system
US10991105B2 (en) Image processing device
US20160207473A1 (en) Method of calibrating an image detecting device for an automated vehicle
US10916034B2 (en) Host vehicle position estimation device
JP2010107435A (en) Feature position recognition device
JP5267100B2 (en) Motion estimation apparatus and program
KR20160125803A (en) Apparatus for defining an area in interest, apparatus for detecting object in an area in interest and method for defining an area in interest
JP5425500B2 (en) Calibration apparatus and calibration method
US10339394B2 (en) Step detection device and step detection method
US11740103B2 (en) Map creation device, map creation system, map creation method, and storage medium
JP4026641B2 (en) Object detection apparatus and object detection method
JP6295524B2 (en) Optical axis correction device
JP5330341B2 (en) Ranging device using in-vehicle camera
JP2013183311A (en) Estimation device and detection system of attitude angle in on-vehicle camera
JP2013148354A (en) Vehicle position calculation device
JP2005148784A (en) Detector for traveling lane on road surface

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131128

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140612

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140617

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140808

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141202

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141208

R150 Certificate of patent or registration of utility model

Ref document number: 5663411

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees