JP5533323B2 - Movement amount estimation apparatus and movement amount estimation method - Google Patents

Movement amount estimation apparatus and movement amount estimation method Download PDF

Info

Publication number
JP5533323B2
JP5533323B2 JP2010140320A JP2010140320A JP5533323B2 JP 5533323 B2 JP5533323 B2 JP 5533323B2 JP 2010140320 A JP2010140320 A JP 2010140320A JP 2010140320 A JP2010140320 A JP 2010140320A JP 5533323 B2 JP5533323 B2 JP 5533323B2
Authority
JP
Japan
Prior art keywords
line segment
optical flow
movement amount
ground line
vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010140320A
Other languages
Japanese (ja)
Other versions
JP2012003663A (en
Inventor
裕之 古性
千加夫 土谷
慎也 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2010140320A priority Critical patent/JP5533323B2/en
Publication of JP2012003663A publication Critical patent/JP2012003663A/en
Application granted granted Critical
Publication of JP5533323B2 publication Critical patent/JP5533323B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、移動量推定装置及び移動量推定方法に関する。   The present invention relates to a movement amount estimation apparatus and a movement amount estimation method.

従来、物体の移動量を検出する物体検出装置が知られている。この物体検出装置は、所定時間間隔の2つの画像に基づいて画像上の特徴点の移動ベクトルであるオプティカルフローを算出する。そして、物体検出装置は、生成したオプティカルフローに基づいて物体の移動量を検出する(特許文献1参照)。   Conventionally, an object detection device that detects the amount of movement of an object is known. This object detection apparatus calculates an optical flow that is a movement vector of feature points on an image based on two images at predetermined time intervals. Then, the object detection device detects the amount of movement of the object based on the generated optical flow (see Patent Document 1).

特開2008−97126号公報JP 2008-97126 A

しかし、従来の物体検出装置では、移動量の推定精度に向上の余地があった。例えば、従来の物体検出装置では、車両のライトやバンパー部分などの前面又は後面から特徴点を決定してオプティカルフローを算出している。しかし、車両の前面又は後面は車両全体からすると小さい領域であり、情報量が少なく、推定精度を低下させる原因となってしまう。このため、フロントガラスやリアガラスを含む車両前側や後側の全体から特徴点を決定しようとすると、バンパー部分とガラス部分において奥行き差があり、情報量が増加しても移動量の推定精度自体は低下してしまう。   However, the conventional object detection device has room for improvement in the estimation accuracy of the movement amount. For example, in a conventional object detection apparatus, an optical flow is calculated by determining feature points from the front or rear surface of a vehicle light or bumper. However, the front or rear surface of the vehicle is a small area from the whole vehicle, and the amount of information is small, which causes a decrease in estimation accuracy. For this reason, when trying to determine the feature points from the entire front and rear side of the vehicle including the windshield and rear glass, there is a difference in depth between the bumper part and the glass part. It will decline.

本発明はこのような従来の課題を解決するためになされたものであり、その目的とするところは、移動量の推定精度を向上させることが可能な移動量推定装置及び移動量推定方法を提供することにある。   The present invention has been made to solve such a conventional problem, and an object of the present invention is to provide a movement amount estimation apparatus and a movement amount estimation method capable of improving the estimation accuracy of the movement amount. There is to do.

本発明の移動量推定装置は、所定領域を撮像する撮像手段と、前記撮像手段による撮像にて得られた画像からオプティカルフローを算出するオプティカルフロー算出手段と、仮定された車両側面と路面との交線となる線分である接地線分を推定する接地線分推定手段と、前記接地線分推定手段により推定された接地線分を含む鉛直上方に伸びる面内に、前記オプティカルフロー算出手段により算出されたオプティカルフローが存在すると仮定し、当該オプティカルフローから実空間におけるベクトルを算出するベクトル算出手段と、前記ベクトル算出手段により算出されたベクトルをクラスタリングするクラスタリング手段と、前記クラスタリング手段によるクラスタリングの結果、ベクトル数が最も多い最大クラスタに属するベクトルから、車両の移動量を推定する移動量推定手段と、を備えることを特徴とする。 The movement amount estimation apparatus according to the present invention includes: an imaging unit that images a predetermined region; an optical flow calculation unit that calculates an optical flow from an image obtained by imaging by the imaging unit; and an assumed vehicle side surface and road surface. A ground line segment estimation means for estimating a ground line segment that is a line segment to be intersected, and an optical flow calculation means in a plane extending vertically upward including the ground line segment estimated by the ground line segment estimation means Assuming that the calculated optical flow exists, a vector calculation means for calculating a vector in real space from the optical flow, a clustering means for clustering the vectors calculated by the vector calculation means, and a result of clustering by the clustering means From the vector belonging to the largest cluster with the largest number of vectors Characterized in that it comprises a movement amount estimating means for estimating the amount of movement of the vehicle, a.

本発明によれば、仮定された車両側面と路面との交線となる接地線分を含む鉛直上方に伸びる面内に、オプティカルフローが存在すると仮定し、当該オプティカルフローの実空間におけるベクトルを算出する。このように、車両側面を含む面内にオプティカルフローが存在すると仮定して、実空間におけるベクトルを算出するため、実空間のベクトルから移動量を推定することができ、移動量推定の正確性を向上させることができる。特に、実空間における車両側面のベクトルであるため、車両が走行時において車両横方向の移動量が少ないことから、車両側面のベクトルから移動量を推定することで、車両前面や後面から推定するよりも推定誤差を軽減し易くできる。従って、移動量の推定精度を向上させることができる。   According to the present invention, it is assumed that an optical flow exists in a plane extending vertically upward including a ground line segment that intersects the assumed vehicle side surface and the road surface, and a vector in the real space of the optical flow is calculated. To do. In this way, since the vector in the real space is calculated on the assumption that the optical flow exists in the plane including the vehicle side surface, the movement amount can be estimated from the vector in the real space, and the accuracy of the movement amount estimation is improved. Can be improved. In particular, since it is a vehicle side vector in real space, the amount of movement in the lateral direction of the vehicle is small when the vehicle is traveling. Therefore, by estimating the amount of movement from the vector of the vehicle side surface, Can easily reduce the estimation error. Accordingly, the estimation accuracy of the movement amount can be improved.

本実施形態に係る移動量推定装置の概略構成図である。It is a schematic block diagram of the movement amount estimation apparatus which concerns on this embodiment. 図1に示した車両の走行状態を示す上面図である。It is a top view which shows the driving state of the vehicle shown in FIG. 図1に示した計算機の詳細を示すブロック図である。It is a block diagram which shows the detail of the computer shown in FIG. 図3に示した領域設定部により設定される仮想面の一例を示す図である。It is a figure which shows an example of the virtual surface set by the area | region setting part shown in FIG. 図3に示したベクトル算出部による実空間のベクトルの算出の様子を示す図であって、(a)は撮像画像を示し、(b)は実空間のベクトルを示している。It is a figure which shows the mode of calculation of the vector of real space by the vector calculation part shown in FIG. 3, Comprising: (a) shows the captured image, (b) has shown the vector of real space. 本実施形態に係る移動量推定方法を示すフローチャートであって、仮想面の設定までの処理を示している。It is a flowchart which shows the movement amount estimation method which concerns on this embodiment, Comprising: The process until the setting of a virtual surface is shown. 本実施形態に係る移動量推定方法を示すフローチャートであって、移動量の推定までの処理を示している。It is a flowchart which shows the movement amount estimation method which concerns on this embodiment, Comprising: The process until estimation of a movement amount is shown. 第2実施形態に係る移動量推定装置の概略構成図である。It is a schematic block diagram of the movement amount estimation apparatus which concerns on 2nd Embodiment. 第2実施形態に係る移動量推定装置による接地線分の推定方法を説明する上面図である。It is a top view explaining the estimation method of the ground line segment by the movement amount estimation apparatus according to the second embodiment. 第2実施形態に係る移動量推定方法を示すフローチャートであって、仮想面の設定までの処理を示している。It is a flowchart which shows the movement amount estimation method which concerns on 2nd Embodiment, Comprising: The process until the setting of a virtual surface is shown.

以下、本発明の好適な実施形態を図面に基づいて説明する。図1は、本実施形態に係る移動量推定装置1の概略構成図である。図1に示すように、移動量推定装置1は、車両V1に搭載され、カメラ(撮像手段)10と、立体物検出レーダ(立体物検出手段)20と、計算機30とを備えている。   DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments of the invention will be described with reference to the drawings. FIG. 1 is a schematic configuration diagram of a movement amount estimation apparatus 1 according to the present embodiment. As shown in FIG. 1, the movement amount estimation device 1 is mounted on a vehicle V <b> 1 and includes a camera (imaging unit) 10, a three-dimensional object detection radar (three-dimensional object detection unit) 20, and a calculator 30.

図1に示すカメラ10は、車両V1の後方における高さhの箇所において、光軸が水平から下向きに角度θとなるように取り付けられている。カメラ10は、この位置から所定領域を撮像するようになっている。立体物検出レーダ20は、車両Vの後方にレーザ光を照射し、反射光から立体物の位置及び距離に応じた情報を収集するものである。この立体物検出レーダ20のレーザ光照射範囲は、少なくともカメラ10の撮像範囲をカバーするように照射可能となっている。計算機30は、車両後方側の立体物について移動量を推定するものである。なおここで、本実施形態においては上述の通り立体物検出レーダ20をレーザレーダとして記載するが、例えばミリ波レーダ等の他の方式のレーダ装置を用いても良い。   The camera 10 shown in FIG. 1 is mounted so that the optical axis is at an angle θ from the horizontal to the downward direction at the position of the height h at the rear of the vehicle V1. The camera 10 captures a predetermined area from this position. The three-dimensional object detection radar 20 irradiates a laser beam behind the vehicle V and collects information corresponding to the position and distance of the three-dimensional object from the reflected light. The laser beam irradiation range of the three-dimensional object detection radar 20 can be irradiated so as to cover at least the imaging range of the camera 10. The computer 30 estimates the movement amount for the three-dimensional object on the vehicle rear side. In this embodiment, as described above, the three-dimensional object detection radar 20 is described as a laser radar. However, other types of radar devices such as a millimeter wave radar may be used.

図2は、図1に示した車両V1の走行状態を示す上面図である。図2に示すように、カメラ10は、所定の画角aで車両後方側を撮像する。このとき、カメラ10の画角内には自車両V1が走行する車線に加えて、その左右の車線についても撮像可能となっている。   FIG. 2 is a top view showing a traveling state of the vehicle V1 shown in FIG. As shown in FIG. 2, the camera 10 images the vehicle rear side at a predetermined angle of view a. At this time, in addition to the lane in which the host vehicle V1 travels, the left and right lanes can be imaged within the angle of view of the camera 10.

図3は、図1に示した計算機30の詳細を示すブロック図である。なお、図3においては、接続関係を明確とするためにカメラ10及び車速センサ20についても図示するものとする。   FIG. 3 is a block diagram showing details of the computer 30 shown in FIG. In FIG. 3, the camera 10 and the vehicle speed sensor 20 are also illustrated in order to clarify the connection relationship.

図3に示すように、計算機30は、領域設定部(接地線分推定手段、立体物検出手段)31と、ベクトル算出部(オプティカルフロー算出手段、ベクトル算出手段)32と、移動量推定部(移動量推定手段、クラスタリング手段、車両判断手段)33とを備えている。   As shown in FIG. 3, the computer 30 includes an area setting unit (ground line segment estimation unit, three-dimensional object detection unit) 31, a vector calculation unit (optical flow calculation unit, vector calculation unit) 32, and a movement amount estimation unit ( Movement amount estimation means, clustering means, vehicle judgment means) 33.

領域設定部31は、接地線分を推定するものである。接地線分は、仮定された車両側面と路面との交線となる線分である。接地線分を求めるにあたり領域設定部31は、立体物検出レーダ20からの情報に基づいて、自車両周辺の立体物の外形位置を検出する。   The region setting unit 31 estimates a ground line segment. The ground line segment is a line segment that is an intersection line between the assumed vehicle side surface and the road surface. In obtaining the ground line segment, the region setting unit 31 detects the external position of the three-dimensional object around the host vehicle based on the information from the three-dimensional object detection radar 20.

具体的に説明すると、領域設定部31は、立体物検出レーダ20からの反射光により、周囲の立体物の自車両に対する位置を特定することができる。図2に示すように、立体物検出レーダ20は車両後方にレーザ光を照射しているため、領域設定部31は自車両V1の後方側に位置する他車両V2の外形位置P1,P2を検出可能となっている。   More specifically, the region setting unit 31 can specify the position of the surrounding three-dimensional object with respect to the host vehicle by the reflected light from the three-dimensional object detection radar 20. As shown in FIG. 2, since the three-dimensional object detection radar 20 irradiates the rear of the vehicle with laser light, the region setting unit 31 detects the outer positions P1 and P2 of the other vehicle V2 located behind the host vehicle V1. It is possible.

領域設定部31は、上記のように検出した外形位置P1,P2のうち、車線に沿っている外形位置P1を直線近似し、近似直線の垂線から接地線分Lを推定する。このように、領域設定部31は、仮定的に車両側面を特定し、その側面と路面との交線となる接地線分Lを推定することとなる。   The area setting unit 31 linearly approximates the outer position P1 along the lane among the outer positions P1 and P2 detected as described above, and estimates the ground line segment L from the perpendicular of the approximate line. In this way, the region setting unit 31 presumably specifies the vehicle side surface and estimates the ground line segment L that is an intersection line between the side surface and the road surface.

また、領域設定部31は、接地線分Lを算出した後、仮想面を設定するものである。図4は、図3に示した領域設定部31により設定される仮想面の一例を示す図である。図4に示すように、領域設定部31は、接地線分Lを含む鉛直上方に伸びる面を仮想面ISとして設定する。なお、仮想面ISの高さhISは、所定高さに限定されている。所定高さは、後述する演算コストが多大とならず、且つ一般的な車両の高さが含まれるように予め決定されている。これにより、車両側面部を含みつつ不要な領域を含まないようにすることができる。また、領域設定部31は、仮想面ISの情報をベクトル算出部32に送信する。 The area setting unit 31 sets the virtual plane after calculating the ground line segment L. FIG. 4 is a diagram illustrating an example of a virtual plane set by the area setting unit 31 illustrated in FIG. 3. As shown in FIG. 4, the region setting unit 31 sets a surface that includes the ground line segment L and extends vertically upward as a virtual surface IS. The height h IS virtual surface IS is limited to a predetermined height. The predetermined height is determined in advance so that the calculation cost described later does not become large and a general vehicle height is included. Thereby, it can avoid including an unnecessary area | region, including a vehicle side part. In addition, the region setting unit 31 transmits information on the virtual plane IS to the vector calculation unit 32.

ベクトル算出部32は、カメラ10による撮像にて得られた撮像画像データを入力し、撮像画像データからオプティカルフローを算出するものである。オプティカルフローは、例えば特開2008−97126号公報に記載のようにして算出することができる。このベクトル算出部32によりオプティカルフローが得られ、オプティカルフローの始点座標を(xs,ys)とし、終点座標を(xe,ye)とすると、得られる結果は、以下のようになる。

Figure 0005533323
なお、mは正の整数である。また、座標系は図4に示すように画像縦方向がX軸とされ、画像横方向がY軸とされる。 The vector calculation unit 32 inputs captured image data obtained by imaging with the camera 10 and calculates an optical flow from the captured image data. The optical flow can be calculated as described in, for example, JP-A-2008-97126. An optical flow is obtained by the vector calculation unit 32. If the start point coordinates of the optical flow are (xs, ys) and the end point coordinates are (xe, ye), the obtained results are as follows.
Figure 0005533323
Note that m is a positive integer. In the coordinate system, as shown in FIG. 4, the vertical direction of the image is the X axis, and the horizontal direction of the image is the Y axis.

また、ベクトル算出部32は、算出したオプティカルフローが仮想面IS内に存在すると仮定し、オプティカルフローから実空間のベクトルを算出するものである。図5は、図3に示したベクトル算出部32による実空間のベクトルの算出の様子を示す図であって、(a)は撮像画像を示し、(b)は実空間のベクトルを示している。   The vector calculation unit 32 calculates a real space vector from the optical flow on the assumption that the calculated optical flow exists in the virtual plane IS. 5A and 5B are diagrams illustrating how the real space vector is calculated by the vector calculation unit 32 illustrated in FIG. 3. FIG. 5A illustrates a captured image, and FIG. 5B illustrates a real space vector. .

例えばオプティカルフローは図5(a)に示すように算出される。このオプティカルフローOPは画像上において座標を特定できるが、画像上ではオプティカルフローを示す立体物の位置(特に奥行き)が不明であるため、実空間上でのベクトルは不明となる。そこで、ベクトル算出部32は、図5(b)に示すようにオプティカルフローOPが仮想面IS内に存在すると仮定して、実空間におけるベクトルとして算出する。この際、ベクトル算出部32は、各種計算処理を行ってオプティカルフローOPから実空間におけるベクト
ルを算出する。なお、背景等については、自車両V1が走行している場合、車両後方に向けてオプティカルフローOPが発生する。
For example, the optical flow is calculated as shown in FIG. The coordinates of the optical flow OP can be specified on the image, but since the position (particularly the depth) of the three-dimensional object showing the optical flow is unknown on the image, the vector in the real space is unknown. Therefore, the vector calculation unit 32 calculates the optical flow OP as a vector in the real space on the assumption that the optical flow OP exists in the virtual plane IS as shown in FIG. At this time, the vector calculation unit 32 performs various calculation processes to calculate a vector in the real space from the optical flow OP. As for the background and the like, when the host vehicle V1 is traveling, an optical flow OP is generated toward the rear of the vehicle.

具体的に説明すると、ベクトル算出部32は以下の処理を実行する。まず、撮像画像上の点は奥行きが不明であるとすると、以下の式を満足する。

Figure 0005533323
ここで、X0〜Z0はカメラ10の位置を示し、DX〜DZが画像上の座標(x,y)から決定される値である。また、tは変数である。 Specifically, the vector calculation unit 32 executes the following processing. First, assuming that the depth of a point on the captured image is unknown, the following expression is satisfied.
Figure 0005533323
Here, X0 to Z0 indicate the position of the camera 10, and DX to DZ are values determined from the coordinates (x, y) on the image. T is a variable.

また、仮想面ISは以下の方程式により表現することができる。

Figure 0005533323
The virtual surface IS can be expressed by the following equation.
Figure 0005533323

ベクトル算出部32は、式(1)を式(2)に代入する。これにより、式(1)に示す変数tを求める。この結果、3次元の座標を求めることができ、オプティカルフローOPの始点及び終点は、以下に示すように実空間の座標に変換される。

Figure 0005533323
The vector calculation unit 32 substitutes equation (1) into equation (2). Thereby, the variable t shown in Formula (1) is obtained. As a result, three-dimensional coordinates can be obtained, and the start point and end point of the optical flow OP are converted into real space coordinates as shown below.
Figure 0005533323

また、ベクトル算出部32は、実空間の座標を求めた後、以下の式(3)からベクトルを算出する。

Figure 0005533323
Moreover, the vector calculation part 32 calculates a vector from the following formula | equation (3), after calculating | requiring the coordinate of real space.
Figure 0005533323

なお、式(3)に示すベクトルは仮想面IS内のベクトルであるため、仮想面IS内の互いに独立な2つのベクトルに分離可能である。従って、ベクトル算出部32は、以下の式(4)に示すようにベクトルを分離する。

Figure 0005533323
なお、(L0,L1,L2)及び(L3,L4,L5)は仮想面IS内の互いに独立なベクトルであるとする。 Since the vector shown in Expression (3) is a vector in the virtual surface IS, it can be separated into two independent vectors in the virtual surface IS. Therefore, the vector calculation part 32 isolate | separates a vector as shown in the following formula | equation (4).
Figure 0005533323
It is assumed that (L0, L1, L2) and (L3, L4, L5) are mutually independent vectors in the virtual plane IS.

また、v1,v2〜vmはベクトル成分xx,yyで表現でき、以下のように表現される。

Figure 0005533323
Further, v1, v2 and vm can be expressed by vector components xx and yy, and are expressed as follows.
Figure 0005533323

再度、図3を参照する。移動量推定部33は、ベクトル算出部32により算出されたベクトルv1〜vmに基づいて他車両V2の移動量を推定するものである。移動量の推定にあたり移動量推定部33は、まず、ベクトルv1〜vmをクラスタリングして、クラスタリングの結果、ベクトル数が最も多い最大クラスタに属するベクトルから、他車両V2の移動量を推定するものである。クラスタリングは、Nearest Neighbor法やK-Means法など
、既存の手法が採用されてもよいし、これらの近似手法が採用されてもよい。なお、最大クラスタに属するベクトルをベクトルvb1〜vbn(nはm以下の正の整数)とする。
FIG. 3 will be referred to again. The movement amount estimation unit 33 estimates the movement amount of the other vehicle V2 based on the vectors v1 to vm calculated by the vector calculation unit 32. In estimating the movement amount, the movement amount estimation unit 33 first clusters the vectors v1 to vm, and estimates the movement amount of the other vehicle V2 from the vector belonging to the largest cluster having the largest number of vectors as a result of the clustering. is there. For clustering, existing methods such as Nearest Neighbor method and K-Means method may be adopted, or these approximation methods may be adopted. The vectors belonging to the largest cluster are assumed to be vectors vb1 to vbn (n is a positive integer less than or equal to m).

このクラスタリングにより、図5(b)に示す車両後方に向いたオプティカルフローOPが除去される。すなわち、背景等は自車両V1が定速走行していたとしても、カメラ10との距離の関係からオプティカルフローOPの長さが異なってくる。このため、背景等のオプティカルフローOPは最大クラスタに属することはなく、車両後方に向いたオプティカルフローOPは除去される。   By this clustering, the optical flow OP directed toward the rear of the vehicle shown in FIG. 5B is removed. That is, the length of the optical flow OP varies depending on the distance from the camera 10 even if the host vehicle V1 is traveling at a constant speed. For this reason, the optical flow OP such as the background does not belong to the maximum cluster, and the optical flow OP directed toward the rear of the vehicle is removed.

より詳細に移動量推定部33は、最大クラスタに属するベクトルvb1〜vbnの平均値に基づいて他車両V2の移動量vを推定する。すなわち、移動量推定部33は、以下の式(5)から他車両V2の移動量vを推定する。

Figure 0005533323
In more detail, the movement amount estimation unit 33 estimates the movement amount v of the other vehicle V2 based on the average value of the vectors vb1 to vbn belonging to the maximum cluster. That is, the movement amount estimation unit 33 estimates the movement amount v of the other vehicle V2 from the following equation (5).
Figure 0005533323

以上のように、本実施形態に係る移動量推定装置1は、仮定された車両側面を含む仮想面IS内にオプティカルフローOPが存在すると仮定して、実空間におけるベクトルv1〜vmを算出するため、実空間のベクトルv1〜vmから移動量を推定することができ、移動量推定の正確性を向上させることができる。特に、実空間における車両側面のベクトルv1〜vmであるため、車両が走行時において車両横方向の移動量が少ないことから、そのベクトルから移動量を推定することで、車両前面や後面から推定するよりも推定誤差を軽減し易くできる。   As described above, the movement amount estimation apparatus 1 according to the present embodiment calculates the vectors v1 to vm in the real space on the assumption that the optical flow OP exists in the virtual plane IS including the assumed vehicle side surface. The amount of movement can be estimated from the real space vectors v1 to vm, and the accuracy of the amount of movement estimation can be improved. In particular, since the vehicle side vectors v1 to vm in real space, the amount of movement in the lateral direction of the vehicle is small when the vehicle is traveling, so that the amount of movement is estimated from the vector to estimate from the front and rear surfaces of the vehicle. This makes it easier to reduce the estimation error.

次に、本実施形態に係る移動量推定方法を説明する。図6は、本実施形態に係る移動量推定方法を示すフローチャートであって、仮想面ISの設定までの処理を示している。図6に示すように、まず、領域設定部31は、立体物検出レーダ20からの情報に基づいて立体物の外形位置P1,P2を検出する(S1)。   Next, the movement amount estimation method according to the present embodiment will be described. FIG. 6 is a flowchart showing the movement amount estimation method according to this embodiment, and shows processing up to the setting of the virtual plane IS. As shown in FIG. 6, first, the region setting unit 31 detects the external positions P1, P2 of the three-dimensional object based on information from the three-dimensional object detection radar 20 (S1).

次に、領域設定部31は、ステップS1において検出された外形位置P1,P2のうち、車線に沿うものを抽出する(S2)。次いで、領域設定部31は、車線に沿う外形位置P1を直線近似し、近似直線から接地線分Lを推定する(S3)。推定後、領域設定部31は、ステップS1において検出された外形位置P1,P2の検出数が予め定められた所定値以上であるか否かを判断する(S4)。なお、上記予め定められた所定値は、通常の車両であれば検出されるはずである外形位置P1,P2の検出数を予め実験等によって求めて、予め設定したものである。   Next, the area setting unit 31 extracts the outline positions P1, P2 detected in step S1 along the lane (S2). Next, the region setting unit 31 linearly approximates the outer position P1 along the lane, and estimates the ground line segment L from the approximate straight line (S3). After the estimation, the region setting unit 31 determines whether or not the number of detected external positions P1 and P2 detected in step S1 is equal to or greater than a predetermined value (S4). Note that the predetermined value is determined in advance by experimentally determining the number of external positions P1, P2 that should be detected in a normal vehicle.

外形位置P1,P2の検出数が所定値以上でないと判断した場合(S4:NO)、領域設定部31は、他車両V2が存在しないと判断し(S5)、その後図6に示す処理は終了する。すなわち、他車両V2が存在する場合、或る程度の検出数が得られることから、検出数が所定値に満たない場合、領域設定部31は、他車両V2が存在しないと判断する。   If it is determined that the number of detected outer positions P1 and P2 is not equal to or greater than the predetermined value (S4: NO), the area setting unit 31 determines that there is no other vehicle V2 (S5), and then the process shown in FIG. To do. That is, when the other vehicle V2 exists, a certain number of detections can be obtained. Therefore, when the number of detections is less than the predetermined value, the region setting unit 31 determines that the other vehicle V2 does not exist.

一方、外形位置P1,P2の検出数が所定値以上であると判断した場合(S4:YES)、領域設定部31は、他車両V2が存在すると判断し(S6)、仮想面ISを設定する(S7)。その後、図6に示す処理は終了する。   On the other hand, when it is determined that the number of detected external positions P1, P2 is equal to or greater than a predetermined value (S4: YES), the area setting unit 31 determines that another vehicle V2 exists (S6), and sets the virtual plane IS. (S7). Thereafter, the process shown in FIG. 6 ends.

図7は、本実施形態に係る移動量推定方法を示すフローチャートであって、移動量の推定までの処理を示している。図7に示すように、まず、ベクトル算出部32は、撮像画像データからオプティカルフローOPを算出する(S11)。次いで、ベクトル算出部32は、上記した各式からオプティカルフローOPを実空間上のベクトルv1〜vmに変換する(S12)。この際、ベクトル算出部32は、上記したようにオプティカルフローOPが仮想面IS内に存在すると仮定して、ベクトルv1〜vmを算出する。   FIG. 7 is a flowchart showing the movement amount estimation method according to the present embodiment, and shows processing up to the estimation of the movement amount. As shown in FIG. 7, first, the vector calculation unit 32 calculates an optical flow OP from the captured image data (S11). Next, the vector calculation unit 32 converts the optical flow OP from the above-described equations into vectors v1 to vm in the real space (S12). At this time, the vector calculation unit 32 calculates the vectors v1 to vm on the assumption that the optical flow OP exists in the virtual plane IS as described above.

その後、移動量推定部33は、ステップS12において変換されたベクトルv1〜vmをクラスタリングする(S13)。そして、移動量推定部33は、最大クラスタに属するベクトル数が予め定められた所定数以上であるか否かを判断する(S14)。所定数以上でないと判断した場合(S14:NO)、移動量推定部33は、オプティカルフローOPが得られた対象が他車両V2でなかったと判断する(S15)。すなわち、他車両V2が自車両V1の後方に存在しないと判断する。ここで、他車両V2が存在する場合、或る程
度のベクトル数が得られる。図5(b)に示すように、他車両V2のベクトルは基本的に同じとなる。このため、最大クラスタに属するベクトル数はある程度の数だけ確保されることとなる。よって、最大クラスタに属するベクトル数が所定数以上でないと判断した場合(S14:NO)、移動量推定部33は他車両V2が自車両V1の後方に存在しないと判断する。そして、図7に示す処理は終了する。なお、上記ベクトル数の所定数は、予め実験等によって求められた、車両であれば検出されるはずのベクトル数を予め設定した値である。
Thereafter, the movement amount estimation unit 33 clusters the vectors v1 to vm converted in step S12 (S13). Then, the movement amount estimation unit 33 determines whether or not the number of vectors belonging to the maximum cluster is equal to or greater than a predetermined number (S14). When it is determined that the number is not equal to or greater than the predetermined number (S14: NO), the movement amount estimation unit 33 determines that the target from which the optical flow OP is obtained is not the other vehicle V2 (S15). That is, it is determined that the other vehicle V2 does not exist behind the host vehicle V1. Here, when the other vehicle V2 exists, a certain number of vectors can be obtained. As shown in FIG. 5B, the vectors of the other vehicle V2 are basically the same. Therefore, a certain number of vectors belonging to the maximum cluster are secured. Therefore, when it is determined that the number of vectors belonging to the maximum cluster is not equal to or greater than the predetermined number (S14: NO), the movement amount estimation unit 33 determines that the other vehicle V2 does not exist behind the host vehicle V1. Then, the process shown in FIG. 7 ends. The predetermined number of vectors is a value obtained in advance by experiments or the like, in which the number of vectors that should be detected in the case of a vehicle is set in advance.

一方、最大クラスタに属するベクトル数が所定数以上であると判断した場合(S14:YES)、移動量推定部33は、オプティカルフローOPが得られた対象が他車両V2であったと判断する(S16)。すなわち、他車両V2が自車両V1の後方に存在すると判断する。そして、移動量推定部33は、他車両V2の移動量を推定する(S17)。移動量の算出については、上記したように平均化等を行うとよい。その後、図7に示す処理は終了する。   On the other hand, when it is determined that the number of vectors belonging to the maximum cluster is greater than or equal to the predetermined number (S14: YES), the movement amount estimation unit 33 determines that the target from which the optical flow OP is obtained is the other vehicle V2 (S16). ). That is, it is determined that the other vehicle V2 exists behind the host vehicle V1. Then, the movement amount estimation unit 33 estimates the movement amount of the other vehicle V2 (S17). As for the calculation of the movement amount, averaging or the like may be performed as described above. Thereafter, the process shown in FIG. 7 ends.

このようにして、本実施形態に係る移動量推定装置1及び移動量推定方法によれば、仮定された車両側面と路面との交線となる接地線分Lを含む鉛直上方に伸びる仮想面IS内に、オプティカルフローOPが存在すると仮定し、当該オプティカルフローOPの実空間におけるベクトルを算出する。このように、車両側面を含む仮想面IS内にオプティカルフローOPが存在すると仮定して、実空間におけるベクトルv1〜vmを算出するため、実空間のベクトルv1〜vmから移動量を推定することができ、移動量推定の正確性を向上させることができる。特に、ベクトルv1〜vmは実空間における車両側面のベクトルであるため、車両が走行時において車両横方向の移動量が少ないことから、そのベクトルv1〜vmから移動量を推定することで、車両前面や後面から推定するよりも推定誤差を軽減し易くできる。従って、移動量の推定精度を向上させることができる。   Thus, according to the movement amount estimation apparatus 1 and the movement amount estimation method according to the present embodiment, the virtual plane IS extending vertically upward including the ground line segment L that is the intersection line between the assumed vehicle side surface and the road surface. Assuming that an optical flow OP exists in the image, a vector in the real space of the optical flow OP is calculated. As described above, assuming that the optical flow OP exists in the virtual plane IS including the vehicle side surface, the vectors v1 to vm in the real space are calculated. Therefore, the movement amount can be estimated from the vectors v1 to vm in the real space. And the accuracy of movement amount estimation can be improved. In particular, since the vectors v1 to vm are vectors on the side surface of the vehicle in real space, the amount of movement in the lateral direction of the vehicle is small when the vehicle is traveling. Therefore, by estimating the amount of movement from the vectors v1 to vm, In addition, the estimation error can be reduced more easily than when estimating from the rear surface. Accordingly, the estimation accuracy of the movement amount can be improved.

また、算出されたベクトルv1〜vmをクラスタリングし、クラスタリングの結果、ベクトル数が最も多い最大クラスタに属するベクトルvb1〜vbnから、車両の移動量を推定する。基本的に接地線分を含む鉛直上方に伸びる仮想面IS内のうち車両に該当する部分のベクトルは同じとなる。また、仮想面IS内のうち背景に該当する部分などは上記ベクトルとは異なったベクトルとなる。よって、クラスタリングの結果、ベクトル数が最も多い最大クラスタに属するベクトルvb1〜vbnから車両の移動量を推定することで、移動量を推定することができる。特に、クラスタリングを行っているため、車両部分におけるベクトルにノイズ等が含まれて、不正確となったとしても、これを除去することができる。従って、一層移動量の推定精度を向上させることができる。   Further, the calculated vectors v1 to vm are clustered, and the movement amount of the vehicle is estimated from the vectors vb1 to vbn belonging to the largest cluster having the largest number of vectors as a result of clustering. Basically, the vector corresponding to the vehicle in the virtual plane IS extending vertically upward including the ground line segment is the same. Further, a portion corresponding to the background in the virtual plane IS is a vector different from the above vector. Therefore, as a result of clustering, the movement amount can be estimated by estimating the movement amount of the vehicle from the vectors vb1 to vbn belonging to the largest cluster having the largest number of vectors. In particular, since clustering is performed, even if noise or the like is included in the vector in the vehicle portion, it can be removed. Therefore, the estimation accuracy of the movement amount can be further improved.

最大クラスタのベクトル数が所定数以上のときに他車両V2が存在すると判断し、所定数未満ときに他車両V2が存在しないと判断する。ここで、他車両V2が存在する場合、他車両V2自体の各ベクトルは基本的に同じベクトルとなることから、最大クラスタのベクトル数が所定数以上となる。一方、車両が存在しない場合、背景等の様々なベクトルが含まれて最大クラスタのベクトル数が所定数以上とならない。従って、最大クラスタのベクトル数から他車両V2の存否を判断することができる。   It is determined that the other vehicle V2 exists when the number of vectors of the maximum cluster is equal to or greater than the predetermined number, and it is determined that the other vehicle V2 does not exist when the maximum number of vectors is less than the predetermined number. Here, when the other vehicle V2 exists, each vector of the other vehicle V2 itself is basically the same vector, and therefore, the number of vectors of the maximum cluster is a predetermined number or more. On the other hand, when there is no vehicle, various vectors such as backgrounds are included and the number of vectors of the maximum cluster does not exceed a predetermined number. Therefore, the presence or absence of the other vehicle V2 can be determined from the number of vectors of the maximum cluster.

また、最大クラスタに属するベクトルvb1〜vbnの平均値に基づいて他車両V2の移動量を推定するため、最大クラスタに属するベクトルvb1〜vbnにノイズが含まれていたとしても平均化でき、一層移動量の推定精度を向上させることができる。   Further, since the movement amount of the other vehicle V2 is estimated based on the average value of the vectors vb1 to vbn belonging to the largest cluster, even if noise is included in the vectors vb1 to vbn belonging to the largest cluster, it can be averaged and moved further. The amount estimation accuracy can be improved.

また、オプティカルフローOPが存在すると仮定する仮想面ISを路面から所定高さに限定するため、所定高さ範囲内の仮想面ISを対象に演算を行うだけでよく、演算コストを抑制することができる。   In addition, since the virtual surface IS that is assumed to have the optical flow OP is limited to a predetermined height from the road surface, it is only necessary to perform an operation on the virtual surface IS within the predetermined height range, thereby reducing the calculation cost. it can.

また、検出された立体物の外形位置P1,P2のうち、車線に沿っている外形位置P1を直線近似し、当該近似直線の垂線から接地線分Lを推定するため、実際の他車両V2から接地線分Lを推定することとなり、接地線分Lの推定精度を向上させることができる。これにより、仮想面ISを精度良く車両側面と一致させることができる。   Further, of the detected external positions P1 and P2 of the three-dimensional object, the external position P1 along the lane is linearly approximated, and the ground line segment L is estimated from the perpendicular of the approximate straight line. Since the ground line segment L is estimated, the estimation accuracy of the ground line segment L can be improved. Thereby, the virtual surface IS can be made to coincide with the vehicle side surface with high accuracy.

次に、本発明の第2実施形態について説明する。第2実施形態に係る移動量推定装置1及び移動量推定方法は、第1実施形態のものと同様であるが、一部構成及び処理内容が異なっている。以下、相違点について説明する。   Next, a second embodiment of the present invention will be described. The movement amount estimation apparatus 1 and the movement amount estimation method according to the second embodiment are the same as those of the first embodiment, but a part of the configuration and processing contents are different. Hereinafter, differences will be described.

図8は、第2実施形態に係る移動量推定装置2の概略構成図である。図8に示すように、第2実施形態に係る移動量推定装置2は、立体物検出レーダ20を備えていない。このため、領域設定部31による接地線分Lの推定方法が第1実施形態と異なっている。   FIG. 8 is a schematic configuration diagram of the movement amount estimation apparatus 2 according to the second embodiment. As illustrated in FIG. 8, the movement amount estimation apparatus 2 according to the second embodiment does not include the three-dimensional object detection radar 20. For this reason, the method of estimating the ground line segment L by the region setting unit 31 is different from that of the first embodiment.

図9は、第2実施形態に係る移動量推定装置2による接地線分Lの推定方法を説明する上面図である。図9に示すように、第2実施形態において領域設定部31は、白線認識などにより車線区分線L’を認識し、車線区分線L’から予め定められた所定距離dだけ離れた位置を接地線分Lであると推定する。このように第2実施形態では車線区分線L’から接地線分Lを推定するため、演算コストが低減される。なお、所定距離dは、実際に隣接車線を走行する車両の走行位置(車線区分線L’からの距離)を複数サンプリングし、サンプリングした複数の距離の平均値や統計処理によって求められた最頻値等を予め設定したものである。   FIG. 9 is a top view for explaining a method of estimating the ground line segment L by the movement amount estimating apparatus 2 according to the second embodiment. As shown in FIG. 9, in the second embodiment, the area setting unit 31 recognizes the lane marking L 'by white line recognition or the like, and grounds a position away from the lane marking L' by a predetermined distance d. The line segment L is estimated. Thus, in the second embodiment, since the ground line segment L is estimated from the lane line L ′, the calculation cost is reduced. Note that the predetermined distance d is a mode obtained by sampling a plurality of travel positions (distances from the lane line L ′) of a vehicle that actually travels in the adjacent lane, and calculating an average value of the plurality of sampled distances or statistical processing. A value or the like is set in advance.

なお、第2実施形態において仮想面ISの設定精度は第1実施形態よりも低くなる可能性があるが、所定距離dを適切に設定すれば、仮想面ISは本来設定すべき仮想面ISと差が大きくなり過ぎず、実用上は問題が無い。また、上記に代えて、領域設定部31はカメラ10(自車両V1)からの相対位置から接地線分Lを推定するようにしてもよい。   In the second embodiment, the setting accuracy of the virtual surface IS may be lower than that in the first embodiment. However, if the predetermined distance d is set appropriately, the virtual surface IS is the same as the virtual surface IS that should be originally set. The difference does not become too large, and there is no problem in practical use. Instead of the above, the region setting unit 31 may estimate the ground line segment L from the relative position from the camera 10 (the host vehicle V1).

図10は、第2実施形態に係る移動量推定方法を示すフローチャートであって、仮想面ISの設定までの処理を示している。図10に示すように、まず、領域設定部31は接地線分Lを推定する(S21)。推定方法は上記した通り、車線区分線L’から所定距離dだけ離れた位置を接地線分Lとする。その後、領域設定部31は、仮想面ISを設定する(S22)。仮想面ISの設定方法は、図6に示したステップS7と同様である。   FIG. 10 is a flowchart showing the movement amount estimation method according to the second embodiment, and shows processing up to the setting of the virtual plane IS. As shown in FIG. 10, first, the region setting unit 31 estimates the ground line segment L (S21). As described above, the estimation method sets the position separated from the lane line L ′ by a predetermined distance d as the ground line segment L. Thereafter, the area setting unit 31 sets the virtual surface IS (S22). The setting method of the virtual plane IS is the same as that in step S7 shown in FIG.

このようにして、第2実施形態に係る移動量推定装置2及び移動量推定方法によれば、第1実施形態と同様に、移動量の推定精度を向上させることができ、他車両V2の存否を判断することができ、演算コストを抑制することができる。また、接地線分Lの推定精度を向上させることができる。   Thus, according to the movement amount estimation apparatus 2 and the movement amount estimation method according to the second embodiment, the estimation accuracy of the movement amount can be improved as in the first embodiment, and whether or not the other vehicle V2 exists. Can be determined, and the calculation cost can be reduced. In addition, the estimation accuracy of the ground line segment L can be improved.

さらに、第2実施形態によれば、車線区分線L’から所定距離dだけ離れた位置を接地線分Lと推定するため、接地線分Lの推定にあたり演算コストを抑制できると共に、装置構成の簡素化を図ることができる。   Furthermore, according to the second embodiment, since the position separated from the lane line L ′ by a predetermined distance d is estimated as the ground line segment L, the calculation cost can be suppressed in estimating the ground line segment L, and the apparatus configuration can be reduced. Simplification can be achieved.

以上、実施形態に基づき本発明を説明したが、本発明は上記実施形態に限られるものでは無く、本発明の趣旨を逸脱しない範囲で、変更を加えてもよい。   As described above, the present invention has been described based on the embodiments, but the present invention is not limited to the above-described embodiments, and modifications may be made without departing from the spirit of the present invention.

例えば、第1実施形態に係る移動量推定装置1は、立体物検出レーダ20を備えているが、これに限らず、他車両V2の位置を検出できるものであれば、ソナー等を用いてもよい。   For example, although the movement amount estimation apparatus 1 according to the first embodiment includes the three-dimensional object detection radar 20, the present invention is not limited to this, and any device that can detect the position of the other vehicle V2 may be used. Good.

1…移動量推定装置
10…カメラ(撮像手段)
20…立体物検出レーダ(立体物検出手段)
30…計算機
31…領域設定部(接地線分推定手段、立体物検出手段)
32…ベクトル算出部(オプティカルフロー算出手段、ベクトル算出手段)
33…移動量推定部(移動量推定手段、クラスタリング手段、車両判断手段)
a…画角
d…所定距離
IS…仮想面
L…接地線分
L’…車線区分線
OP…オプティカルフロー
P1,P2…検出位置
V1…自車両
V2…他車両
DESCRIPTION OF SYMBOLS 1 ... Movement amount estimation apparatus 10 ... Camera (imaging means)
20 ... Solid object detection radar (three-dimensional object detection means)
30 ... Calculator 31 ... Area setting unit (ground line segment estimation means, solid object detection means)
32. Vector calculation unit (optical flow calculation means, vector calculation means)
33 ... Movement amount estimation unit (movement amount estimation means, clustering means, vehicle determination means)
a ... angle of view d ... predetermined distance IS ... virtual plane L ... ground line segment L '... lane marking OP ... optical flow P1, P2 ... detection position V1 ... own vehicle V2 ... other vehicle

Claims (8)

所定領域を撮像する撮像手段と、
前記撮像手段による撮像にて得られた画像からオプティカルフローを算出するオプティカルフロー算出手段と、
仮定された車両側面と路面との交線となる線分である接地線分を推定する接地線分推定手段と、
前記接地線分推定手段により推定された接地線分を含む鉛直上方に伸びる面内に、前記オプティカルフロー算出手段により算出されたオプティカルフローが存在すると仮定し、当該オプティカルフローから実空間におけるベクトルを算出するベクトル算出手段と、
前記ベクトル算出手段により算出されたベクトルをクラスタリングするクラスタリング手段と、
前記クラスタリング手段によるクラスタリングの結果、ベクトル数が最も多い最大クラスタに属するベクトルから、車両の移動量を推定する移動量推定手段と、
を備えることを特徴とする移動量推定装置。
Imaging means for imaging a predetermined area;
An optical flow calculation means for calculating an optical flow from an image obtained by imaging by the imaging means;
A ground line segment estimation means for estimating a ground line segment that is a line segment that intersects the assumed vehicle side surface and the road surface;
Assuming that the optical flow calculated by the optical flow calculation means exists in a plane extending vertically upward including the ground line segment estimated by the ground line segment estimation means, a vector in real space is calculated from the optical flow. Vector calculating means for
Clustering means for clustering the vectors calculated by the vector calculation means;
As a result of clustering by the clustering means, a movement amount estimation means for estimating a movement amount of the vehicle from a vector belonging to the largest cluster having the largest number of vectors;
A movement amount estimation apparatus comprising:
前記最大クラスタのベクトル数が予め定められた所定数以上のときに車両が存在すると判断し、所定数未満ときに車両が存在しないと判断する車両判断手段をさらに備える
ことを特徴とする請求項に記載の移動量推定装置。
Wherein it is determined that the vehicle is present when the maximum number of vectors in the cluster is equal to or greater than a predetermined number of predetermined claim 1, further comprising a vehicle determining means for determining that the vehicle when less than the predetermined number is not present The movement amount estimation apparatus according to 1.
前記移動量推定手段は、前記最大クラスタに属するベクトルの平均値に基づいて、車両の移動量を推定する
ことを特徴とする請求項又は請求項に記載の移動量推定装置。
The movement amount estimating means, on the basis of the average value of the maximum cluster belongs vector, the movement amount estimating apparatus according to claim 1 or claim 2, characterized in that to estimate the amount of movement of the vehicle.
所定領域を撮像する撮像手段と、Imaging means for imaging a predetermined area;
前記撮像手段による撮像にて得られた画像からオプティカルフローを算出するオプティカルフロー算出手段と、  An optical flow calculation means for calculating an optical flow from an image obtained by imaging by the imaging means;
仮定された車両側面と路面との交線となる線分である接地線分を推定する接地線分推定手段と、  A ground line segment estimation means for estimating a ground line segment that is a line segment that intersects the assumed vehicle side surface and the road surface;
前記接地線分推定手段により推定された車両側面の接地線分から鉛直上方に伸びる面内に、前記オプティカルフロー算出手段により算出されたオプティカルフローが存在すると仮定し、当該オプティカルフローから実空間におけるベクトルを算出するベクトル算出手段と、  Assuming that the optical flow calculated by the optical flow calculation means exists in a plane extending vertically upward from the ground line segment of the vehicle side estimated by the ground line segment estimation means, a vector in real space is calculated from the optical flow. Vector calculating means for calculating;
前記ベクトル算出手段により算出されたベクトルに基づいて、車両の移動量を推定する移動量推定手段と、  A movement amount estimation means for estimating a movement amount of the vehicle based on the vector calculated by the vector calculation means;
を備えることを特徴とする移動量推定装置。A movement amount estimation apparatus comprising:
前記接地線分推定手段は、車線区分線から予め定められた所定距離だけ離れた位置を接地線分と推定する
ことを特徴とする請求項1から請求項のいずれか1項に記載の移動量推定装置。
The movement according to any one of claims 1 to 4 , wherein the ground line segment estimation means estimates a position separated from a lane line by a predetermined distance as a ground line segment. Quantity estimation device.
所定領域を撮像する撮像手段と、
前記撮像手段による撮像にて得られた画像からオプティカルフローを算出するオプティカルフロー算出手段と、
仮定された車両側面と路面との交線となる線分である接地線分を推定する接地線分推定手段と、
前記接地線分推定手段により推定された接地線分を含む鉛直上方に伸びる面内に、前記オプティカルフロー算出手段により算出されたオプティカルフローが存在すると仮定し、当該オプティカルフローから実空間におけるベクトルを算出するベクトル算出手段と、
前記ベクトル算出手段により算出されたベクトルに基づいて、車両の移動量を推定する移動量推定手段と、
自車両周辺の立体物の外形位置を検出する立体物検出手段と、を備え、
前記接地線分推定手段は、前記立体物検出手段により検出された立体物の外形位置のうち、車線に沿っている外形位置を直線近似し、当該近似直線の垂線から接地線分を推定する
ことを特徴とする移動量推定装置。
Imaging means for imaging a predetermined area;
An optical flow calculation means for calculating an optical flow from an image obtained by imaging by the imaging means;
A ground line segment estimation means for estimating a ground line segment that is a line segment that intersects the assumed vehicle side surface and the road surface;
Assuming that the optical flow calculated by the optical flow calculation means exists in a plane extending vertically upward including the ground line segment estimated by the ground line segment estimation means, a vector in real space is calculated from the optical flow. Vector calculating means for
A movement amount estimation means for estimating a movement amount of the vehicle based on the vector calculated by the vector calculation means;
And a solid object detecting means for detecting the contour position of the three-dimensional object around the vehicle,
The ground line segment estimation means linearly approximates the external position along the lane among the external positions of the solid object detected by the solid object detection means, and estimates the ground line segment from the perpendicular of the approximate straight line. momentum estimator transfer characterized.
オプティカルフローが存在すると仮定する面は、路面から予め定められた所定高さに限定される
ことを特徴とする請求項1から請求項のいずれか1項に記載の移動量推定装置。
The movement amount estimation apparatus according to any one of claims 1 to 6, wherein a plane on which an optical flow is assumed is limited to a predetermined height predetermined from a road surface.
所定領域を撮像する撮像手段による撮像にて得られた画像からオプティカルフローを算出するオプティカルフロー算出工程と、
車両側面と路面との交線となる線分である接地線分を推定する接地線分推定工程と、
前記接地線分推定工程において推定された接地線分を含む鉛直上方に伸びる面内に、前記オプティカルフロー算出工程において算出されたオプティカルフローが存在すると仮定し、当該オプティカルフローの実空間におけるベクトルを算出するベクトル算出工程と、
前記ベクトル算出工程において算出されたベクトルをクラスタリングするクラスタリング工程と、
前記クラスタリング工程におけるクラスタリングの結果、ベクトル数が最も多い最大クラスタに属するベクトルから、車両の移動量を推定する移動量推定工程と、
ことを特徴とする移動量推定方法。
An optical flow calculation step of calculating an optical flow from an image obtained by imaging by an imaging means for imaging a predetermined area;
A ground line segment estimation step for estimating a ground line segment that is a line segment that intersects the vehicle side surface and the road surface;
Assuming that the optical flow calculated in the optical flow calculation step exists in a plane extending vertically upward including the ground line segment estimated in the ground line segment estimation step, a vector in the real space of the optical flow is calculated. A vector calculation step,
A clustering step of clustering the vectors calculated in the vector calculation step;
As a result of clustering in the clustering step, a movement amount estimation step for estimating a movement amount of the vehicle from a vector belonging to the largest cluster having the largest number of vectors;
A moving amount estimation method characterized by the above.
JP2010140320A 2010-06-21 2010-06-21 Movement amount estimation apparatus and movement amount estimation method Active JP5533323B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010140320A JP5533323B2 (en) 2010-06-21 2010-06-21 Movement amount estimation apparatus and movement amount estimation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010140320A JP5533323B2 (en) 2010-06-21 2010-06-21 Movement amount estimation apparatus and movement amount estimation method

Publications (2)

Publication Number Publication Date
JP2012003663A JP2012003663A (en) 2012-01-05
JP5533323B2 true JP5533323B2 (en) 2014-06-25

Family

ID=45535532

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010140320A Active JP5533323B2 (en) 2010-06-21 2010-06-21 Movement amount estimation apparatus and movement amount estimation method

Country Status (1)

Country Link
JP (1) JP5533323B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104115186B (en) * 2012-02-23 2018-08-28 日产自动车株式会社 Stereoscopic article detection device
WO2018159467A1 (en) * 2017-02-28 2018-09-07 Necソリューションイノベータ株式会社 Mobile entity detector, mobile entity detection method, and computer-readable recording medium

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3600314B2 (en) * 1995-05-19 2004-12-15 本田技研工業株式会社 External environment recognition device for vehicles
JP4367475B2 (en) * 2006-10-06 2009-11-18 アイシン精機株式会社 Moving object recognition apparatus, moving object recognition method, and computer program
WO2008114769A1 (en) * 2007-03-22 2008-09-25 Nec Corporation Mobile detector and mobile detection program and mobile detection method
JP2009129001A (en) * 2007-11-20 2009-06-11 Sanyo Electric Co Ltd Operation support system, vehicle, and method for estimating three-dimensional object area

Also Published As

Publication number Publication date
JP2012003663A (en) 2012-01-05

Similar Documents

Publication Publication Date Title
EP3382639B1 (en) Image processing device, image pickup device, apparatus control system, distribution data generation method, and program
JP2015207281A (en) Solid detector, solid detection method, solid detection program, and mobile body equipment control system
JP6583527B2 (en) Image processing apparatus, imaging apparatus, mobile device control system, image processing method, and program
WO2017145600A1 (en) Image processing device, imaging device, mobile entity apparatus control system, image processing method, and program
KR101714783B1 (en) Apparatus and method for detecting obstacle for on-line electric vehicle based on GPU
WO2017130640A1 (en) Image processing device, imaging device, mobile entity apparatus control system, image processing method, and program
JP2002352225A (en) Obstacle detector and its method
JP2017162116A (en) Image processing device, imaging device, movable body apparatus control system, image processing method and program
US10628960B2 (en) Information processing apparatus, imaging apparatus, device control system, moving object, information processing method, and recording medium
JP6769477B2 (en) Image processing device, imaging device, mobile device control system, image processing method, and program
JP6816401B2 (en) Image processing device, imaging device, mobile device control system, image processing method, and program
JP6705497B2 (en) Image processing device, imaging device, mobile device control system, image processing method, program, and mobile device
JP6597792B2 (en) Image processing apparatus, object recognition apparatus, device control system, image processing method and program
EP3432264A1 (en) Image processing device, image pickup device, mobile-body apparatus control system, image processing method, and program
JPH10283462A (en) Outer-vehicle monitoring device
JP6972797B2 (en) Information processing device, image pickup device, device control system, mobile body, information processing method, and program
WO2019065970A1 (en) Vehicle exterior recognition device
JPWO2017099199A1 (en) Image processing apparatus, object recognition apparatus, device control system, image processing method and program
JP2017207874A (en) Image processing apparatus, imaging apparatus, moving body device control system, image processing method, and program
JP4123138B2 (en) Vehicle detection method and vehicle detection device
JP3925285B2 (en) Road environment detection device
JP5533323B2 (en) Movement amount estimation apparatus and movement amount estimation method
JP6972798B2 (en) Information processing device, image pickup device, device control system, mobile body, information processing method, and program
CN112400094B (en) Object detecting device
EP3287948B1 (en) Image processing apparatus, moving body apparatus control system, image processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130424

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131224

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140217

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20140217

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140401

R151 Written notification of patent or utility model registration

Ref document number: 5533323

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140414