JP3988758B2 - Moving body detection device - Google Patents
Moving body detection device Download PDFInfo
- Publication number
- JP3988758B2 JP3988758B2 JP2004227891A JP2004227891A JP3988758B2 JP 3988758 B2 JP3988758 B2 JP 3988758B2 JP 2004227891 A JP2004227891 A JP 2004227891A JP 2004227891 A JP2004227891 A JP 2004227891A JP 3988758 B2 JP3988758 B2 JP 3988758B2
- Authority
- JP
- Japan
- Prior art keywords
- area
- moving object
- distance
- moving
- trackable
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Image Processing (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
Description
本発明は、撮像画像に基づいて、移動体を検出する移動体検出装置に関する。 The present invention relates to a moving body detection apparatus that detects a moving body based on a captured image.
車両に搭載したカメラにより撮像された画像に基づいて、移動体を検出する装置が知られている(特許文献1参照)。この従来の検出装置では、撮像画像中の水平エッジ成分および垂直エッジ成分を抽出し、抽出したエッジ成分に基づいて、車両の両側端部を表す垂直エッジ成分を検出している。 An apparatus that detects a moving body based on an image captured by a camera mounted on a vehicle is known (see Patent Document 1). In this conventional detection device, a horizontal edge component and a vertical edge component in a captured image are extracted, and based on the extracted edge component, a vertical edge component representing both side ends of the vehicle is detected.
しかしながら、従来の検出装置は、画像中の垂直エッジ成分の中から車両を表す条件(車幅および車高に係わる基準条件)に基づいて車両の両側端部を表す垂直エッジ成分を検出しているので、車両の種類や車両との位置関係が変わると車両を表す条件も変わってしまうために、車両の両側端部を表すエッジ成分を検出することができず、撮像画像中の車両が写っている領域を特定することができない可能性があるという問題があった。 However, the conventional detection device detects a vertical edge component representing both ends of the vehicle based on conditions representing the vehicle (reference conditions relating to the vehicle width and height) from among the vertical edge components in the image. Therefore, if the type of vehicle or the positional relationship with the vehicle changes, the conditions that represent the vehicle also change, so the edge component that represents both ends of the vehicle cannot be detected, and the vehicle in the captured image is captured. There was a problem that it may not be possible to identify the area.
本発明による移動体検出装置は、まず、撮像された画像を複数の領域に区分し、区分された各領域のうち、移動体を追跡可能な追跡可能領域を検出する。そして、車両が所定時間の間、移動した時に、追跡可能領域が撮像画像上を移動する移動ベクトルと、追跡可能領域に写っている物体が静止物であると仮定した場合に撮像画像上を移動する移動ベクトルとに基づいて、追跡可能領域の中から、移動物が写っている移動物領域を検出する。所定時間の間に車両が移動する移動量、および、所定時間の間に追跡可能領域が撮像画像上を移動する移動量に基づいて、追跡可能領域に写っている物体までの実空間上の距離指標値を算出し、この距離指標値に基づいて、移動物領域を、同一の移動物に属する領域ごとに分類することを特徴とする。 The moving body detection apparatus according to the present invention first divides a captured image into a plurality of areas, and detects a trackable area in which the moving body can be tracked among the divided areas. Then, when the vehicle moves for a predetermined time, it moves on the captured image when it is assumed that the trackable area moves on the captured image and the object in the trackable area is a stationary object. Based on the moving vector to be detected, the moving object region in which the moving object is reflected is detected from the trackable regions. The distance in real space to the object in the trackable area based on the amount of movement of the vehicle during the predetermined time and the amount of movement of the trackable area on the captured image during the predetermined time An index value is calculated, and the moving object area is classified for each area belonging to the same moving object based on the distance index value.
本発明による移動体検出装置によれば、撮像画像を複数の領域に区分した中から、移動物が写っている移動物領域を検出するとともに、検出された複数の移動物領域を同一の移動物に属する領域ごとに分類するので、撮像画像中における移動物を確実に検出することができる。 According to the moving object detection device of the present invention, a moving object region in which a moving object is reflected is detected from the captured image divided into a plurality of areas, and the plurality of detected moving object areas are detected as the same moving object. Therefore, the moving object in the captured image can be reliably detected.
図1は、一実施の形態における移動体検出装置の構成を示す図である。一実施の形態における移動体検出装置は、車両に搭載されて使用されるものであって、撮像部10と、画像記憶部20と、追跡可能領域検出部30と、追跡領域情報記憶部40と、局所領域追跡部50と、自車移動量検出部60と、距離指標値算出部70と、移動領域検出部80と、領域分類部90と、距離算出部100と、速度算出部110とを備える。
FIG. 1 is a diagram illustrating a configuration of a moving object detection device according to an embodiment. The moving body detection device in one embodiment is used by being mounted on a vehicle, and includes an
撮像部10は、例えば、ビデオカメラであり、車両前方を一定時間間隔にて撮像する。カメラの左右方向の光軸は、車両の直進方向と一致させ、上下方向の光軸は、水平となるようにカメラを設置する。撮像部10により撮像された画像は、画像記憶部20に記憶される。
The
追跡可能領域検出部30は、撮像部10により撮像され、画像記憶部20に記憶されている画像に基づいて、移動体の追跡が可能な領域を検出する。画像上において、道路上の白線のように一様な濃淡変化を持つ領域では、その濃淡の方向と垂直な方向(白線が伸びている方向)に対象(移動体)が移動しても、対象の移動量を検出することはできない。従って、対象を追跡可能な領域は、複数の方向に濃淡変化を有する領域となる。このような領域の検出方法について説明する。
The traceable
追跡可能領域検出部30は、画像記憶部20に記憶されている画像を読み出し、縦方向および横方向のエッジを検出するためのフィルタをかけ、エッジの縦、横の成分の大きさ(dI/dx,dI/dy:Iは画素値)をそれぞれ求める。次に、検出されたエッジに含まれるノイズ成分を除去するために、求めた縦、横のエッジ成分の大きさの2乗和がしきい値th1以上の画素を抽出し、抽出した画素について、エッジの縦方向成分と横方向成分の大きさの比を求めることにより、濃度勾配方向を求める。
The traceable
次に、ノイズが除去された後のエッジが示されている画像を縦方向および横方向に等間隔に格子状に分割する。図2は、上述した方法により、撮像画像からエッジを検出した画像に対して、縦方向および横方向に格子状に分割した領域を示す図である。この分割された各領域ごとに、エッジの縦方向成分と横方向成分の大きさの比の分散値を求める。この場合、分割された矩形領域内のエッジ勾配方向が一方向しかなければ、分散値は小さくなり、複数方向のエッジ勾配を持つ場合には、分散値は大きくなる。従って、求めた分散値が所定のしきい値th2より小さければ、エッジ勾配方向は一方向である可能性が高く、濃度勾配と垂直な方向に移動する物体を検出することは難しいと判断する。一方、求めた分散値が所定のしきい値th2以上であれば、複数方向のエッジ勾配を有しており、移動体がいずれの方向に移動しても追跡可能と判断できる。追跡可能領域検出部30は、求めた分散値が所定のしきい値th2以上の領域を追跡可能領域と判断する。図2の撮像画像に基づいて、追跡可能領域と判断された矩形領域を図3に示す。
Next, the image in which the edge after the noise is removed is divided into a lattice shape at equal intervals in the vertical direction and the horizontal direction. FIG. 2 is a diagram illustrating regions obtained by dividing the image in which the edge is detected from the captured image by the above-described method into a lattice shape in the vertical direction and the horizontal direction. For each of the divided areas, a variance value of the ratio of the size of the vertical component and the horizontal component of the edge is obtained. In this case, if the edge gradient direction in the divided rectangular area is only one direction, the variance value is small, and if it has edge gradients in a plurality of directions, the variance value is large. Therefore, if the obtained dispersion value is smaller than the predetermined threshold th2, it is highly likely that the edge gradient direction is one direction, and it is difficult to detect an object moving in a direction perpendicular to the density gradient. On the other hand, if the obtained dispersion value is equal to or greater than the predetermined threshold value th2, it has an edge gradient in a plurality of directions, and it can be determined that tracking is possible regardless of which direction the moving body moves. The traceable
追跡可能領域検出部30は、撮像部10によって時間Δtの間隔にて撮像される画像に基づいて、新たな追跡可能領域を検出する。追跡可能領域検出部30により、追跡可能領域と判断された領域は、その領域の位置、および、原画像の画像パターンを、各矩形領域ごとに割り振られている識別番号に対応させて追跡領域情報記憶部40に記憶される。以下では、追跡領域情報記憶部40に記憶された画像パターンを基準パターンと呼ぶ。
The traceable
局所領域追跡部50は、追跡領域情報記憶部40に記憶されている情報、および、撮像部10により撮像された新たな画像に基づいて、追跡可能領域検出部30により検出された追跡可能領域の移動先および移動量を検出する。移動先および移動量の検出方法について説明する。
The local
追跡可能領域の周囲に、移動量を検出するための探索領域を設け、その探索領域内で基準パターン位置を1画素ずつずらしながら、新規画像との相関値を演算する。この場合、演算した相関値がしきい値th3以上であり、かつ、最大となる領域が追跡可能領域の移動先として検出される。基準パターン位置は、1画素単位で移動させる(ずらす)ので、移動先の位置も1画素単位でしか得られないが、周囲の領域に対する複数の相関値を用いて補間演算を行うことにより、相関値が最大となる位置(移動先)を1画素以下の精度で求めることができる。求めた移動先に基づいて算出される追跡可能領域の移動量は、水平方向x、垂直方向yの各方向成分として表される。図4は、各追跡可能領域の移動成分を矢印で表した図である。 A search area for detecting the amount of movement is provided around the traceable area, and the correlation value with the new image is calculated while shifting the reference pattern position by one pixel within the search area. In this case, the calculated correlation value is equal to or greater than the threshold th3 and the maximum area is detected as the destination of the traceable area. Since the reference pattern position is moved (shifted) in units of one pixel, the position of the movement destination can be obtained only in units of one pixel. However, by performing an interpolation operation using a plurality of correlation values with respect to the surrounding area, correlation is performed. The position (movement destination) where the value is maximum can be obtained with an accuracy of 1 pixel or less. The movement amount of the traceable area calculated based on the obtained movement destination is expressed as each direction component in the horizontal direction x and the vertical direction y. FIG. 4 is a diagram showing the moving component of each trackable area by an arrow.
局所領域追跡部50により求められた移動先の位置および移動量は、識別番号ごとに追跡領域情報記憶部40に記憶される。従って、追跡領域情報記憶部40には、追跡可能領域ごとに、識別番号、現在の座標、移動ベクトル、および、基準パターンが記憶される。ただし、新規画像との相関値がしきい値th3未満の場合には、画像中の同一の部位が移動したと判断することはできないので、対象となっている追跡可能領域に関する情報を初期化する。また、追跡可能領域の始点座標が水平方向x、垂直方向yの一定範囲から外れた場合にも、その追跡可能領域に関する情報を初期化する。これは、画像上における静止物や自車両の移動方向と異なる方向に移動する移動体は、自車両の移動に伴って消失点から周辺方向に移動していくので、時間の経過とともに撮像範囲の外に出るからである。初期化された追跡可能領域に関しては、移動体領域であるか否かの判断は行われない。
The position and amount of movement determined by the local
自車移動量検出部60は、以下の方法により、撮像間隔Δtの間の自車両の移動量を検出する。まず、撮像間隔Δtの間の車輪の回転数を計測し、この回転数とタイヤの外周長との積を演算する。なお、車輪の回転数を計測するセンサへのトリガ位置を車輪の1周に等角度に複数設定しておけば、1回転以下の分解能により回転数を計測することができる。
The own vehicle movement
距離指標値算出部70は、追跡領域情報記憶部40に記憶されている情報に基づいて、追跡可能領域に写っている追跡対象の位置を算出する。具体的には、撮像部10のレンズの中心から、追跡可能領域に写っている追跡対象までの距離Lを算出する。図5は、撮像部10から追跡対象までの距離Lを算出する方法について説明するための図であり、撮像間隔Δtの前後における撮像部10および追跡対象を横から見た図である。図5に示すように、撮像間隔Δtの間に自車両はΔLだけ移動したものとする。ここで、撮像部10のレンズの焦点距離をf、自車両が移動する前(時刻T1)の追跡対象の画像上のy座標をy1、自車両が移動した後(時刻T2)の追跡対象のy座標をy2、追跡対象の画像上のy方向の移動量をΔy(=y2−y1)とすると、距離Lは次式(1)にて表される。なお、撮像画像における水平方向の軸をx軸、垂直方向の軸をy軸とする。
L=f+ΔL×y1/Δy (1)
The distance index
L = f + ΔL × y1 / Δy (1)
移動領域検出部80は、追跡領域情報記憶部40に記憶されている追跡可能領域のうち、移動物が写っている移動物領域を検出する。移動物領域の検出方法について説明する。まず、局所領域追跡部50によって検出された追跡可能領域の移動ベクトル(図4参照)から、消失点を求める。すなわち、各追跡可能領域の移動ベクトルをそれぞれ延長した直線が交わる点の位置座標を複数求め、求めた複数の座標値の頻度が最大となる位置を消失点とする。図6は、図4に示す移動ベクトルに基づいて求められた消失点を示す図である。
The moving
次に、各追跡可能領域に写っている物体が静止物であると仮定した場合に、自車両が撮像間隔Δtの間に進行することによって得られる追跡可能領域の移動ベクトルを求める。この移動ベクトルは、撮像画像上における追跡可能領域の位置および自車両の移動量に応じて、一義的に定まる。移動領域検出部80は、局所領域追跡部50によって検出された各追跡可能領域の移動ベクトル(図4参照)と、各追跡可能領域が静止物領域と仮定した際の移動ベクトルとの差を算出することにより、追跡可能領域が移動物領域であるか、静止物領域であるかを判断する。すなわち、追跡可能領域が静止物領域の場合には、上述した移動ベクトルの差はゼロとなるが、移動物領域の場合には、ゼロとならない。
Next, when it is assumed that the object shown in each trackable area is a stationary object, a movement vector of the trackable area obtained by the host vehicle traveling during the imaging interval Δt is obtained. This movement vector is uniquely determined according to the position of the traceable area on the captured image and the amount of movement of the host vehicle. The moving
図7は、図6に示す移動ベクトルに基づいて、追跡可能領域ごとに、上述した移動ベクトルの差を求めた結果を示す図である。実際には、図7に示すように、移動ベクトルの検出誤差の影響等によって、静止物領域でも移動ベクトルの差がゼロとならないことがある。従って、移動領域検出部80は、上述した移動ベクトルの差の大きさの絶対値を所定のしきい値と比較し、移動ベクトルの差の大きさの絶対値が所定のしきい値以上の場合に、その追跡可能領域は移動物領域であると判断し、所定のしきい値より小さい場合に、その追跡可能領域は静止物領域であると判断する。
FIG. 7 is a diagram illustrating a result of obtaining the above-described difference between the movement vectors for each trackable region based on the movement vector illustrated in FIG. Actually, as shown in FIG. 7, the difference in the movement vector may not become zero even in the stationary object region due to the influence of the detection error of the movement vector. Therefore, the movement
領域分類部90は、距離指標値算出部70によって算出された距離Lに基づいて、移動領域検出部80によって検出された移動物領域が同一の移動物に属する領域であるか否か、すなわち、移動物領域と判断された複数の領域に写っている移動物が同一の移動物であるか否かを判断する。図8は、(i)自車両より遅い速度で自車両と同一方向に進んでいる移動物、(ii)自車両より速い速度で自車両と同一方向に進んでいる移動物、(iii)自車両と反対方向に進んでいる移動物を対象として、距離指標値算出部70によって算出された距離データの分布を示す図である。
The
上述したように、距離指標値算出部70は、式(1)から移動物までの距離Lを算出する。自車両から同一の距離にある同一の移動物を対象として距離Lを算出した場合、式(1)により算出される距離Lは同じ値となる。しかし、自車両から同一の距離にある異なる移動物を対象として距離Lを算出した場合、上記(i)〜(iii)の移動物の画像上のy方向の移動量Δyはそれぞれ異なる値となるので、式(1)により算出される距離Lもそれぞれ異なる値となる。
As described above, the distance index
すなわち、移動物領域ごとに距離Lのデータを求めると、同一の移動物に属する領域は、図8に示すように、ある距離をピークとして、一定範囲内にデータを有する分布となる。従って、領域分類部90は、移動物領域ごとに算出される距離Lの頻度分布に基づいて、各移動物領域が同一の移動物が撮像されている領域であるか否かを判定することができる。図9は、領域分類部90によって、同一の移動物ごとに分類された結果を示す図である。図9では、2つの領域に分類されている。
That is, when the data of the distance L is obtained for each moving object area, the areas belonging to the same moving object have a distribution having data within a certain range with a certain distance as a peak, as shown in FIG. Therefore, the
なお、上述したように、式(1)を用いて移動物までの距離を算出した場合、実際の距離とは誤差が生じるが、同一速度で移動している同一の距離にある領域については、その誤差も同じとなる。従って、式(1)から求められる距離Lを横軸として頻度分布を求めると、同一の移動物に属する領域は、図8に示すように、1ヶ所に集中する分布となる。 As described above, when the distance to the moving object is calculated using the equation (1), an error occurs from the actual distance, but for the region at the same distance moving at the same speed, The error is the same. Therefore, when the frequency distribution is obtained with the distance L obtained from Equation (1) as the horizontal axis, the regions belonging to the same moving object become a distribution concentrated in one place as shown in FIG.
距離算出部100は、領域分類部90によって同一の移動物に属すると判定された領域の移動物と自車両との間の距離Sを算出する。すなわち、同一の移動物に属すると判定された複数の移動物領域のうち、撮像画像上で最も下の位置における領域(y座標値が最も小さい領域)のy座標y2を求めて、次式(2)より、距離Sを算出する。
S=h×f/y2 (2)
ただし、fは撮像部10のレンズの焦点距離、hは、路面から撮像部10の光軸までの高さである。
The
S = h × f / y2 (2)
However, f is the focal length of the lens of the
なお、撮像画像上で最も下の位置における領域のy座標y2を求めるのは、移動物の最下位置は、路面と接している位置となるからである。距離算出部100によって、式(2)により距離Sを算出する方法は、式(1)の距離算出方法と異なり、距離の検出対象が移動物であっても正確に距離を算出することができる。図10は、追跡可能領域に写っている対象物が移動物の場合に、式(1)により算出される距離Lと、式(2)より算出される距離Sとの関係を示す図である。
The reason why the y-coordinate y2 of the region at the lowest position on the captured image is obtained is because the lowest position of the moving object is a position in contact with the road surface. Unlike the distance calculation method of equation (1), the method of calculating the distance S using the equation (2) by the
速度算出部110は、距離指標値算出部70によって算出された距離L、自車移動量検出部60により検出される自車移動量ΔL、距離算出部100によって算出される距離Sを用いて、次式(3)より、移動物の速度Vを算出する。
V=S×[−1/{(L−f)×ΔL}+f×y2/y1+ΔL]/Δt (3)
ただし、y1は、自車両が移動する前(時刻T1)の追跡対象の画像上のy座標であり、y2は、撮像間隔Δtの間に自車両が移動した後(時刻T2)の追跡対象のy座標である。
The
V = S × [−1 / {(L−f) × ΔL} + f × y2 / y1 + ΔL] / Δt (3)
However, y1 is the y coordinate on the image of the tracking target before the own vehicle moves (time T1), and y2 is the tracking target after the own vehicle moves (time T2) during the imaging interval Δt. The y coordinate.
図11は、一実施の形態における移動体検出装置によって行われる処理手順を示すフローチャートである。ステップS10から始まる処理は、図示しないイグニッションスイッチがオンされることにより始まる。ステップS10では、追跡領域情報記憶部40に記憶されている追跡領域情報を初期化して、ステップS20に進む。ステップS20では、撮像部10により撮像された画像を画像記憶部20に記憶して、ステップS30に進む。
FIG. 11 is a flowchart illustrating a processing procedure performed by the moving object detection device according to the embodiment. The process starting from step S10 starts when an ignition switch (not shown) is turned on. In step S10, the tracking area information stored in the tracking area
ステップS30では、追跡可能領域検出部30によって、画像記憶部20に記憶されている画像に基づいて、追跡可能領域を検出する。追跡可能領域の検出方法は上述したので、詳しい説明は省略する。追跡可能領域を検出するとステップS40に進む。ステップS40では、局所領域追跡部50によって、追跡可能領域が撮像間隔Δtの間に移動する画像上の移動量(移動ベクトル)を検出する。移動ベクトルの検出方法は上述したので、詳しい説明は省略する。追跡可能領域の移動ベクトルを検出すると、ステップS50に進む。
In step S <b> 30, the traceable
ステップS50では、移動領域検出部80によって、追跡可能領域ごとに、撮像間隔Δtの間に静止物が移動する移動ベクトルを求め、この移動ベクトルと、ステップS40で求められた移動ベクトルとに基づいて、追跡可能領域の中から移動物領域を検出する。移動物領域の検出方法は上述したので、詳しい説明は省略する。
In step S50, the movement
ステップS60において、距離指標値算出部70は、ステップS50で検出された全ての移動物領域に写っている物体までの距離Lを算出する。距離Lの算出方法は上述したので、詳しい説明は省略する。距離Lを算出すると、ステップS70に進む。ステップS70において、領域分類部90は、移動物領域ごとに算出された距離Lに基づいて、複数の移動物領域に写っている移動物が同一物に属するか否かを判定して、移動物領域を分類する。移動物領域を分類すると、ステップS80に進む。
In step S60, the distance index
ステップS80において、距離算出部100は、領域分類部90によって分類された移動物領域に写っている移動物までの距離Sを算出する。移動物までの距離Sの算出方法は上述したので、詳しい説明は省略する。ステップS80に続くステップS90では、速度算出部110によって、移動物の速度Vを算出する。移動物の速度Vの算出方法は上述したので、詳しい説明は省略する。
In step S80, the
一実施の形態における移動体検出装置が行う処理内容についてまとめておく。追跡可能領域検出部30は、撮像部10により撮像された画像を複数の領域に区分し、各領域ごとに、移動体を追跡可能な追跡可能領域を検出する。局所領域追跡部50は、Δtの撮像間隔で撮像部10により撮像された少なくとも2枚の画像に基づいて、追跡可能領域の移動ベクトルを検出する。移動領域検出部80は、追跡可能領域に写っている物体が静止物であると仮定した場合に、撮像間隔Δtにて追跡可能領域が撮像画像上を移動する移動ベクトルを算出し、この移動ベクトルと、局所領域追跡部50によって検出される移動ベクトルとに基づいて、移動物領域を検出する。領域分類部90は、距離指標値算出部70が式(1)によって算出する、移動物領域に写っている移動物までの距離Lに基づいて、同一の移動物が撮像されている領域ごとに移動物領域を分類する。その後、距離算出部100は、同一の移動物が写っている領域の座標値から、式(2)により、移動物までの距離Sを算出する。また、速度算出部110は、式(3)から、移動物の移動速度Vを算出する。
The contents of processing performed by the mobile body detection device in one embodiment will be summarized. The traceable
一実施の形態における移動体検出装置によれば、移動物の種類や、移動物と撮像部10との位置関係に関わらず、撮像画像に基づいて、移動物の存在を検出することができるとともに、検出された画像上の移動物領域を、同一の移動物に属する領域ごとに分類することができる。
According to the moving object detection device in the embodiment, the presence of the moving object can be detected based on the captured image regardless of the type of the moving object and the positional relationship between the moving object and the
また、一実施の形態における移動体検出装置によれば、同一の移動物に属すると判断された複数の領域のうち、撮像画像上で最も下の位置にある領域の座標値に基づいて、実空間上における移動物までの距離を算出するので、距離を算出する対象物が移動物の場合でも、正確に距離を算出することができる。 In addition, according to the moving object detection device in one embodiment, based on the coordinate value of the area at the lowest position on the captured image among the plurality of areas determined to belong to the same moving object, Since the distance to the moving object in space is calculated, the distance can be accurately calculated even when the object whose distance is to be calculated is a moving object.
さらに、一実施の形態における移動体検出装置によれば、少なくとも距離指標値算出部70により算出された距離L、および、距離算出部100により算出された距離Sに基づいて、移動物の移動速度Vを算出するので、移動物の速度を正確に算出することができる。
Furthermore, according to the moving object detection apparatus in the embodiment, the moving speed of the moving object is based on at least the distance L calculated by the distance index
本発明は、上述した一実施の形態に限定されることはなく、発明の本質を損なわない範囲での変形構成例は、本発明の技術的範囲に含まれる。 The present invention is not limited to the above-described embodiment, and modified examples in a range that does not impair the essence of the invention are included in the technical scope of the present invention.
特許請求の範囲の構成要素と一実施の形態の構成要素との対応関係は次の通りである。すなわち、撮像部10が撮影手段を、追跡可能領域検出部30が領域区分手段および追跡可能領域検出手段を、局所領域追跡部50が移動ベクトル検出手段を、移動領域検出部80が移動物領域検出手段を、自車移動量検出部60が自車移動量検出手段を、距離指標値算出手段70が距離指標値算出手段を、領域分類部90が領域分類手段を、距離算出部100が距離算出手段を、速度算出部110が速度算出手段をそれぞれ構成する。なお、本発明の特徴的な機能を損なわない限り、各構成要素は上記構成に限定されるものではない。
The correspondence between the constituent elements of the claims and the constituent elements of the embodiment is as follows. That is, the
10…撮像部
20…画像記憶部
30…追跡可能領域検出部
40…追跡領域情報記憶部
50…局所領域追跡部
60…自車移動量検出部
70…距離指標値算出部
80…移動領域検出部
90…領域分類部
100…距離算出部
110…速度算出部
DESCRIPTION OF
Claims (6)
前記撮像手段により撮像された画像を複数の領域に区分する領域区分手段と、
前記領域区分手段により区分された各領域のうち、移動体を追跡可能な追跡可能領域を検出する追跡可能領域検出手段と、
前記撮像手段により第1のタイミングにて撮像された第1の画像、および、前記第1のタイミングから所定時間経過した第2のタイミングにて撮像された第2の画像に基づいて、前記追跡可能領域検出手段によって検出された複数の追跡可能領域の移動ベクトルを検出する移動ベクトル検出手段と、
前記移動ベクトル検出手段によって検出された移動ベクトルと、前記追跡可能領域に写っている物体が静止物であると仮定した場合に、前記第1の画像および前記第2の画像に基づいて求められる前記追跡可能領域の移動ベクトルとに基づいて、前記追跡可能領域の中から、移動物が写っている移動物領域を検出する移動物領域検出手段と、
前記所定時間の間に車両が移動する距離を検出する自車移動量検出手段と、
前記自車移動量検出手段により検出される自車移動量、および、前記移動ベクトル検出手段により検出される追跡可能領域の画像上の移動量に基づいて、追跡可能領域に写っている物体までの実空間上の距離を算出する距離指標値算出手段と、
前記距離指標値算出手段により算出された距離指標値に基づいて、前記移動物領域検出手段により検出された移動物領域を、同一の移動物に属する領域ごとに分類する領域分類手段とを備えることを特徴とする移動体検出装置。 An imaging means installed in the vehicle for imaging the surroundings of the vehicle;
Area dividing means for dividing the image captured by the imaging means into a plurality of areas;
A trackable area detecting means for detecting a trackable area capable of tracking a moving body among the areas divided by the area dividing means;
The tracking is possible based on a first image captured at a first timing by the imaging unit and a second image captured at a second timing after a predetermined time has elapsed from the first timing. Movement vector detection means for detecting movement vectors of a plurality of trackable areas detected by the area detection means;
When it is assumed that the movement vector detected by the movement vector detection means and the object reflected in the trackable area are stationary objects, the movement vector is obtained based on the first image and the second image. A moving object region detecting means for detecting a moving object region in which a moving object is reflected from the trackable region based on a movement vector of the trackable region;
Own vehicle movement amount detection means for detecting the distance that the vehicle moves during the predetermined time;
Based on the own vehicle movement amount detected by the own vehicle movement amount detection unit and the movement amount on the image of the trackable region detected by the movement vector detection unit, the object up to the object shown in the trackable region is detected. A distance index value calculating means for calculating a distance in real space;
Area classification means for classifying the moving object area detected by the moving object area detection means for each area belonging to the same moving object based on the distance index value calculated by the distance index value calculation means; A moving body detecting apparatus characterized by the above.
前記移動物領域検出手段は、前記移動ベクトル検出手段によって検出された移動ベクトルと、前記追跡可能領域に写っている物体が静止物であると仮定した場合の移動ベクトルとの差の大きさの絶対値が所定値以上の場合に、前記追跡可能領域が移動物領域であると判定することを特徴とする移動体検出装置。 The moving object detection apparatus according to claim 1,
The moving object area detecting means is the absolute magnitude of the difference between the moving vector detected by the moving vector detecting means and the moving vector when it is assumed that the object shown in the trackable area is a stationary object. A moving body detection apparatus, wherein when the value is equal to or greater than a predetermined value, the traceable area is determined to be a moving object area.
前記領域分類手段は、前記移動物領域ごとに前記距離指標値算出手段により算出された距離指標値の分布を求め、前記分布が集中する領域に応じて、同一の移動物に属する領域ごとに移動物領域を分類することを特徴とする移動体検出装置。 The moving body detection device according to claim 1 or 2,
The area classification means obtains a distribution of distance index values calculated by the distance index value calculation means for each moving object area, and moves for each area belonging to the same moving object according to an area where the distribution is concentrated. A moving object detection apparatus characterized by classifying an object area.
前記領域分類手段によって同一の移動物に属すると判断された複数の領域のうち、撮像画像上で最も下の位置にある領域の座標値に基づいて、実空間上における移動物までの距離を算出する距離算出手段をさらに備えることを特徴とする移動体検出装置。 In the moving body detection apparatus in any one of Claims 1-3,
The distance to the moving object in the real space is calculated based on the coordinate value of the area at the lowest position on the captured image among the plurality of areas determined to belong to the same moving object by the area classifying means. A moving body detecting apparatus further comprising a distance calculating means.
少なくとも前記距離指標値算出手段により算出された距離指標値、および、前記距離算出手段により算出された距離に基づいて、移動物の移動速度を算出する速度算出手段をさらに備えることを特徴とする移動体検出装置。 In the moving body detection apparatus according to claim 4,
The movement further comprising speed calculation means for calculating a moving speed of the moving object based on at least the distance index value calculated by the distance index value calculation means and the distance calculated by the distance calculation means. Body detection device.
前記追跡可能領域検出手段は、複数の方向に濃淡変化を有する領域を前記追跡可能領域として検出することを特徴とする移動体領域検出装置。 In the moving body detection apparatus in any one of Claims 1-5,
The trackable area detecting unit detects an area having light and shade changes in a plurality of directions as the trackable area.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004227891A JP3988758B2 (en) | 2004-08-04 | 2004-08-04 | Moving body detection device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004227891A JP3988758B2 (en) | 2004-08-04 | 2004-08-04 | Moving body detection device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006047091A JP2006047091A (en) | 2006-02-16 |
JP3988758B2 true JP3988758B2 (en) | 2007-10-10 |
Family
ID=36025807
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004227891A Expired - Fee Related JP3988758B2 (en) | 2004-08-04 | 2004-08-04 | Moving body detection device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3988758B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2021075377A1 (en) * | 2019-10-14 | 2021-04-22 |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008243111A (en) * | 2007-03-29 | 2008-10-09 | Hitachi Ltd | Image processing device and image processing method |
JP5169320B2 (en) * | 2008-03-04 | 2013-03-27 | 日産自動車株式会社 | Vehicle object detection device and vehicle moving object discrimination method |
JP5152144B2 (en) * | 2009-10-07 | 2013-02-27 | 株式会社デンソーアイティーラボラトリ | Image processing device |
JP5642049B2 (en) * | 2011-11-16 | 2014-12-17 | クラリオン株式会社 | Vehicle external recognition device and vehicle system using the same |
WO2016142965A1 (en) * | 2015-03-10 | 2016-09-15 | 日本電気株式会社 | Video processing device, video processing method, and storage medium storing video processing program |
JP6384802B2 (en) * | 2015-03-26 | 2018-09-05 | パナソニックIpマネジメント株式会社 | MOBILE BODY DETECTING DEVICE, IMAGE PROCESSING DEVICE, MOBILE BODY DETECTING METHOD, AND INTEGRATED CIRCUIT |
WO2016151977A1 (en) * | 2015-03-26 | 2016-09-29 | パナソニックIpマネジメント株式会社 | Moving body detection device, image processing device, moving body detection method, and integrated circuit |
WO2018051459A1 (en) * | 2016-09-15 | 2018-03-22 | 三菱電機株式会社 | Object detection device and object detection method |
CN106791294A (en) * | 2016-11-25 | 2017-05-31 | 益海芯电子技术江苏有限公司 | Motion target tracking method |
JP6858681B2 (en) | 2017-09-21 | 2021-04-14 | 株式会社日立製作所 | Distance estimation device and method |
-
2004
- 2004-08-04 JP JP2004227891A patent/JP3988758B2/en not_active Expired - Fee Related
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2021075377A1 (en) * | 2019-10-14 | 2021-04-22 | ||
JP7236556B2 (en) | 2019-10-14 | 2023-03-09 | 株式会社デンソー | Object detection device and object detection program |
Also Published As
Publication number | Publication date |
---|---|
JP2006047091A (en) | 2006-02-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6454554B2 (en) | External environment recognition device for vehicle and vehicle behavior control device using the same | |
US8406472B2 (en) | Method and system for processing image data | |
JP5145986B2 (en) | Object detection apparatus and distance measuring method | |
JP6458651B2 (en) | Road marking detection device and road marking detection method | |
JP5754470B2 (en) | Road surface shape estimation device | |
JP2002352225A (en) | Obstacle detector and its method | |
JP2007300181A (en) | Periphery monitoring apparatus and periphery monitoring method and program thereof | |
JP6237874B2 (en) | Self-position calculation device and self-position calculation method | |
JP5834933B2 (en) | Vehicle position calculation device | |
JP2006338272A (en) | Vehicle behavior detector and vehicle behavior detection method | |
JP3988758B2 (en) | Moving body detection device | |
WO2014132490A1 (en) | Vehicle specifications measurement processing device, vehicle specifications measuring method, and recording medium | |
JP2012252501A (en) | Traveling path recognition device and traveling path recognition program | |
JP2005217883A (en) | Method for detecting flat road area and obstacle by using stereo image | |
JP5369921B2 (en) | Object detection apparatus and object detection method | |
JP2005170290A (en) | Obstacle detecting device | |
JP2007199932A (en) | Image processor and its method | |
JP4107273B2 (en) | Moving body detection device | |
JP2004362334A (en) | Device for detecting area of traveling object | |
JP4575315B2 (en) | Object detection apparatus and method | |
JP5891802B2 (en) | Vehicle position calculation device | |
US7899212B2 (en) | Image processing apparatus and image processing method | |
JP5472928B2 (en) | Object detection apparatus and method | |
JP4062290B2 (en) | Moving body detection device | |
JP7134780B2 (en) | stereo camera device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20051226 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20070614 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20070626 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070709 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100727 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110727 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120727 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120727 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130727 Year of fee payment: 6 |
|
LAPS | Cancellation because of no payment of annual fees |