JP5482672B2 - Moving object detection device - Google Patents
Moving object detection device Download PDFInfo
- Publication number
- JP5482672B2 JP5482672B2 JP2011004358A JP2011004358A JP5482672B2 JP 5482672 B2 JP5482672 B2 JP 5482672B2 JP 2011004358 A JP2011004358 A JP 2011004358A JP 2011004358 A JP2011004358 A JP 2011004358A JP 5482672 B2 JP5482672 B2 JP 5482672B2
- Authority
- JP
- Japan
- Prior art keywords
- moving object
- vehicle
- point
- crossing
- traveling direction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、車両に搭載された撮影手段を用いて、車両の進行方向を横切る移動物体を検出する移動物体検出装置に関する。 The present invention relates to a moving object detection apparatus that detects a moving object that crosses a traveling direction of a vehicle using an imaging unit mounted on the vehicle.
公道において、歩行者や自転車などが、車両の進路を横断する際に発生する死傷事故の件数が、交通死傷事故全体の件数の中で大きな割合を占めていることが知られている。 It is known that the number of fatalities and injuries that occur when pedestrians and bicycles cross the course of vehicles on public roads account for a large percentage of the total number of traffic casualties.
そのため、例えば特許文献1には、画像入力部を搭載した車両が移動している状況下で、その移動方向に対して横切るように移動する画像中の物体を検出できるようにした装置が開示されている。 Therefore, for example, Patent Document 1 discloses an apparatus that can detect an object in an image that moves so as to cross a moving direction in a situation where a vehicle equipped with an image input unit is moving. ing.
この特許文献1に記載された装置では、入力された動画像から、画像上での速度ベクトルの分布状態を示すオプティカルフローを算出し、そのオプティカルフローから水平方向の速度ベクトル成分の大きさの最小値を求めて、無限遠点方向をわり出す。そして、その無限遠点方向を基準にして、オプティカルフローの水平方向の速度ベクトル成分の極性から移動物体を検出する。つまり、特許文献1の記載の装置は、車両の走行方向を横切ろうとしている移動物体の速度ベクトルの水平方向の成分は、車両の自己運動によって生じる背景の速度ベクトルの水平方向成分と極性が異なることを利用し、車両の走行方向を横切ろうとしている移動物体を検出するのである。 In the apparatus described in Patent Document 1, an optical flow indicating a distribution state of velocity vectors on an image is calculated from an input moving image, and the minimum velocity vector component in the horizontal direction is calculated from the optical flow. Find the value and find the direction of the infinity point. Then, the moving object is detected from the polarity of the velocity vector component in the horizontal direction of the optical flow with reference to the direction of the infinity point. That is, in the apparatus described in Patent Document 1, the horizontal component of the velocity vector of the moving object that is going to cross the traveling direction of the vehicle has the same polarity as that of the horizontal component of the background velocity vector generated by the vehicle's self-motion. The difference is used to detect a moving object that is about to cross the traveling direction of the vehicle.
また、先行車両や対向車両などは除外しつつ、歩行者、路側構造物、停止車両、自車に対して横断方向に走行している車両などを検出するようにした装置が、特許文献2に記載されている。 Further, Patent Document 2 discloses an apparatus that detects a pedestrian, a roadside structure, a stopped vehicle, a vehicle that is traveling in a transverse direction with respect to the host vehicle, and the like, excluding preceding vehicles and oncoming vehicles. Have been described.
この装置は、カメラとレーザレーダとを備え、まずレーダによって検出されるオブジェクトの位置及び速度に基づき、自車両前方の処理対象となるオブジェクトを抽出する。そして、抽出されたオブジェクトを対象として、カメラによって撮像された画像において、そのオブジェクトの特徴点の動きベクトルと、理論上の背景ベクトルとの向き及び大きさを比較することにより、動きベクトルが移動物体又は静止物体のいずれによるものかを検出する。 This apparatus includes a camera and a laser radar, and first extracts an object to be processed in front of the host vehicle based on the position and speed of the object detected by the radar. Then, by comparing the direction and size of the motion vector of the feature point of the object with the theoretical background vector in the image captured by the camera for the extracted object, the motion vector is moved. Alternatively, it is detected whether the object is a stationary object.
特許文献1に記載された装置では、自車両の走行方向を横切ろうとしている移動物体が、自車両の進行方向に沿ったラインを超えてしまうと、その移動物体の検出が非常に困難になるという問題がある。これは、移動物体が、自車両の進行方向に沿ったライン(自車両と無限遠点とを結んだライン)を超えた後は、移動物体の速度ベクトルの水平方向成分と、背景の速度ベクトルの水平方向成分との極性が同じになってしまうためである。従って、移動物体が、未だ自車両の進行方向の近傍にいるにも係らず、その移動物体を検出することができない事態が発生する虞が生じる。 In the apparatus described in Patent Document 1, if a moving object that is going to cross the traveling direction of the host vehicle exceeds a line along the traveling direction of the host vehicle, it is very difficult to detect the moving object. There is a problem of becoming. This is because the horizontal component of the velocity vector of the moving object and the background velocity vector after the moving object exceeds the line along the traveling direction of the own vehicle (the line connecting the own vehicle and the infinity point). This is because the polarity with respect to the horizontal direction component becomes the same. Therefore, there is a possibility that a situation may occur in which the moving object cannot be detected even though the moving object is still in the vicinity of the traveling direction of the host vehicle.
また、特許文献2に記載された装置では、レーザレーダにより、自車両の進行方向前方に存在し、相対速度が所定値以下のオブジェクトを処理対象として抽出するため、歩行者等を比較的精度良く検出することができるが、カメラに加えて、レーザレーダが必要となるという問題がある。 Further, in the apparatus described in Patent Document 2, an object having a relative speed of a predetermined value or less is extracted as a processing target by a laser radar in front of the traveling direction of the host vehicle. Although it can be detected, there is a problem that a laser radar is required in addition to the camera.
本願発明は、上述した点に鑑みてなされたものであり、レーダを用いることなく、車両に搭載された撮影手段によって撮影された画像から、車両の進行方向を横切る移動物体を精度良く検出することが可能な移動物体検出装置を提供することを目的とする。 The present invention has been made in view of the above points, and can accurately detect a moving object that crosses the traveling direction of a vehicle from an image captured by an imaging unit mounted on the vehicle without using a radar. It is an object of the present invention to provide a moving object detection device capable of performing the above.
上記目的を達成するために、請求項1に記載の移動物体検出装置は、
車両の進行方向を撮影するように、車両に搭載される撮影手段と、
撮影手段によって撮影された画像において、特徴点を抽出するとともに、抽出された各特徴点のオプティカルフローを算出するオプティカルフロー算出手段と、
オプティカルフロー算出手段によって算出された各特徴点のオプティカルフローから、当該オプティカルフローの延長線上に存在する各特徴点の消失点を定める消失点算出手段と、
撮影手段によって撮影された画像における無限遠点と撮像手段の焦点とを結ぶ線分と、各特徴点の消失点と撮像手段の焦点とを結ぶ線分がなす角度を、車両の進行方向に対する各特徴点の相対的進入角度として算出する角度算出手段と、
角度算出手段によって算出された相対的進入角度が閾値以上である場合に、対応する特徴点により示される移動物体が、車両の進行方向を横切る移動物体であると判定する判定手段と、を備えることを特徴とする。
In order to achieve the above object, a moving object detection apparatus according to claim 1 is provided.
Photographing means mounted on the vehicle so as to photograph the traveling direction of the vehicle;
In the image photographed by the photographing means, the feature point is extracted, and the optical flow calculating means for calculating the optical flow of each extracted feature point;
From the optical flow of each feature point calculated by the optical flow calculation means, vanishing point calculation means for determining the vanishing point of each feature point existing on the extension line of the optical flow,
The angle formed by the line segment connecting the infinity point in the image captured by the image capturing unit and the focal point of the image capturing unit and the line segment connecting the vanishing point of each feature point and the focal point of the image capturing unit is set to An angle calculating means for calculating the relative approach angle of the feature point;
Determining means for determining that the moving object indicated by the corresponding feature point is a moving object crossing the traveling direction of the vehicle when the relative approach angle calculated by the angle calculating means is equal to or greater than the threshold value; It is characterized by.
後に詳細に説明するが、車両から見た移動物体の実際の動きベクトル(3次元空間における動きベクトル)は、移動物体を撮影した画像における、その移動物体の消失点と撮影手段の焦点とを結んだ線分と平行になる。そして、移動物体が車両の進行方向を横切る場合には、移動物体の実際の動きベクトルの方向と、車両の進行方向とが、平行とはならず、ある角度を持つことになる。 As will be described in detail later, the actual motion vector of the moving object viewed from the vehicle (the motion vector in the three-dimensional space) connects the vanishing point of the moving object and the focus of the imaging means in the image of the moving object. It becomes parallel to the line segment. When the moving object crosses the traveling direction of the vehicle, the direction of the actual motion vector of the moving object and the traveling direction of the vehicle are not parallel but have an angle.
そのため、請求項1の移動物体検出装置では、車両の進行方向に対応する、画像の無限遠点と撮像手段の焦点とを結ぶ線分と、車両から見た移動物体の実際の動きベクトルの向きに対応する、各特徴点の消失点と撮像手段の焦点とを結ぶ線分がなす角度を、車両の進行方向に対する各特徴点の相対的進入角度として算出する。そして、算出した各特徴点の相対的進入角度が所定の閾値角度以上であるか否か判定する。これにより、移動物体が、車両の進行方向を横切る移動物体であるか否かを判別することができる。さらに、このような相対的進入角度を用いることにより、車両の進行方向を越えた移動物体も、車両の進行方向を横切る移動物体として判定することが可能となる。 Therefore, in the moving object detection device according to claim 1, the line segment connecting the infinity point of the image and the focus of the imaging unit corresponding to the traveling direction of the vehicle, and the direction of the actual motion vector of the moving object viewed from the vehicle Is calculated as a relative approach angle of each feature point with respect to the traveling direction of the vehicle. Then, it is determined whether or not the calculated relative approach angle of each feature point is equal to or greater than a predetermined threshold angle. Thereby, it is possible to determine whether or not the moving object is a moving object that crosses the traveling direction of the vehicle. Furthermore, by using such a relative approach angle, a moving object that exceeds the traveling direction of the vehicle can be determined as a moving object that crosses the traveling direction of the vehicle.
請求項2に記載したように、消失点算出手段は、画像における無限遠点から水平に伸びる仮想の水平線と、オプティカルフローの延長線との交点を、各特徴点の消失点として求めることが好ましい。傾きの無い平坦な地面を想定すると、無限遠点及び消失点は、地平線上に存在することになる。このため、無限遠点から水平に伸びる仮想の水平線と、オプティカルフローの延長線との交点を、各特徴点の消失点とすることができる。このように、簡易的に各特徴点の消失点を定めることにより、消失点を算出するための演算量を低減することができる。 According to a second aspect of the present invention, the vanishing point calculating means preferably obtains the intersection of the virtual horizontal line extending horizontally from the infinity point in the image and the extension line of the optical flow as the vanishing point of each feature point. . Assuming a flat ground without inclination, the infinity point and the vanishing point exist on the horizon. For this reason, the intersection of the virtual horizontal line extending horizontally from the infinity point and the extension line of the optical flow can be the vanishing point of each feature point. Thus, by simply determining the vanishing point of each feature point, the amount of calculation for calculating the vanishing point can be reduced.
請求項3に記載したように、少なくとも、消失点算出手段によって算出された各特徴点の消失点の位置から、同じ消失点を共有する特徴点同士を、同じ移動物体を示す特徴点としてグルーピングするグルーピング手段を備え、判定手段は、グルーピングされた特徴点によって示される移動物体に関して、車両の進行方向を横切る移動物体であるか否かを判定することが好ましい。このように、同じ移動物体を示す特徴点同士をグルーピングすることにより、車両の進行方向を横切る移動物体がいくつあるか明らかにすることができる。また、同じ消失点を共有するとの条件で特徴点をグルーピングすることにより、オプティカルフローに混在するアウトライア(誤対応により誤って算出された外れ値)を除去することができる。 As described in claim 3, at least from the vanishing point position of each feature point calculated by the vanishing point calculation means, feature points sharing the same vanishing point are grouped as feature points indicating the same moving object. It is preferable that a grouping unit is provided, and the determination unit determines whether the moving object indicated by the grouped feature points is a moving object that crosses the traveling direction of the vehicle. Thus, by grouping the feature points indicating the same moving object, it is possible to clarify how many moving objects cross the traveling direction of the vehicle. Further, by grouping feature points under the condition that they share the same vanishing point, outliers (outliers that are erroneously calculated due to incorrect correspondence) mixed in the optical flow can be removed.
請求項4に記載したように、車両の進行方向における、当該車両と各特徴点との距離がゼロとなるまでの衝突時間を、各特徴点について算出する衝突時間算出手段を備え、グルーピング手段は、衝突時間が所定の時間幅に属する特徴点同士を、同じ移動物体を示す特徴点としてグルーピングすることが好ましい。同じ移動物体を示す特徴点であれば、類似する衝突時間を有するためである。そして、同じ消失点を共有するとの条件に加え、衝突時間の類似性もグルーピングの条件として採用することにより、アウトライアの除去をより確実に行うことができる。さらに、衝突時間が明らかとなることにより、衝突時間の長短から、そのときの状況の緊急度合なども判別することが可能になる。 According to a fourth aspect of the present invention, the vehicle includes a collision time calculation unit that calculates a collision time for each feature point until the distance between the vehicle and each feature point becomes zero in the traveling direction of the vehicle. It is preferable to group the feature points belonging to the predetermined time width as the feature points indicating the same moving object. This is because feature points indicating the same moving object have similar collision times. Then, in addition to the condition that the same vanishing point is shared, the similarity of the collision time is also adopted as the grouping condition, so that the outlier can be removed more reliably. Furthermore, since the collision time becomes clear, it is possible to determine the degree of emergency of the situation at that time from the length of the collision time.
さらに、請求項5に記載したように、グルーピング手段は、所定の距離範囲内に存在する特徴点同士を、同じ移動物体を示す特徴点としてグルーピングするようにしても良い。同じ移動物体を示す特徴点同士は、互いに近接した位置に存在するためである。 Furthermore, as described in claim 5, the grouping means may group feature points existing within a predetermined distance range as feature points indicating the same moving object. This is because the feature points indicating the same moving object exist at positions close to each other.
請求項6に記載したように、判定手段において、車両の進行方向を横切る移動物体であるとの判定結果が得られたとき、車両の運転者に対して警報を発する警報手段を備え、警報手段は、判定手段によって車両の進行方向を横切る移動物体と判定された移動物体の数に応じて、警報の態様を変化させても良い。例えば、移動物体の数だけ警告音を発したりするようにしても良い。これにより、車両の乗員に対して、車両の前方を横切る移動物体が存在するということだけでなく、その移動物体の数に関する情報も提供することができる。 According to a sixth aspect of the present invention, the determination means includes a warning means for issuing a warning to the driver of the vehicle when a determination result is obtained that the moving object crosses the traveling direction of the vehicle. The warning mode may be changed in accordance with the number of moving objects determined as moving objects crossing the traveling direction of the vehicle by the determining means. For example, a warning sound may be generated for the number of moving objects. Thereby, not only that the moving object which crosses the front of a vehicle exists but the information regarding the number of the moving objects can be provided with respect to the passenger | crew of a vehicle.
請求項7に記載したように、判定手段において、車両の進行方向を横切る移動物体との判定結果が得られたとき、車両の運転者に対して警報を発する警報手段を備え、警報手段は、衝突時間判定手段により算出された衝突時間の長短に応じて、警報の態様を変化させるようにしても良い。これにより、車両の乗員に対して、車両の前方を横切る移動物体が存在するということだけでなく、その移動物体と衝突する可能性がある時間に関する情報も提供することができる。 According to a seventh aspect of the present invention, the determination means comprises a warning means for issuing a warning to the driver of the vehicle when a determination result with a moving object crossing the traveling direction of the vehicle is obtained, The warning mode may be changed according to the length of the collision time calculated by the collision time determination means. Thus, not only that there is a moving object that crosses the front of the vehicle but also information regarding the time that the vehicle occupant may collide with the moving object can be provided to the vehicle occupant.
請求項8に記載した移動物体検出装置では、判定手段は、車両の進行方向を横切る移動物体として、撮像手段の焦点と無限遠点を結ぶ線分を延長したラインを横切る前の横断前移動物体と、横切った後の横断後移動物体とを判定対象とする。換言すれば、本発明による移動物体検出装置では、相対的進入角度を用いて、移動物体が車両の進行方向を横切る移動物体か否かを判定しているので、横断前移動物体だけでなく、横断後移動物体も対象として判定することが可能となる。 In the moving object detection device according to claim 8, the determination unit is a moving object before crossing before crossing a line extending a line segment connecting the focal point of the imaging unit and the infinity point as a moving object crossing the traveling direction of the vehicle. And the moving object after crossing after crossing. In other words, in the moving object detection device according to the present invention, the relative approach angle is used to determine whether the moving object is a moving object that crosses the traveling direction of the vehicle. It is possible to determine a moving object after crossing as a target.
請求項9に記載した移動物体検出装置では、オプティカルフロー算出手段は、車両の運動に伴う撮影手段の回転方向の移動により生じる成分を除去したオプティカルフローを算出する。撮影手段が、車両という移動体に搭載される場合、特に撮影手段の回転方向の移動により生じる成分が、移動物体のオプティカルフローを算出する上で、大きな誤差要因となるためである。 In the moving object detection device according to the ninth aspect, the optical flow calculation means calculates an optical flow from which a component generated by the movement of the photographing means in the rotational direction accompanying the movement of the vehicle is removed. This is because, when the photographing unit is mounted on a moving body such as a vehicle, a component caused by the movement of the photographing unit in the rotation direction becomes a significant error factor in calculating the optical flow of the moving object.
以下、本発明の実施形態による移動体検出装置について、図面に基づいて詳細に説明する。 Hereinafter, a mobile object detection device according to an embodiment of the present invention will be described in detail with reference to the drawings.
図1に示すように、本実施形態における移動体検出装置100は、車両に搭載された、撮影手段としてのビデオカメラ10、及びビデオカメラ10によって撮影された画像を処理する画像処理ECU20とを備えている。
As shown in FIG. 1, the moving
ビデオカメラ10は、例えば、CCDカメラによって構成され、車両の車室内の天井付近や車両の先端(フロントバンパー)に設置される。この車両への設置に際して、ビデオカメラ10の光軸(Z軸)が車両の進行方向と一致し、ビデオカメラ10によって撮影された画像の横軸(X軸)が地面と平行になるように、ビデオカメラ10の設置角度等が調整される。この結果、画像の縦軸(Y軸)は、地面から垂直な方向に一致する。このビデオカメラ10は、車両が走行している間、定期的に画像を撮影して、その撮影した画像を画像処理ECU20に出力する。
The
画像処理ECU20は、図示しないCPU、ROM、RAM等からなるマイクロコンピュータの他、ビデオカメラ10から出力された画像をデジタル画像に変換するためのA/D変換器や、変換されたデジタル画像を保存する画像メモリ等を備えている。なお、画像メモリは、複数の画像を保存可能な記憶容量を有している。
The
この画像処理ECU20は、予め記憶されているプログラムに従って、各種の処理を実行する。例えば、画像処理ECU20は、ビデオカメラ10から時系列に出力される複数の画像における、同一特徴点の変化から、画像に含まれる各々の特徴点のオプティカルフローを算出する。そして、主として静止物体の特徴点のオプティカルフローに基づいて、画像の無限遠点(FOE)の位置を算出する。また、移動物体の特徴点のオプティカルフローから、その移動物体の消失点を算出する。さらに、画像のFOE位置及び移動物体の消失点位置を用いて、その移動物体が、車両の進路方向を横切る移動物体であるか判別する。このようにして、画像処理ECU20が、車両の進路方向を横切る移動物体であると判別すると、その判別結果が、制御装置30に出力される。
The
制御装置30は、例えば、画像処理ECU20により、車両の進路方向を横切る移動物体があると判別されると、その旨を車両の運転者に報知したり、移動物体との衝突を回避するために、車両に制動力を発生させるようにブレーキ装置を制御したりするものである。
For example, when the
次に、図2のフローチャートに基づいて、画像処理ECU20において実行される各種の処理について詳しく説明する。なお、図2のフローチャートに示す処理は、車両のエンジンがオンされたり、車両が走行を開始したりしたときに、繰り返し実行されるものである。
Next, various processes executed in the
まず、ステップS100では、ビデオカメラによって撮影された画像を取り込み、画像メモリに保存する。続くステップS110では、画像メモリに新たなデジタル画像が保存されると、そのデジタル画像における特徴点として、物体の角等を抽出する。そして、異なるタイミングで画像メモリに保存された2つのデジタル画像において、同一の特徴点を対応付けることにより、その特徴点の動きベクトルに相当するオプティカルフローを算出する。このオプティカルフローの算出方法として、例えばLK法が挙げられる、LK法は特徴点を中心とする画像内の小領域と相関の高いもう一つの画像内の小領域の勾配法による探索を行うものである。 First, in step S100, an image taken by a video camera is captured and stored in an image memory. In the subsequent step S110, when a new digital image is stored in the image memory, an object corner or the like is extracted as a feature point in the digital image. Then, by associating the same feature point in two digital images stored in the image memory at different timings, an optical flow corresponding to the motion vector of the feature point is calculated. As an optical flow calculation method, for example, the LK method can be cited. The LK method searches for a small region in another image having a high correlation with a small region in the image centered on a feature point by a gradient method. is there.
なお、上述した例では、物体の角等の点を特徴点として算出するものであったが、他の手法によって特徴点を算出することも可能である。 In the above-described example, the points such as the corners of the object are calculated as the feature points. However, the feature points can be calculated by other methods.
ステップS120では、ビデオカメラ10の運動パラメタを推定する。ビデオカメラ10は車両に搭載されており、車両の並進運動及び回転運動に伴い、ビデオカメラ10も同様に並進運動及び回転運動を行う。このため、ステップS120では、ビデオカメラ10の並進運動量ならびに回転移動量から、運動パラメタを推定する。
In step S120, the motion parameter of the
ここで、本実施形態の移動体検出装置は、車両の進行方向(進路)を横切る進路横断移動物を検知するものであるが、移動物体が進路横断移動物体か否かを判別する上で重要な技術的意味を持つ相対的進入角度(詳しくは、後述する)は、その定義より、ビデオカメラ10における座標系が並進運動することを前提としている。換言すれば、オプティカルフローに、ビデオカメラ10の回転運動による成分が含まれていると、上記の相対的進入角度を精度良く算出することができず、進路横断移動物体の判別精度も低下することになる。そのため、ステップS110において算出したオプティカルフローから、ビデオカメラの回転運動によって生じた成分を除去する必要があり、そのために、ビデオカメラ10の運動パラメタを推定するのである。
Here, the moving body detection apparatus according to the present embodiment detects a moving object crossing a course that crosses the traveling direction (path) of the vehicle, but is important for determining whether or not the moving object is a moving object that crosses the course. The relative approach angle (which will be described later in detail) having such a technical meaning is based on the premise that the coordinate system of the
ビデオカメラ10の運動パラメタは、以下の数式1に示す、ビデオカメラ10の3次元の並進移動量V = (Vx, Vy, Vz)と、回転移動量Ω=(Ωx, Ωy, Ωz)と、静止点の座標 (x, y, z)と、そのオプティカルフロー v = (vx, vy)との良く知られた関係式から求めることができる。なお、fは、ビデオカメラ10の焦点距離である。
ここで、無限遠点(FOE)の定義式 (xF, yF) = (fVx/Vz, fVy/Vz)を用いると、以下の数式2が成立する。なお、無限遠点(FOE)とは、図3に示すように、放射状に広がる静止物体の特徴点のオプティカルフローの中心点を示すものである。
数式2で示される数式を、特徴点の数ぶんの連立方程式として解くことで、ビデオカメラ10の並進移動の方向を表す無限遠点(xF, yF)、ならびにビデオカメラ10の回転移動によって生成されるオプティカルフローの成分を除去したオプティカルフロー (ux, uy) を求めることができる。
By solving the mathematical formula 2 as a number of simultaneous equations of feature points, the infinity point (x F , y F ) representing the direction of translation of the
なお、上記の数式1、数式2は静止点に対してのみ成立するものであり、移動点やアウトライア(誤対応により誤って算出された外れ値)を持つ点では、式の誤差が大きな値をとると考えられる。このため、無限遠点(xF, yF)及びオプティカルフロー (ux, uy)を求める際には、ロバスト推定による解法を用いることが望ましい。ロバスト推定として、例えば、M推定(参考文献:P. J. Huber and E. M. Ronchetti, "Robust Statistics, 2nd Edition", Wiley Interscience, 2009.)の適応が考えられる。 Note that the above formulas 1 and 2 are established only for a stationary point, and the values of the formulas have a large error at points having moving points and outliers (outliers that are erroneously calculated due to incorrect correspondence). It is thought to take. For this reason, it is desirable to use a solution method based on robust estimation when obtaining the infinite point (x F , y F ) and the optical flow (u x , u y ). As robust estimation, for example, M estimation (reference: PJ Huber and EM Ronchetti, “Robust Statistics, 2nd Edition”, Wiley Interscience, 2009.) can be considered.
あるいは、ビデオカメラ10の運動パラメタ(カメラの回転移動により生じた成分を除去したオプティカルフロー)は、車両に取り付けられた車速センサやヨーレートセンサなどの検出値を用いて、算出することも可能である。また、無限遠点は、公知のように、RANSAC法やクラスタリング法などの手法により、特徴点における移動点と静止点とを分離し、分離した静止点のオプティカルフローから求めるようにしても良い。 Alternatively, the motion parameter of the video camera 10 (optical flow from which a component generated by the rotational movement of the camera is removed) can be calculated using detection values of a vehicle speed sensor or a yaw rate sensor attached to the vehicle. . Further, as is well known, the infinite point may be obtained from the optical flow of the separated stationary point by separating the moving point and stationary point at the feature point by a technique such as RANSAC method or clustering method.
ステップS120の処理により、ビデオカメラ10の並進移動の方向を表す無限遠点(xF, yF)、及びビデオカメラ10の回転運動によって生じた成分を除去したオプティカルフロー(ux, uy)が求まると、次に、ステップS130において、特徴点のフィルタリング処理を行う。
By the process of step S120, the optical flow (u x , u y ) from which the component generated by the rotational movement of the
この特徴点のフィルタリング処理では、まず、カメラの回転運動により生じるオプティカルフローの成分を除去したオプティカルフロー(ux, uy)を使って、特徴点ごとに相対的進入角度を算出する。 In the filtering process of feature points, first, a relative approach angle is calculated for each feature point using an optical flow (u x , u y ) from which an optical flow component generated by the rotational motion of the camera is removed.
この相対的進入角度について、図4(a),(b)を参照して説明する。 This relative approach angle is demonstrated with reference to Fig.4 (a), (b).
図4(a)に示すように、ビデオカメラ10の前方を横切ろうとする進路横断移動物体があった場合、その進路横断移動物体の運動は、車両から見ると、つまり並進運動するビデオカメラ10の座標系で表現すると、ビデオカメラ10の進行方向に対してある角度を持った運動として記述することができる。本実施形態では、図4(b)に示すように、この角度を「相対的進入角度」と呼ぶこととする。
As shown in FIG. 4 (a), when there is a crossing path moving object that tries to cross the front of the
静止している点は速度0の移動物体と見なすことができ、相対的進入角度は0度となる。一方、図4(a),(b)に示すように、並進移動するビデオカメラ10の進路を横断する進路横断移動物体の相対的進入角度は0度より大きくなるため、適切な閾値θthを設定することで、静止点との区別が可能となる。
A stationary point can be regarded as a moving object with zero speed, and the relative approach angle is 0 degree. On the other hand, FIG. 4 (a), the (b), the order translational relative angle of approach the cross track moving objects across the path of
例えば、車両が低速で移動する場合は、高速で移動する場合と比べて、相対的進入角度が大きくなる。従って、相対的進入角度は、とりわけ低速走行時において、進路横断移動物体と静止物体とを分離するよい指標であると言える。ただし、相対的進入角度の算出精度は、ビデオカメラ10の解像度によって変化するので、これを踏まえて、進路横断移動物体を判別するための閾値を設定することが好ましい。
For example, when the vehicle moves at a low speed, the relative approach angle becomes larger than when the vehicle moves at a high speed. Therefore, it can be said that the relative approach angle is a good index for separating the moving object crossing the course and the stationary object, particularly when traveling at a low speed. However, since the calculation accuracy of the relative approach angle changes depending on the resolution of the
一例として、相対的進入角度の閾値は対象とする車両の速度ならびに検出対象の速度から、以下のように設定することができる。例えば、対象とする車両速度の上限をVmax、道路を直角に横断する検出対象の速度の下限をWminとした場合、相対的進入角度の閾値はarctan(Wmin/Vmax)を下回るように設定すればよい。例えば、Vmax=20km/h, Wmin=4km/hの時、arctan(Wmin/Vmax)=11.3°程度であるので、相対的進入角度の閾値を10°と設定することは合理的である。但し、この閾値は、進路横断移動物体の検出を行う車両速度の上限や、相対的進入角度の算出精度などから、さらに小さい角度に設定しても良い。 As an example, the threshold of the relative approach angle can be set as follows from the speed of the target vehicle and the speed of the detection target. For example, if the upper limit of the target vehicle speed is Vmax and the lower limit of the detection target speed that crosses the road at right angles is Wmin, the relative approach angle threshold can be set to be less than arctan (Wmin / Vmax). Good. For example, when Vmax = 20 km / h and Wmin = 4 km / h, since arctan (Wmin / Vmax) = 11.3 °, it is reasonable to set the relative approach angle threshold to 10 °. However, this threshold value may be set to a smaller angle from the upper limit of the vehicle speed at which the crossing path moving object is detected, the calculation accuracy of the relative approach angle, and the like.
次に、ビデオカメラ10によって撮影された画像から、各特徴点の相対的進入角度を求める方法について説明する。図5に示すように、進路横断移動物体をビデオカメラ10で撮影すると、その進路横断移動物体を透視投影した画像が得られる。なお、ビデオカメラ10の撮影画像にレンズ歪みによる影響がある場合には、正しく透視投影された画像とならないため、レンズ歪みの影響を除去するための歪み補正処理を実行することが望ましい。
Next, a method for obtaining the relative approach angle of each feature point from an image taken by the
進路横断移動物体の運動を剛体の並進運動と仮定すると、進路横断移動物体のオプティカルフローは、消失点と呼ばれる点を中心に放射状に広がる方向を持つ。この消失点は、進路横断移動物体とビデオカメラ10が無限の時間等速直線運動を継続した結果、進路横断移動物体が消失する無限遠点を示している。
Assuming that the movement of the crossing path moving object is a rigid translational motion, the optical flow of the crossing path moving object has a direction that spreads radially around a point called the vanishing point. This vanishing point indicates an infinite point where the moving object crossing the course disappears as a result of the constant-velocity linear motion of the moving object and the
そして、図5から明らかなように、車両から見た進路横断移動物体の実際の動きベクトル(3次元空間における動きベクトル)は、その進路横断移動物体を撮影した画像における、進路横断移動物体の消失点とビデオカメラ10の焦点とを結んだ線分と平行になる。このため、車両の進行方向に対応する、FOEとカメラ焦点とを結ぶ線分と、車両から見た移動物体の実際の動きベクトルの向きに対応する、各特徴点の消失点とカメラ焦点とを結ぶ線分がなす角度が、車両の進行方向に対する各特徴点の相対的進入角度を表すことになる。換言すれば、進路横断移動物体の消失点とカメラ焦点とFOEとを頂点とする三角形の焦点側の角度は、進路横断移動物体の相対的進入角度を表すことになる。
As is clear from FIG. 5, the actual motion vector (motion vector in the three-dimensional space) of the crossing path moving object viewed from the vehicle is the disappearance of the crossing path moving object in the image of the crossing path moving object. It is parallel to the line segment connecting the point and the focal point of the
ビデオカメラ10の焦点距離fは既知であるため、FOEと進路横断移動物体の消失点を求めることによって、相対的進入角度を求めることが可能となる。相対的進入角度は数式3で与えられる。
なお、PFはビデオカメラ焦点を原点とした場合のFOE座標(xF, yF, f)、P∞は消失点座標(x∞, y∞, f)である。 P F is the FOE coordinates (x F , y F , f) when the video camera focus is the origin, and P ∞ is the vanishing point coordinates (x ∞ , y ∞ , f).
FOE座標(xF, yF, f)は、ステップS120において算出されている。消失点座標(x∞, y∞, f)は、以下のようにして算出することができる。 The FOE coordinates (x F , y F , f) are calculated in step S120. The vanishing point coordinates (x ∞ , y ∞ , f) can be calculated as follows.
まず、図5に示すように、ビデオカメラ10によって撮影された画像において、y=yFの直線を地平線と呼ぶこととする。傾きのない平坦な地面を想定すると、FOE及び消失点は地平線上に存在することになる。このため、消失点は、回転成分の除去されたオプティカルフローの延長線と地平線との交点となる。従って、各特徴点ごとに、その座標とオプティカルフロー(ux, uy)から、消失点を求めることができる。このように、簡易的に各特徴点の消失点を定めることにより、消失点を算出するための演算量を低減することができる。
First, as shown in FIG. 5, in the image photographed by the
ただし、各特徴点の消失点は、他の手法によってより高精度に算出しても良い。例えば、各特徴点のオプティカルフローを延長した延長線の交点をそれぞれ求め、近接した位置に存在する交点をグループ化し、そのグループ化した交点位置の中心とみなせる位置を消失点として定めても良い。 However, the vanishing point of each feature point may be calculated with higher accuracy by another method. For example, intersections of extension lines obtained by extending the optical flow of each feature point may be obtained, the intersections existing at close positions may be grouped, and a position that can be regarded as the center of the grouped intersection position may be determined as a vanishing point.
このようにして特徴点ごとに相対的進入角度を算出すると、次に、ステップS130において、車両の進路を横切る進路横断移動物体の候補点となる特徴点と、それ以外の特徴点とを分離する、フィルタリング処理を実行する。 Once the relative approach angle is calculated for each feature point in this way, in step S130, the feature point that is a candidate point for the cross-route moving object that crosses the course of the vehicle is separated from the other feature points. Execute the filtering process.
本実施形態においては、車両の進路を横切る進路横断移動物体を検知対象とする。このような進路横断移動物体は、車両が進行方向に移動している場合には、時間の経過とともに、Z軸(カメラの光軸)方向においてビデオカメラ10に接近する接近移動物体となる。
In the present embodiment, a moving object that crosses the course of the vehicle that crosses the course of the vehicle is the detection target. When the vehicle is moving in the traveling direction, such a cross-track moving object becomes an approaching moving object that approaches the
ここで、接近移動物体は、図6(a)〜(c)に示すように、3種類に分類することが出来る。図6(a)に示すpre-crossing(横断前移動物体)は、ビデオカメラ10の予測進路を表す直線を横断する前の状態の移動物体を表す。図6(b)に示すpost-crossing(横断後移動物体)は、ビデオカメラ10の予測進路を表す直線を横断した後の状態の移動物体を表す。図6(c)に示すnever-crossing(非横断移動物体)は、ビデオカメラ10の予測進路を表す直線を横断しない状態の移動物体を表す。
Here, the approaching moving object can be classified into three types as shown in FIGS. A pre-crossing (moving object before crossing) shown in FIG. 6A represents a moving object in a state before crossing a straight line representing a predicted course of the
本実施形態では、pre-crossingとpost-crossingを進路横断移動物体と定義し、検出の対象とする。never-crossingを検出対象としない理由は、例えば車道の横の歩道の歩行者などがnever-crossingに当てはまる可能性があり、この対象に対して運転者に警報を与える必要性は低いと考えられるからである。なお、相対的進入角度が非零である限りにおいて、never-crossingを検出対象に含めることも可能ではある。 In the present embodiment, pre-crossing and post-crossing are defined as objects that cross the course and are set as detection targets. The reason why never-crossing is not detected is, for example, the possibility that pedestrians on the sidewalk next to the roadway may apply to never-crossing, and it is considered that there is little need to alert the driver to this target. Because. As long as the relative approach angle is non-zero, never-crossing can be included in the detection target.
図6(a)〜(c)に示す3状態の移動物体は、ビデオカメラ10によって図7(a)〜(c)のように画像に透視投影される。ここで、図7(a)に示すpre-crossingの状態は、FOE座標(x座標:xF)、消失点座標(x座標:x∞)、特徴点の座標(x座標:x)、ならびに相対的進入角度θに関して、以下の数式4に示す関係が成り立つ。
また、図7(b)に示すpost-crossingの状態は、FOE座標、消失点座標、特徴点の座標、ならびに相対的進入角度に関して、以下の数式5に示す関係が成り立つ。
さらに、図7(c)に示すnever-crossingの状態は、FOE座標、消失点座標、特徴点の座標、ならびに相対的進入角度に関して、以下の数式6に示す関係が成り立つ。
これらの関係を利用することで、FOE座標、消失点座標、特徴点の画像座標、及び相対的進入角度から、各特徴点に関して、3状態の移動物体の内、いずれの状態の移動物体を示すものであるかを区別することが可能となる。ステップS130のフィルタリング処理では、pre-crossingまたはpost-crossingと分類された特徴点を、進路横断移動物体を示す候補点と判定する。この候補点は、次に述べるステップS140のグルーピング処理の入力(対象)となる。 By using these relationships, the moving object in any of the three states is indicated for each feature point from the FOE coordinates, vanishing point coordinates, image coordinates of the feature points, and relative approach angles. It is possible to distinguish whether it is a thing. In the filtering process of step S130, the feature points classified as pre-crossing or post-crossing are determined as candidate points indicating a crossing path moving object. This candidate point becomes an input (target) for the grouping process in step S140 described below.
ステップS140では、進路横断移動物体を示す候補点となった特徴点を、種々の条件で同一の進路横断移動物体を示すとみなし得る特徴点を抽出して、グルーピングする。進路横断物体の候補点は、それだけではただの点の集まりに過ぎないため、進路横断移動物体に関する情報(個数、相対的進入角度、衝突時間など)が分かりづらい。また、オプティカルフローには、アウトライアと呼ばれる誤対応により誤って算出された外れ値が混入することが少なからずある。そこで候補点を移動物体ごとにまとめ、かつアウトライアを除去する目的でグルーピングを施すのである。 In step S140, feature points that can be regarded as indicating the same crossing path moving object under various conditions are extracted and grouped from the feature points that are candidate points indicating the crossing path moving object. Since the candidate points for the path crossing object are just a collection of points, it is difficult to understand information (number, relative approach angle, collision time, etc.) regarding the moving object crossing the path. In addition, optical flows are often mixed with outliers that are erroneously calculated due to an erroneous correspondence called an outlier. Therefore, grouping is performed for the purpose of collecting candidate points for each moving object and removing outliers.
グルーピングを行う第1の条件は、特徴点が互いに近傍に存在することである。この近傍判定は、図8(a)に示すように、候補点である特徴点ごとに、各特徴点を中心とする正方の領域を与え、これらの正方領域の重なりが生じる特徴点は、互いに近傍にあるとみなし、グループ化する。一方、正方領域が他の特徴点の正方領域と重なりを持たない孤立点は、アウトライアとみなし、グループ化の対象から除外する。 The first condition for performing grouping is that feature points exist in the vicinity of each other. In this neighborhood determination, as shown in FIG. 8A, for each feature point that is a candidate point, a square region centered on each feature point is given, and the feature points where these square regions overlap each other are Group as if it were in the vicinity. On the other hand, isolated points whose square area does not overlap with the square areas of other feature points are regarded as outliers and excluded from grouping targets.
グルーピングを行う第2の条件は、相対的進入角度が実質的に一致することである。図5に示すように、同一移動物体の特徴点は、消失点を共有し、その結果、相対的進入角度が実質的に一致するためである。 The second condition for performing grouping is that the relative approach angles substantially match. As shown in FIG. 5, the feature points of the same moving object share the vanishing point, and as a result, the relative approach angles substantially match.
この相対的進入角度の一致判定では、図7(b)に示すように、近傍判定されたグループごとに消失点座標の分布状態を求め、その分布状態から、同一の消失点を共有するとみなされる特徴点と、同一の消失点を共有するとはみなされない特徴点とを統計的に区分けする。その他にも、例えば、消失点座標の分布位置から真の消失点位置を推定し、その消失点と特徴点を結ぶ直線とオプティカルフローとの角度誤差などに基づき、同一の消失点を共有する特徴点と、同一の消失点を共有しない特徴点とに区分けしても良い。そして、同一の消失点を共有しない特徴点は、例えばアウトライアによる特徴点であり、グループ化の対象から除外する。一方、同一の消失点を共有する特徴点は、相対的進入角度が一致するものと判定する。 In this relative approach angle coincidence determination, as shown in FIG. 7B, the distribution state of vanishing point coordinates is obtained for each group determined to be close, and it is considered that the same vanishing point is shared from the distribution state. Statistically divide feature points from feature points that are not considered to share the same vanishing point. In addition, for example, a feature that estimates the true vanishing point position from the vanishing point coordinate distribution position and shares the same vanishing point based on the angle error between the optical flow and the straight line connecting the vanishing point and the feature point. The points may be divided into feature points that do not share the same vanishing point. And the feature point which does not share the same vanishing point is a feature point by an outlier, for example, and is excluded from the grouping target. On the other hand, it is determined that the feature points sharing the same vanishing point have the same relative approach angle.
グルーピングを行う第3の条件は、各特徴点の衝突時間Tが類似していることである。ここで、衝突時間Tは、ビデオカメラ10の前方(Z>0)に存在する物体が、画像平面に到達するまでの時間(実質的に、車両と衝突するまでの時間)として定義される。この衝突時間Tは、ビデオカメラ10の回転移動により生じるオプティカルフローの成分が除去されたオプティカルフロー(ux, uy)及び消失点座標( x∞, y∞)を用いて、下記の数式7により算出することができる。
すなわち、数式7により、特徴点ごとに衝突時間Tを求めることが可能である。具体的には、上述した第1、2の条件によりグループ化された特徴点ごとに、消失点座標、特徴点座標、オプティカルフロー(ux, uy)を数式7に代入して、衝突時間Tを算出する。なお、衝突時間Tは、オプティカルフローの算出誤差を考慮し、ある範囲を持った時間として算出される。 That is, it is possible to obtain the collision time T for each feature point using Equation 7. Specifically, for each feature point grouped according to the first and second conditions described above, the vanishing point coordinates, the feature point coordinates, and the optical flow (u x , u y ) are substituted into Equation 7 to determine the collision time. T is calculated. The collision time T is calculated as a time having a certain range in consideration of an optical flow calculation error.
ここで、同一の移動物体の衝突時間Tは、その物体の部位により多少のずれはあるものの、道路上の一般的な検出対象(人、自転車、車両など)を考慮する限り、類似していると考えるのが自然である。従って、条件1,2によりグループ化された特徴点を対象として、各特徴点ごとに求めた衝突時間Tに関して、図8(c)に示すように、衝突時間Tの類似判定を行う。すなわち、あらかじめ設定した時間幅ΔTのエラーバーを与え、エラーバーの範囲で衝突時間Tが一致すれば衝突時間Tが類似すると判定し、エラーバーの範囲で衝突時間Tが一致しない特徴点があれば、グループから除外する。 Here, the collision time T of the same moving object is similar as long as general detection targets (people, bicycles, vehicles, etc.) on the road are taken into consideration, although there are some deviations depending on the part of the object. It is natural to think. Therefore, the similarity determination of the collision time T is performed on the characteristic points grouped according to the conditions 1 and 2 with respect to the collision time T obtained for each characteristic point as shown in FIG. That is, given an error bar with a preset time width ΔT, if the collision time T matches within the error bar range, it is determined that the collision time T is similar, and there is a feature point where the collision time T does not match within the error bar range. Exclude it from the group.
このように、本実施形態では、グルーピングの条件として複数の条件を用いているので、アウトライアの除去をより確実に行うことができる。さらに、進路横断移動物体の衝突時間Tが明らかとなることにより、衝突時間の長短から、そのときの状況の緊急度合なども判別することが可能になる。 Thus, in this embodiment, since a plurality of conditions are used as the grouping conditions, the outlier can be removed more reliably. Furthermore, since the collision time T of the moving object crossing the path becomes clear, it is possible to determine the degree of emergency of the situation at that time from the length of the collision time.
続くステップS150では、ステップS140のグルーピング処理によりグループ化された特徴点があるか否かを判定する。この判定処理において、グループ化された特徴点があると判定された場合には、車両の進路を横切る進路横断移動物体があるとみなし、ステップS160の処理に進む。一方、グループ化された特徴点がないと判定された場合には、再びステップS100から上述した処理を繰り返す。 In the subsequent step S150, it is determined whether or not there are feature points grouped by the grouping process in step S140. In this determination process, when it is determined that there are grouped feature points, it is considered that there is a path crossing moving object that crosses the path of the vehicle, and the process proceeds to step S160. On the other hand, if it is determined that there are no grouped feature points, the above-described processing is repeated again from step S100.
ステップS160では、制御装置30に対して、運転者に対する警報や、車両において自動的に制動を行う制御などを実行するように指示され、それにより、制御装置30は、警報や車両の制御を実行する。この警報処理において、検出されたグループの個数にしたがって、警報の態様を変化させてもよい。例えば、検出された進路横断移動物体の個数分だけ、警報音を鳴らしてもよい(3個の進路横断移動物体が検出された場合、「ピピピ、間、ピピピ、間、…」、と鳴らすなど。)。また、警報の煩わしさ回避のために警報音回数に上限を設けてもよい。あるいは、検出された進路横断移動物体の個数によって、警報音の周波数を変化させても良い。これらにより、運転者に対して、進路横断移動物体が存在するということだけでなく、その進路横断移動物体の数に関する情報も提供することができる。
In step S160, the
また、同一グループの特徴点の衝突時間Tの平均値を算出し、これを、移動物体の衝突時間として、その衝突時間の長短によって警報の態様を変化させても良い。例えば、モニタによる警報装置の場合、衝突時間に応じてモニタ上の進路横断物体を囲う矩形の点滅速度を変化させたりしても良い。これにより、車両の運転者に対して、移動物体と衝突する可能性がある時間に関する情報も提供することができる。 Further, the average value of the collision times T of the feature points of the same group may be calculated, and this may be used as the collision time of the moving object, and the warning mode may be changed depending on the length of the collision time. For example, in the case of an alarm device using a monitor, the blinking speed of a rectangle surrounding a path crossing object on the monitor may be changed according to the collision time. Thereby, it is also possible to provide the vehicle driver with information regarding the time when there is a possibility of collision with a moving object.
10 ビデオカメラ
20 画像処理ECU
30 制御装置
100 移動体検出装置
10
30
Claims (9)
前記撮影手段によって撮影された画像において、特徴点を抽出するとともに、抽出された各特徴点のオプティカルフローを算出するオプティカルフロー算出手段と、
前記オプティカルフロー算出手段によって算出された各特徴点のオプティカルフローから、当該オプティカルフローの延長線上に存在する各特徴点の消失点を定める消失点算出手段と、
前記撮影手段によって撮影された画像における無限遠点と前記撮像手段の焦点とを結ぶ線分と、前記各特徴点の消失点と前記撮像手段の焦点とを結ぶ線分がなす角度を、前記車両の進行方向に対する各特徴点の相対的進入角度として算出する角度算出手段と、
前記角度算出手段によって算出された相対的進入角度が閾値以上である場合に、対応する特徴点により示される移動物体が、前記車両の進行方向を横切る移動物体であると判定する判定手段と、を備えることを特徴とする移動物体検出装置。 Photographing means mounted on the vehicle so as to photograph the traveling direction of the vehicle;
In the image photographed by the photographing means, the feature point is extracted, and an optical flow calculating means for calculating the optical flow of each extracted feature point;
From the optical flow of each feature point calculated by the optical flow calculation means, vanishing point calculation means for determining the vanishing point of each feature point existing on the extension line of the optical flow;
An angle formed by a line segment connecting the infinity point in the image captured by the image capturing unit and the focal point of the imaging unit, and a line segment connecting the vanishing point of each feature point and the focal point of the imaging unit is defined as the vehicle. Angle calculating means for calculating the relative approach angle of each feature point with respect to the traveling direction of
Determining means for determining that the moving object indicated by the corresponding feature point is a moving object crossing the traveling direction of the vehicle when the relative approach angle calculated by the angle calculating means is equal to or greater than a threshold; A moving object detection device comprising:
前記判定手段は、グルーピングされた特徴点によって示される移動物体に関して、前記車両の進行方向を横切る移動物体であるか否かを判定することを特徴とする請求項1又は2に記載の移動物体検出装置。 At least grouping means for grouping feature points that share the same vanishing point as feature points indicating the same moving object from the position of the vanishing point of each feature point calculated by the vanishing point calculating means,
The moving object detection according to claim 1 or 2, wherein the determination unit determines whether or not the moving object indicated by the grouped feature point is a moving object that crosses a traveling direction of the vehicle. apparatus.
前記グルーピング手段は、前記衝突時間が所定の時間幅に属する特徴点同士を、同じ移動物体を示す特徴点としてグルーピングすることを特徴とする請求項3に記載の移動物体検出装置。 Collision time calculation means for calculating the collision time for each feature point until the distance between the vehicle and each feature point in the traveling direction of the vehicle becomes zero,
The moving object detection apparatus according to claim 3, wherein the grouping unit groups the characteristic points belonging to the collision time within a predetermined time width as characteristic points indicating the same moving object.
前記警報手段は、前記判定手段によって前記車両の進行方向を横切る移動物体と判定された移動物体の数に応じて、警報の態様を変化させることを特徴とする請求項3乃至5のいずれかに記載の移動物体検出装置。 In the determination means, when a determination result with a moving object crossing the traveling direction of the vehicle is obtained, the alarm means for issuing an alarm to the driver of the vehicle,
6. The alarm unit according to claim 3, wherein the alarm unit changes an alarm mode according to the number of moving objects determined by the determination unit as moving objects crossing the traveling direction of the vehicle. The moving object detection device described.
前記警報手段は、前記衝突時間判定手段により算出された衝突時間の長短に応じて、警報の態様を変化させることを特徴とする請求項4又は5に記載の移動物体検出装置。 In the determination means, when a determination result with a moving object crossing the traveling direction of the vehicle is obtained, the alarm means for issuing an alarm to the driver of the vehicle,
The moving object detection apparatus according to claim 4 or 5, wherein the warning unit changes a warning mode according to the length of the collision time calculated by the collision time determination unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011004358A JP5482672B2 (en) | 2011-01-12 | 2011-01-12 | Moving object detection device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011004358A JP5482672B2 (en) | 2011-01-12 | 2011-01-12 | Moving object detection device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012146146A JP2012146146A (en) | 2012-08-02 |
JP5482672B2 true JP5482672B2 (en) | 2014-05-07 |
Family
ID=46789646
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011004358A Active JP5482672B2 (en) | 2011-01-12 | 2011-01-12 | Moving object detection device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5482672B2 (en) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5870908B2 (en) | 2012-12-11 | 2016-03-01 | 株式会社デンソー | Vehicle collision determination device |
EP2757527B1 (en) * | 2013-01-16 | 2018-12-12 | Honda Research Institute Europe GmbH | System and method for distorted camera image correction |
JP2016148512A (en) * | 2013-06-11 | 2016-08-18 | ヤマハ発動機株式会社 | Monocular motion stereo distance estimation method and monocular motion stereo distance estimation device |
WO2015170706A1 (en) * | 2014-05-07 | 2015-11-12 | 日本電産エレシス株式会社 | Traveling body detection method and program |
CN104408743A (en) * | 2014-11-05 | 2015-03-11 | 百度在线网络技术(北京)有限公司 | Image segmentation method and device |
JP6477453B2 (en) | 2015-12-17 | 2019-03-06 | 株式会社デンソー | Object detection device and object detection method |
JP6504042B2 (en) | 2015-12-17 | 2019-04-24 | 株式会社デンソー | Control device, control method |
JP6587006B2 (en) * | 2018-03-14 | 2019-10-09 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd | Moving body detection device, control device, moving body, moving body detection method, and program |
WO2022160101A1 (en) * | 2021-01-26 | 2022-08-04 | 深圳市大疆创新科技有限公司 | Orientation estimation method and apparatus, movable platform, and readable storage medium |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10269362A (en) * | 1997-03-21 | 1998-10-09 | Omron Corp | Object recognition method and device therefor |
JP4106163B2 (en) * | 1999-09-27 | 2008-06-25 | 株式会社東芝 | Obstacle detection apparatus and method |
JP4539348B2 (en) * | 2004-09-07 | 2010-09-08 | 日産自動車株式会社 | Collision time calculation device and obstacle detection device |
JP4610305B2 (en) * | 2004-11-08 | 2011-01-12 | アルパイン株式会社 | Alarm generating method and alarm generating device |
JP2008098989A (en) * | 2006-10-12 | 2008-04-24 | Stanley Electric Co Ltd | Solid-state imaging element |
JP2008172441A (en) * | 2007-01-10 | 2008-07-24 | Omron Corp | Detection device, method, and program |
JP4919036B2 (en) * | 2007-01-30 | 2012-04-18 | アイシン精機株式会社 | Moving object recognition device |
JP2009236492A (en) * | 2008-03-25 | 2009-10-15 | Panasonic Electric Works Co Ltd | Obstacle monitoring device for vehicle |
JPWO2010109831A1 (en) * | 2009-03-23 | 2012-09-27 | コニカミノルタホールディングス株式会社 | Drive recorder |
-
2011
- 2011-01-12 JP JP2011004358A patent/JP5482672B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2012146146A (en) | 2012-08-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5482672B2 (en) | Moving object detection device | |
JP5944781B2 (en) | Mobile object recognition system, mobile object recognition program, and mobile object recognition method | |
EP3258214B1 (en) | Object detection device | |
WO2019116958A1 (en) | Onboard environment recognition device | |
JP2021192303A (en) | Rider support system and method | |
JP5089545B2 (en) | Road boundary detection and judgment device | |
JP6787157B2 (en) | Vehicle control device | |
US9704047B2 (en) | Moving object recognition apparatus | |
CN111369831A (en) | Road driving danger early warning method, device and equipment | |
JP5145585B2 (en) | Target detection device | |
JP6450294B2 (en) | Object detection apparatus, object detection method, and program | |
JP2007300181A (en) | Periphery monitoring apparatus and periphery monitoring method and program thereof | |
JP6547785B2 (en) | Target detection device | |
JP6315308B2 (en) | Control object identification device, mobile device control system, and control object recognition program | |
JP6816401B2 (en) | Image processing device, imaging device, mobile device control system, image processing method, and program | |
WO2019230123A1 (en) | Detection device and detection system | |
JP2008117073A (en) | Interruption vehicle detection device | |
Lim et al. | Real-time forward collision warning system using nested Kalman filter for monocular camera | |
JP2009245042A (en) | Traffic flow measurement device and program | |
JP3651419B2 (en) | Environment recognition device | |
JP2019207655A (en) | Detection device and detection system | |
Kilicarslan et al. | Direct vehicle collision detection from motion in driving video | |
JP2006004188A (en) | Obstacle recognition method and obstacle recognition device | |
JP7454685B2 (en) | Detection of debris in vehicle travel paths | |
JP4703963B2 (en) | Outside-of-vehicle monitoring device and travel control device equipped with this out-of-vehicle monitoring device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130307 |
|
TRDD | Decision of grant or rejection written | ||
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140116 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140121 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140203 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5482672 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |