JP5482672B2 - Moving object detection device - Google Patents

Moving object detection device Download PDF

Info

Publication number
JP5482672B2
JP5482672B2 JP2011004358A JP2011004358A JP5482672B2 JP 5482672 B2 JP5482672 B2 JP 5482672B2 JP 2011004358 A JP2011004358 A JP 2011004358A JP 2011004358 A JP2011004358 A JP 2011004358A JP 5482672 B2 JP5482672 B2 JP 5482672B2
Authority
JP
Japan
Prior art keywords
moving object
vehicle
point
crossing
traveling direction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011004358A
Other languages
Japanese (ja)
Other versions
JP2012146146A (en
Inventor
育郎 佐藤
千晴 山野
博彦 柳川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Denso IT Laboratory Inc
Original Assignee
Denso Corp
Denso IT Laboratory Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, Denso IT Laboratory Inc filed Critical Denso Corp
Priority to JP2011004358A priority Critical patent/JP5482672B2/en
Publication of JP2012146146A publication Critical patent/JP2012146146A/en
Application granted granted Critical
Publication of JP5482672B2 publication Critical patent/JP5482672B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、車両に搭載された撮影手段を用いて、車両の進行方向を横切る移動物体を検出する移動物体検出装置に関する。   The present invention relates to a moving object detection apparatus that detects a moving object that crosses a traveling direction of a vehicle using an imaging unit mounted on the vehicle.

公道において、歩行者や自転車などが、車両の進路を横断する際に発生する死傷事故の件数が、交通死傷事故全体の件数の中で大きな割合を占めていることが知られている。   It is known that the number of fatalities and injuries that occur when pedestrians and bicycles cross the course of vehicles on public roads account for a large percentage of the total number of traffic casualties.

そのため、例えば特許文献1には、画像入力部を搭載した車両が移動している状況下で、その移動方向に対して横切るように移動する画像中の物体を検出できるようにした装置が開示されている。   Therefore, for example, Patent Document 1 discloses an apparatus that can detect an object in an image that moves so as to cross a moving direction in a situation where a vehicle equipped with an image input unit is moving. ing.

この特許文献1に記載された装置では、入力された動画像から、画像上での速度ベクトルの分布状態を示すオプティカルフローを算出し、そのオプティカルフローから水平方向の速度ベクトル成分の大きさの最小値を求めて、無限遠点方向をわり出す。そして、その無限遠点方向を基準にして、オプティカルフローの水平方向の速度ベクトル成分の極性から移動物体を検出する。つまり、特許文献1の記載の装置は、車両の走行方向を横切ろうとしている移動物体の速度ベクトルの水平方向の成分は、車両の自己運動によって生じる背景の速度ベクトルの水平方向成分と極性が異なることを利用し、車両の走行方向を横切ろうとしている移動物体を検出するのである。   In the apparatus described in Patent Document 1, an optical flow indicating a distribution state of velocity vectors on an image is calculated from an input moving image, and the minimum velocity vector component in the horizontal direction is calculated from the optical flow. Find the value and find the direction of the infinity point. Then, the moving object is detected from the polarity of the velocity vector component in the horizontal direction of the optical flow with reference to the direction of the infinity point. That is, in the apparatus described in Patent Document 1, the horizontal component of the velocity vector of the moving object that is going to cross the traveling direction of the vehicle has the same polarity as that of the horizontal component of the background velocity vector generated by the vehicle's self-motion. The difference is used to detect a moving object that is about to cross the traveling direction of the vehicle.

また、先行車両や対向車両などは除外しつつ、歩行者、路側構造物、停止車両、自車に対して横断方向に走行している車両などを検出するようにした装置が、特許文献2に記載されている。   Further, Patent Document 2 discloses an apparatus that detects a pedestrian, a roadside structure, a stopped vehicle, a vehicle that is traveling in a transverse direction with respect to the host vehicle, and the like, excluding preceding vehicles and oncoming vehicles. Have been described.

この装置は、カメラとレーザレーダとを備え、まずレーダによって検出されるオブジェクトの位置及び速度に基づき、自車両前方の処理対象となるオブジェクトを抽出する。そして、抽出されたオブジェクトを対象として、カメラによって撮像された画像において、そのオブジェクトの特徴点の動きベクトルと、理論上の背景ベクトルとの向き及び大きさを比較することにより、動きベクトルが移動物体又は静止物体のいずれによるものかを検出する。   This apparatus includes a camera and a laser radar, and first extracts an object to be processed in front of the host vehicle based on the position and speed of the object detected by the radar. Then, by comparing the direction and size of the motion vector of the feature point of the object with the theoretical background vector in the image captured by the camera for the extracted object, the motion vector is moved. Alternatively, it is detected whether the object is a stationary object.

特開平7−249127号公報JP 7-249127 A 特開2008−171141号公報JP 2008-171141 A

特許文献1に記載された装置では、自車両の走行方向を横切ろうとしている移動物体が、自車両の進行方向に沿ったラインを超えてしまうと、その移動物体の検出が非常に困難になるという問題がある。これは、移動物体が、自車両の進行方向に沿ったライン(自車両と無限遠点とを結んだライン)を超えた後は、移動物体の速度ベクトルの水平方向成分と、背景の速度ベクトルの水平方向成分との極性が同じになってしまうためである。従って、移動物体が、未だ自車両の進行方向の近傍にいるにも係らず、その移動物体を検出することができない事態が発生する虞が生じる。   In the apparatus described in Patent Document 1, if a moving object that is going to cross the traveling direction of the host vehicle exceeds a line along the traveling direction of the host vehicle, it is very difficult to detect the moving object. There is a problem of becoming. This is because the horizontal component of the velocity vector of the moving object and the background velocity vector after the moving object exceeds the line along the traveling direction of the own vehicle (the line connecting the own vehicle and the infinity point). This is because the polarity with respect to the horizontal direction component becomes the same. Therefore, there is a possibility that a situation may occur in which the moving object cannot be detected even though the moving object is still in the vicinity of the traveling direction of the host vehicle.

また、特許文献2に記載された装置では、レーザレーダにより、自車両の進行方向前方に存在し、相対速度が所定値以下のオブジェクトを処理対象として抽出するため、歩行者等を比較的精度良く検出することができるが、カメラに加えて、レーザレーダが必要となるという問題がある。   Further, in the apparatus described in Patent Document 2, an object having a relative speed of a predetermined value or less is extracted as a processing target by a laser radar in front of the traveling direction of the host vehicle. Although it can be detected, there is a problem that a laser radar is required in addition to the camera.

本願発明は、上述した点に鑑みてなされたものであり、レーダを用いることなく、車両に搭載された撮影手段によって撮影された画像から、車両の進行方向を横切る移動物体を精度良く検出することが可能な移動物体検出装置を提供することを目的とする。   The present invention has been made in view of the above points, and can accurately detect a moving object that crosses the traveling direction of a vehicle from an image captured by an imaging unit mounted on the vehicle without using a radar. It is an object of the present invention to provide a moving object detection device capable of performing the above.

上記目的を達成するために、請求項1に記載の移動物体検出装置は、
車両の進行方向を撮影するように、車両に搭載される撮影手段と、
撮影手段によって撮影された画像において、特徴点を抽出するとともに、抽出された各特徴点のオプティカルフローを算出するオプティカルフロー算出手段と、
オプティカルフロー算出手段によって算出された各特徴点のオプティカルフローから、当該オプティカルフローの延長線上に存在する各特徴点の消失点を定める消失点算出手段と、
撮影手段によって撮影された画像における無限遠点と撮像手段の焦点とを結ぶ線分と、各特徴点の消失点と撮像手段の焦点とを結ぶ線分がなす角度を、車両の進行方向に対する各特徴点の相対的進入角度として算出する角度算出手段と、
角度算出手段によって算出された相対的進入角度が閾値以上である場合に、対応する特徴点により示される移動物体が、車両の進行方向を横切る移動物体であると判定する判定手段と、を備えることを特徴とする。
In order to achieve the above object, a moving object detection apparatus according to claim 1 is provided.
Photographing means mounted on the vehicle so as to photograph the traveling direction of the vehicle;
In the image photographed by the photographing means, the feature point is extracted, and the optical flow calculating means for calculating the optical flow of each extracted feature point;
From the optical flow of each feature point calculated by the optical flow calculation means, vanishing point calculation means for determining the vanishing point of each feature point existing on the extension line of the optical flow,
The angle formed by the line segment connecting the infinity point in the image captured by the image capturing unit and the focal point of the image capturing unit and the line segment connecting the vanishing point of each feature point and the focal point of the image capturing unit is set to An angle calculating means for calculating the relative approach angle of the feature point;
Determining means for determining that the moving object indicated by the corresponding feature point is a moving object crossing the traveling direction of the vehicle when the relative approach angle calculated by the angle calculating means is equal to or greater than the threshold value; It is characterized by.

後に詳細に説明するが、車両から見た移動物体の実際の動きベクトル(3次元空間における動きベクトル)は、移動物体を撮影した画像における、その移動物体の消失点と撮影手段の焦点とを結んだ線分と平行になる。そして、移動物体が車両の進行方向を横切る場合には、移動物体の実際の動きベクトルの方向と、車両の進行方向とが、平行とはならず、ある角度を持つことになる。   As will be described in detail later, the actual motion vector of the moving object viewed from the vehicle (the motion vector in the three-dimensional space) connects the vanishing point of the moving object and the focus of the imaging means in the image of the moving object. It becomes parallel to the line segment. When the moving object crosses the traveling direction of the vehicle, the direction of the actual motion vector of the moving object and the traveling direction of the vehicle are not parallel but have an angle.

そのため、請求項1の移動物体検出装置では、車両の進行方向に対応する、画像の無限遠点と撮像手段の焦点とを結ぶ線分と、車両から見た移動物体の実際の動きベクトルの向きに対応する、各特徴点の消失点と撮像手段の焦点とを結ぶ線分がなす角度を、車両の進行方向に対する各特徴点の相対的進入角度として算出する。そして、算出した各特徴点の相対的進入角度が所定の閾値角度以上であるか否か判定する。これにより、移動物体が、車両の進行方向を横切る移動物体であるか否かを判別することができる。さらに、このような相対的進入角度を用いることにより、車両の進行方向を越えた移動物体も、車両の進行方向を横切る移動物体として判定することが可能となる。   Therefore, in the moving object detection device according to claim 1, the line segment connecting the infinity point of the image and the focus of the imaging unit corresponding to the traveling direction of the vehicle, and the direction of the actual motion vector of the moving object viewed from the vehicle Is calculated as a relative approach angle of each feature point with respect to the traveling direction of the vehicle. Then, it is determined whether or not the calculated relative approach angle of each feature point is equal to or greater than a predetermined threshold angle. Thereby, it is possible to determine whether or not the moving object is a moving object that crosses the traveling direction of the vehicle. Furthermore, by using such a relative approach angle, a moving object that exceeds the traveling direction of the vehicle can be determined as a moving object that crosses the traveling direction of the vehicle.

請求項2に記載したように、消失点算出手段は、画像における無限遠点から水平に伸びる仮想の水平線と、オプティカルフローの延長線との交点を、各特徴点の消失点として求めることが好ましい。傾きの無い平坦な地面を想定すると、無限遠点及び消失点は、地平線上に存在することになる。このため、無限遠点から水平に伸びる仮想の水平線と、オプティカルフローの延長線との交点を、各特徴点の消失点とすることができる。このように、簡易的に各特徴点の消失点を定めることにより、消失点を算出するための演算量を低減することができる。   According to a second aspect of the present invention, the vanishing point calculating means preferably obtains the intersection of the virtual horizontal line extending horizontally from the infinity point in the image and the extension line of the optical flow as the vanishing point of each feature point. . Assuming a flat ground without inclination, the infinity point and the vanishing point exist on the horizon. For this reason, the intersection of the virtual horizontal line extending horizontally from the infinity point and the extension line of the optical flow can be the vanishing point of each feature point. Thus, by simply determining the vanishing point of each feature point, the amount of calculation for calculating the vanishing point can be reduced.

請求項3に記載したように、少なくとも、消失点算出手段によって算出された各特徴点の消失点の位置から、同じ消失点を共有する特徴点同士を、同じ移動物体を示す特徴点としてグルーピングするグルーピング手段を備え、判定手段は、グルーピングされた特徴点によって示される移動物体に関して、車両の進行方向を横切る移動物体であるか否かを判定することが好ましい。このように、同じ移動物体を示す特徴点同士をグルーピングすることにより、車両の進行方向を横切る移動物体がいくつあるか明らかにすることができる。また、同じ消失点を共有するとの条件で特徴点をグルーピングすることにより、オプティカルフローに混在するアウトライア(誤対応により誤って算出された外れ値)を除去することができる。   As described in claim 3, at least from the vanishing point position of each feature point calculated by the vanishing point calculation means, feature points sharing the same vanishing point are grouped as feature points indicating the same moving object. It is preferable that a grouping unit is provided, and the determination unit determines whether the moving object indicated by the grouped feature points is a moving object that crosses the traveling direction of the vehicle. Thus, by grouping the feature points indicating the same moving object, it is possible to clarify how many moving objects cross the traveling direction of the vehicle. Further, by grouping feature points under the condition that they share the same vanishing point, outliers (outliers that are erroneously calculated due to incorrect correspondence) mixed in the optical flow can be removed.

請求項4に記載したように、車両の進行方向における、当該車両と各特徴点との距離がゼロとなるまでの衝突時間を、各特徴点について算出する衝突時間算出手段を備え、グルーピング手段は、衝突時間が所定の時間幅に属する特徴点同士を、同じ移動物体を示す特徴点としてグルーピングすることが好ましい。同じ移動物体を示す特徴点であれば、類似する衝突時間を有するためである。そして、同じ消失点を共有するとの条件に加え、衝突時間の類似性もグルーピングの条件として採用することにより、アウトライアの除去をより確実に行うことができる。さらに、衝突時間が明らかとなることにより、衝突時間の長短から、そのときの状況の緊急度合なども判別することが可能になる。   According to a fourth aspect of the present invention, the vehicle includes a collision time calculation unit that calculates a collision time for each feature point until the distance between the vehicle and each feature point becomes zero in the traveling direction of the vehicle. It is preferable to group the feature points belonging to the predetermined time width as the feature points indicating the same moving object. This is because feature points indicating the same moving object have similar collision times. Then, in addition to the condition that the same vanishing point is shared, the similarity of the collision time is also adopted as the grouping condition, so that the outlier can be removed more reliably. Furthermore, since the collision time becomes clear, it is possible to determine the degree of emergency of the situation at that time from the length of the collision time.

さらに、請求項5に記載したように、グルーピング手段は、所定の距離範囲内に存在する特徴点同士を、同じ移動物体を示す特徴点としてグルーピングするようにしても良い。同じ移動物体を示す特徴点同士は、互いに近接した位置に存在するためである。   Furthermore, as described in claim 5, the grouping means may group feature points existing within a predetermined distance range as feature points indicating the same moving object. This is because the feature points indicating the same moving object exist at positions close to each other.

請求項6に記載したように、判定手段において、車両の進行方向を横切る移動物体であるとの判定結果が得られたとき、車両の運転者に対して警報を発する警報手段を備え、警報手段は、判定手段によって車両の進行方向を横切る移動物体と判定された移動物体の数に応じて、警報の態様を変化させても良い。例えば、移動物体の数だけ警告音を発したりするようにしても良い。これにより、車両の乗員に対して、車両の前方を横切る移動物体が存在するということだけでなく、その移動物体の数に関する情報も提供することができる。   According to a sixth aspect of the present invention, the determination means includes a warning means for issuing a warning to the driver of the vehicle when a determination result is obtained that the moving object crosses the traveling direction of the vehicle. The warning mode may be changed in accordance with the number of moving objects determined as moving objects crossing the traveling direction of the vehicle by the determining means. For example, a warning sound may be generated for the number of moving objects. Thereby, not only that the moving object which crosses the front of a vehicle exists but the information regarding the number of the moving objects can be provided with respect to the passenger | crew of a vehicle.

請求項7に記載したように、判定手段において、車両の進行方向を横切る移動物体との判定結果が得られたとき、車両の運転者に対して警報を発する警報手段を備え、警報手段は、衝突時間判定手段により算出された衝突時間の長短に応じて、警報の態様を変化させるようにしても良い。これにより、車両の乗員に対して、車両の前方を横切る移動物体が存在するということだけでなく、その移動物体と衝突する可能性がある時間に関する情報も提供することができる。   According to a seventh aspect of the present invention, the determination means comprises a warning means for issuing a warning to the driver of the vehicle when a determination result with a moving object crossing the traveling direction of the vehicle is obtained, The warning mode may be changed according to the length of the collision time calculated by the collision time determination means. Thus, not only that there is a moving object that crosses the front of the vehicle but also information regarding the time that the vehicle occupant may collide with the moving object can be provided to the vehicle occupant.

請求項8に記載した移動物体検出装置では、判定手段は、車両の進行方向を横切る移動物体として、撮像手段の焦点と無限遠点を結ぶ線分を延長したラインを横切る前の横断前移動物体と、横切った後の横断後移動物体とを判定対象とする。換言すれば、本発明による移動物体検出装置では、相対的進入角度を用いて、移動物体が車両の進行方向を横切る移動物体か否かを判定しているので、横断前移動物体だけでなく、横断後移動物体も対象として判定することが可能となる。   In the moving object detection device according to claim 8, the determination unit is a moving object before crossing before crossing a line extending a line segment connecting the focal point of the imaging unit and the infinity point as a moving object crossing the traveling direction of the vehicle. And the moving object after crossing after crossing. In other words, in the moving object detection device according to the present invention, the relative approach angle is used to determine whether the moving object is a moving object that crosses the traveling direction of the vehicle. It is possible to determine a moving object after crossing as a target.

請求項9に記載した移動物体検出装置では、オプティカルフロー算出手段は、車両の運動に伴う撮影手段の回転方向の移動により生じる成分を除去したオプティカルフローを算出する。撮影手段が、車両という移動体に搭載される場合、特に撮影手段の回転方向の移動により生じる成分が、移動物体のオプティカルフローを算出する上で、大きな誤差要因となるためである。   In the moving object detection device according to the ninth aspect, the optical flow calculation means calculates an optical flow from which a component generated by the movement of the photographing means in the rotational direction accompanying the movement of the vehicle is removed. This is because, when the photographing unit is mounted on a moving body such as a vehicle, a component caused by the movement of the photographing unit in the rotation direction becomes a significant error factor in calculating the optical flow of the moving object.

本発明の実施形態による移動体検出装置の構成を示す構成図である。It is a block diagram which shows the structure of the moving body detection apparatus by embodiment of this invention. 移動体検出装置において実行される処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the process performed in a mobile body detection apparatus. 無限遠点(FOE)について説明するための説明図である。It is explanatory drawing for demonstrating an infinite point (FOE). (a),(b)は、相対的進入角度について説明するための説明図である。(A), (b) is explanatory drawing for demonstrating a relative approach angle. ビデオカメラによって撮影された画像から、各特徴点の相対的進入角度を求める方法について説明するための説明図である。It is explanatory drawing for demonstrating the method of calculating | requiring the relative approach angle of each feature point from the image image | photographed with the video camera. 接近移動物体の分類について説明するためのものであり、(a)は、ビデオカメラの予測進路を表す直線を横断する前の状態の移動物体を表し、(b)は、ビデオカメラの予測進路を表す直線を横断した後の状態の移動物体を表し、(c)は、ビデオカメラの予測進路を表す直線を横断しない状態の移動物体を表す。This is for explaining the classification of an approaching moving object, where (a) represents a moving object in a state before crossing a straight line representing the predicted course of the video camera, and (b) represents the predicted course of the video camera. (C) represents a moving object in a state where it does not cross the straight line representing the predicted course of the video camera. (a)〜(c)は、それぞれ、図6(a)〜(c)に示す3状態の移動物体を画像に透視投影した際の様子を示す図である。(A)-(c) is a figure which shows the mode at the time of carrying out the perspective projection of the moving object of 3 states shown to Fig.6 (a)-(c), respectively to an image. (a)〜(c)は、特徴点のグルーピング処理について説明するための説明図である。(A)-(c) is explanatory drawing for demonstrating the grouping process of a feature point.

以下、本発明の実施形態による移動体検出装置について、図面に基づいて詳細に説明する。   Hereinafter, a mobile object detection device according to an embodiment of the present invention will be described in detail with reference to the drawings.

図1に示すように、本実施形態における移動体検出装置100は、車両に搭載された、撮影手段としてのビデオカメラ10、及びビデオカメラ10によって撮影された画像を処理する画像処理ECU20とを備えている。   As shown in FIG. 1, the moving body detection apparatus 100 according to the present embodiment includes a video camera 10 as a photographing unit mounted on a vehicle, and an image processing ECU 20 that processes an image photographed by the video camera 10. ing.

ビデオカメラ10は、例えば、CCDカメラによって構成され、車両の車室内の天井付近や車両の先端(フロントバンパー)に設置される。この車両への設置に際して、ビデオカメラ10の光軸(Z軸)が車両の進行方向と一致し、ビデオカメラ10によって撮影された画像の横軸(X軸)が地面と平行になるように、ビデオカメラ10の設置角度等が調整される。この結果、画像の縦軸(Y軸)は、地面から垂直な方向に一致する。このビデオカメラ10は、車両が走行している間、定期的に画像を撮影して、その撮影した画像を画像処理ECU20に出力する。   The video camera 10 is constituted by, for example, a CCD camera, and is installed near the ceiling in the vehicle interior of the vehicle or at the front end (front bumper) of the vehicle. At the time of installation on this vehicle, the optical axis (Z axis) of the video camera 10 coincides with the traveling direction of the vehicle, and the horizontal axis (X axis) of the image taken by the video camera 10 is parallel to the ground. The installation angle of the video camera 10 is adjusted. As a result, the vertical axis (Y axis) of the image coincides with the direction perpendicular to the ground. The video camera 10 periodically captures images while the vehicle is traveling, and outputs the captured images to the image processing ECU 20.

画像処理ECU20は、図示しないCPU、ROM、RAM等からなるマイクロコンピュータの他、ビデオカメラ10から出力された画像をデジタル画像に変換するためのA/D変換器や、変換されたデジタル画像を保存する画像メモリ等を備えている。なお、画像メモリは、複数の画像を保存可能な記憶容量を有している。   The image processing ECU 20 stores an A / D converter for converting an image output from the video camera 10 into a digital image, and a converted digital image, in addition to a microcomputer including a CPU, ROM, RAM, etc. (not shown). An image memory or the like is provided. Note that the image memory has a storage capacity capable of storing a plurality of images.

この画像処理ECU20は、予め記憶されているプログラムに従って、各種の処理を実行する。例えば、画像処理ECU20は、ビデオカメラ10から時系列に出力される複数の画像における、同一特徴点の変化から、画像に含まれる各々の特徴点のオプティカルフローを算出する。そして、主として静止物体の特徴点のオプティカルフローに基づいて、画像の無限遠点(FOE)の位置を算出する。また、移動物体の特徴点のオプティカルフローから、その移動物体の消失点を算出する。さらに、画像のFOE位置及び移動物体の消失点位置を用いて、その移動物体が、車両の進路方向を横切る移動物体であるか判別する。このようにして、画像処理ECU20が、車両の進路方向を横切る移動物体であると判別すると、その判別結果が、制御装置30に出力される。   The image processing ECU 20 executes various processes according to a program stored in advance. For example, the image processing ECU 20 calculates the optical flow of each feature point included in the image from the change of the same feature point in a plurality of images output in time series from the video camera 10. Then, the position of the infinity point (FOE) of the image is calculated mainly based on the optical flow of the feature point of the stationary object. Further, the vanishing point of the moving object is calculated from the optical flow of the feature point of the moving object. Further, using the FOE position of the image and the vanishing point position of the moving object, it is determined whether or not the moving object is a moving object that crosses the course direction of the vehicle. In this way, when the image processing ECU 20 determines that the object is a moving object that crosses the course direction of the vehicle, the determination result is output to the control device 30.

制御装置30は、例えば、画像処理ECU20により、車両の進路方向を横切る移動物体があると判別されると、その旨を車両の運転者に報知したり、移動物体との衝突を回避するために、車両に制動力を発生させるようにブレーキ装置を制御したりするものである。   For example, when the image processing ECU 20 determines that there is a moving object that crosses the direction of the vehicle, the control device 30 notifies the driver of the vehicle and avoids a collision with the moving object. The brake device is controlled to generate a braking force on the vehicle.

次に、図2のフローチャートに基づいて、画像処理ECU20において実行される各種の処理について詳しく説明する。なお、図2のフローチャートに示す処理は、車両のエンジンがオンされたり、車両が走行を開始したりしたときに、繰り返し実行されるものである。   Next, various processes executed in the image processing ECU 20 will be described in detail based on the flowchart of FIG. The process shown in the flowchart of FIG. 2 is repeatedly executed when the engine of the vehicle is turned on or when the vehicle starts running.

まず、ステップS100では、ビデオカメラによって撮影された画像を取り込み、画像メモリに保存する。続くステップS110では、画像メモリに新たなデジタル画像が保存されると、そのデジタル画像における特徴点として、物体の角等を抽出する。そして、異なるタイミングで画像メモリに保存された2つのデジタル画像において、同一の特徴点を対応付けることにより、その特徴点の動きベクトルに相当するオプティカルフローを算出する。このオプティカルフローの算出方法として、例えばLK法が挙げられる、LK法は特徴点を中心とする画像内の小領域と相関の高いもう一つの画像内の小領域の勾配法による探索を行うものである。   First, in step S100, an image taken by a video camera is captured and stored in an image memory. In the subsequent step S110, when a new digital image is stored in the image memory, an object corner or the like is extracted as a feature point in the digital image. Then, by associating the same feature point in two digital images stored in the image memory at different timings, an optical flow corresponding to the motion vector of the feature point is calculated. As an optical flow calculation method, for example, the LK method can be cited. The LK method searches for a small region in another image having a high correlation with a small region in the image centered on a feature point by a gradient method. is there.

なお、上述した例では、物体の角等の点を特徴点として算出するものであったが、他の手法によって特徴点を算出することも可能である。   In the above-described example, the points such as the corners of the object are calculated as the feature points. However, the feature points can be calculated by other methods.

ステップS120では、ビデオカメラ10の運動パラメタを推定する。ビデオカメラ10は車両に搭載されており、車両の並進運動及び回転運動に伴い、ビデオカメラ10も同様に並進運動及び回転運動を行う。このため、ステップS120では、ビデオカメラ10の並進運動量ならびに回転移動量から、運動パラメタを推定する。   In step S120, the motion parameter of the video camera 10 is estimated. The video camera 10 is mounted on a vehicle, and the video camera 10 also performs a translational motion and a rotational motion in accordance with the translational motion and rotational motion of the vehicle. For this reason, in step S120, the motion parameter is estimated from the translational momentum and the rotational movement amount of the video camera 10.

ここで、本実施形態の移動体検出装置は、車両の進行方向(進路)を横切る進路横断移動物を検知するものであるが、移動物体が進路横断移動物体か否かを判別する上で重要な技術的意味を持つ相対的進入角度(詳しくは、後述する)は、その定義より、ビデオカメラ10における座標系が並進運動することを前提としている。換言すれば、オプティカルフローに、ビデオカメラ10の回転運動による成分が含まれていると、上記の相対的進入角度を精度良く算出することができず、進路横断移動物体の判別精度も低下することになる。そのため、ステップS110において算出したオプティカルフローから、ビデオカメラの回転運動によって生じた成分を除去する必要があり、そのために、ビデオカメラ10の運動パラメタを推定するのである。   Here, the moving body detection apparatus according to the present embodiment detects a moving object crossing a course that crosses the traveling direction (path) of the vehicle, but is important for determining whether or not the moving object is a moving object that crosses the course. The relative approach angle (which will be described later in detail) having such a technical meaning is based on the premise that the coordinate system of the video camera 10 moves in translation. In other words, if the optical flow includes a component due to the rotational motion of the video camera 10, the relative approach angle cannot be calculated with high accuracy, and the accuracy of discriminating the crossing path moving object also decreases. become. Therefore, it is necessary to remove the component generated by the rotational motion of the video camera from the optical flow calculated in step S110, and therefore, the motion parameter of the video camera 10 is estimated.

ビデオカメラ10の運動パラメタは、以下の数式1に示す、ビデオカメラ10の3次元の並進移動量V = (Vx, Vy, Vz)と、回転移動量Ω=(Ωx, Ωy, Ωz)と、静止点の座標 (x, y, z)と、そのオプティカルフロー v = (vx, vy)との良く知られた関係式から求めることができる。なお、fは、ビデオカメラ10の焦点距離である。

Figure 0005482672
The motion parameters of the video camera 10 are represented by the following formula 1, the three-dimensional translational movement amount V = (V x , V y , V z ) of the video camera 10 and the rotational movement amount Ω = (Ω x , Ω y , Ω z ), the coordinates of the stationary point (x, y, z), and the optical flow v = (v x , v y ). Note that f is the focal length of the video camera 10.
Figure 0005482672

ここで、無限遠点(FOE)の定義式 (xF, yF) = (fVx/Vz, fVy/Vz)を用いると、以下の数式2が成立する。なお、無限遠点(FOE)とは、図3に示すように、放射状に広がる静止物体の特徴点のオプティカルフローの中心点を示すものである。

Figure 0005482672
Here, when the definition formula (x F , y F ) = (fVx / Vz, fVy / Vz) of the infinity point (FOE) is used, the following formula 2 is established. Note that the infinity point (FOE) indicates the center point of the optical flow of the feature points of the stationary object that radiates as shown in FIG.
Figure 0005482672

数式2で示される数式を、特徴点の数ぶんの連立方程式として解くことで、ビデオカメラ10の並進移動の方向を表す無限遠点(xF, yF)、ならびにビデオカメラ10の回転移動によって生成されるオプティカルフローの成分を除去したオプティカルフロー (ux, uy) を求めることができる。 By solving the mathematical formula 2 as a number of simultaneous equations of feature points, the infinity point (x F , y F ) representing the direction of translation of the video camera 10 and the rotational movement of the video camera 10 The optical flow (u x , u y ) from which the generated optical flow component is removed can be obtained.

なお、上記の数式1、数式2は静止点に対してのみ成立するものであり、移動点やアウトライア(誤対応により誤って算出された外れ値)を持つ点では、式の誤差が大きな値をとると考えられる。このため、無限遠点(xF, yF)及びオプティカルフロー (ux, uy)を求める際には、ロバスト推定による解法を用いることが望ましい。ロバスト推定として、例えば、M推定(参考文献:P. J. Huber and E. M. Ronchetti, "Robust Statistics, 2nd Edition", Wiley Interscience, 2009.)の適応が考えられる。 Note that the above formulas 1 and 2 are established only for a stationary point, and the values of the formulas have a large error at points having moving points and outliers (outliers that are erroneously calculated due to incorrect correspondence). It is thought to take. For this reason, it is desirable to use a solution method based on robust estimation when obtaining the infinite point (x F , y F ) and the optical flow (u x , u y ). As robust estimation, for example, M estimation (reference: PJ Huber and EM Ronchetti, “Robust Statistics, 2nd Edition”, Wiley Interscience, 2009.) can be considered.

あるいは、ビデオカメラ10の運動パラメタ(カメラの回転移動により生じた成分を除去したオプティカルフロー)は、車両に取り付けられた車速センサやヨーレートセンサなどの検出値を用いて、算出することも可能である。また、無限遠点は、公知のように、RANSAC法やクラスタリング法などの手法により、特徴点における移動点と静止点とを分離し、分離した静止点のオプティカルフローから求めるようにしても良い。   Alternatively, the motion parameter of the video camera 10 (optical flow from which a component generated by the rotational movement of the camera is removed) can be calculated using detection values of a vehicle speed sensor or a yaw rate sensor attached to the vehicle. . Further, as is well known, the infinite point may be obtained from the optical flow of the separated stationary point by separating the moving point and stationary point at the feature point by a technique such as RANSAC method or clustering method.

ステップS120の処理により、ビデオカメラ10の並進移動の方向を表す無限遠点(xF, yF)、及びビデオカメラ10の回転運動によって生じた成分を除去したオプティカルフロー(ux, uy)が求まると、次に、ステップS130において、特徴点のフィルタリング処理を行う。 By the process of step S120, the optical flow (u x , u y ) from which the component generated by the rotational movement of the video camera 10 and the infinity point (x F , y F ) representing the direction of translation of the video camera 10 are removed. Then, in step S130, feature point filtering is performed.

この特徴点のフィルタリング処理では、まず、カメラの回転運動により生じるオプティカルフローの成分を除去したオプティカルフロー(ux, uy)を使って、特徴点ごとに相対的進入角度を算出する。 In the filtering process of feature points, first, a relative approach angle is calculated for each feature point using an optical flow (u x , u y ) from which an optical flow component generated by the rotational motion of the camera is removed.

この相対的進入角度について、図4(a),(b)を参照して説明する。   This relative approach angle is demonstrated with reference to Fig.4 (a), (b).

図4(a)に示すように、ビデオカメラ10の前方を横切ろうとする進路横断移動物体があった場合、その進路横断移動物体の運動は、車両から見ると、つまり並進運動するビデオカメラ10の座標系で表現すると、ビデオカメラ10の進行方向に対してある角度を持った運動として記述することができる。本実施形態では、図4(b)に示すように、この角度を「相対的進入角度」と呼ぶこととする。   As shown in FIG. 4 (a), when there is a crossing path moving object that tries to cross the front of the video camera 10, the movement of the crossing path moving object is viewed from the vehicle, that is, the video camera 10 that translates. This can be described as a motion having a certain angle with respect to the traveling direction of the video camera 10. In the present embodiment, as shown in FIG. 4B, this angle is referred to as a “relative approach angle”.

静止している点は速度0の移動物体と見なすことができ、相対的進入角度は0度となる。一方、図4(a),(b)に示すように、並進移動するビデオカメラ10の進路を横断する進路横断移動物体の相対的進入角度は0度より大きくなるため、適切な閾値θthを設定することで、静止点との区別が可能となる。 A stationary point can be regarded as a moving object with zero speed, and the relative approach angle is 0 degree. On the other hand, FIG. 4 (a), the (b), the order translational relative angle of approach the cross track moving objects across the path of movement video camera 10 which is larger than 0 degree, an appropriate threshold value theta th By setting, it becomes possible to distinguish from a stationary point.

例えば、車両が低速で移動する場合は、高速で移動する場合と比べて、相対的進入角度が大きくなる。従って、相対的進入角度は、とりわけ低速走行時において、進路横断移動物体と静止物体とを分離するよい指標であると言える。ただし、相対的進入角度の算出精度は、ビデオカメラ10の解像度によって変化するので、これを踏まえて、進路横断移動物体を判別するための閾値を設定することが好ましい。   For example, when the vehicle moves at a low speed, the relative approach angle becomes larger than when the vehicle moves at a high speed. Therefore, it can be said that the relative approach angle is a good index for separating the moving object crossing the course and the stationary object, particularly when traveling at a low speed. However, since the calculation accuracy of the relative approach angle changes depending on the resolution of the video camera 10, it is preferable to set a threshold value for discriminating the moving object crossing the course based on this.

一例として、相対的進入角度の閾値は対象とする車両の速度ならびに検出対象の速度から、以下のように設定することができる。例えば、対象とする車両速度の上限をVmax、道路を直角に横断する検出対象の速度の下限をWminとした場合、相対的進入角度の閾値はarctan(Wmin/Vmax)を下回るように設定すればよい。例えば、Vmax=20km/h, Wmin=4km/hの時、arctan(Wmin/Vmax)=11.3°程度であるので、相対的進入角度の閾値を10°と設定することは合理的である。但し、この閾値は、進路横断移動物体の検出を行う車両速度の上限や、相対的進入角度の算出精度などから、さらに小さい角度に設定しても良い。   As an example, the threshold of the relative approach angle can be set as follows from the speed of the target vehicle and the speed of the detection target. For example, if the upper limit of the target vehicle speed is Vmax and the lower limit of the detection target speed that crosses the road at right angles is Wmin, the relative approach angle threshold can be set to be less than arctan (Wmin / Vmax). Good. For example, when Vmax = 20 km / h and Wmin = 4 km / h, since arctan (Wmin / Vmax) = 11.3 °, it is reasonable to set the relative approach angle threshold to 10 °. However, this threshold value may be set to a smaller angle from the upper limit of the vehicle speed at which the crossing path moving object is detected, the calculation accuracy of the relative approach angle, and the like.

次に、ビデオカメラ10によって撮影された画像から、各特徴点の相対的進入角度を求める方法について説明する。図5に示すように、進路横断移動物体をビデオカメラ10で撮影すると、その進路横断移動物体を透視投影した画像が得られる。なお、ビデオカメラ10の撮影画像にレンズ歪みによる影響がある場合には、正しく透視投影された画像とならないため、レンズ歪みの影響を除去するための歪み補正処理を実行することが望ましい。   Next, a method for obtaining the relative approach angle of each feature point from an image taken by the video camera 10 will be described. As shown in FIG. 5, when a moving object crossing a course is photographed by the video camera 10, an image obtained by perspective projection of the moving object crossing the course is obtained. Note that when the captured image of the video camera 10 is affected by lens distortion, the image is not correctly perspective-projected. Therefore, it is desirable to execute distortion correction processing for removing the influence of lens distortion.

進路横断移動物体の運動を剛体の並進運動と仮定すると、進路横断移動物体のオプティカルフローは、消失点と呼ばれる点を中心に放射状に広がる方向を持つ。この消失点は、進路横断移動物体とビデオカメラ10が無限の時間等速直線運動を継続した結果、進路横断移動物体が消失する無限遠点を示している。   Assuming that the movement of the crossing path moving object is a rigid translational motion, the optical flow of the crossing path moving object has a direction that spreads radially around a point called the vanishing point. This vanishing point indicates an infinite point where the moving object crossing the course disappears as a result of the constant-velocity linear motion of the moving object and the video camera 10 continuing for an infinite time.

そして、図5から明らかなように、車両から見た進路横断移動物体の実際の動きベクトル(3次元空間における動きベクトル)は、その進路横断移動物体を撮影した画像における、進路横断移動物体の消失点とビデオカメラ10の焦点とを結んだ線分と平行になる。このため、車両の進行方向に対応する、FOEとカメラ焦点とを結ぶ線分と、車両から見た移動物体の実際の動きベクトルの向きに対応する、各特徴点の消失点とカメラ焦点とを結ぶ線分がなす角度が、車両の進行方向に対する各特徴点の相対的進入角度を表すことになる。換言すれば、進路横断移動物体の消失点とカメラ焦点とFOEとを頂点とする三角形の焦点側の角度は、進路横断移動物体の相対的進入角度を表すことになる。   As is clear from FIG. 5, the actual motion vector (motion vector in the three-dimensional space) of the crossing path moving object viewed from the vehicle is the disappearance of the crossing path moving object in the image of the crossing path moving object. It is parallel to the line segment connecting the point and the focal point of the video camera 10. Therefore, the line segment connecting the FOE and the camera focus corresponding to the traveling direction of the vehicle, the vanishing point of each feature point corresponding to the direction of the actual motion vector of the moving object viewed from the vehicle, and the camera focus. The angle formed by the connecting line segments represents the relative approach angle of each feature point with respect to the traveling direction of the vehicle. In other words, the angle on the focal point side of the triangle whose apex is the vanishing point of the crossing path moving object, the camera focus, and the FOE represents the relative approach angle of the crossing path moving object.

ビデオカメラ10の焦点距離fは既知であるため、FOEと進路横断移動物体の消失点を求めることによって、相対的進入角度を求めることが可能となる。相対的進入角度は数式3で与えられる。

Figure 0005482672
Since the focal length f of the video camera 10 is known, the relative approach angle can be obtained by obtaining the FOE and the vanishing point of the moving object crossing the course. The relative approach angle is given by Equation 3.
Figure 0005482672

なお、PFはビデオカメラ焦点を原点とした場合のFOE座標(xF, yF, f)、Pは消失点座標(x, y, f)である。 P F is the FOE coordinates (x F , y F , f) when the video camera focus is the origin, and P is the vanishing point coordinates (x , y , f).

FOE座標(xF, yF, f)は、ステップS120において算出されている。消失点座標(x, y, f)は、以下のようにして算出することができる。 The FOE coordinates (x F , y F , f) are calculated in step S120. The vanishing point coordinates (x , y , f) can be calculated as follows.

まず、図5に示すように、ビデオカメラ10によって撮影された画像において、y=yFの直線を地平線と呼ぶこととする。傾きのない平坦な地面を想定すると、FOE及び消失点は地平線上に存在することになる。このため、消失点は、回転成分の除去されたオプティカルフローの延長線と地平線との交点となる。従って、各特徴点ごとに、その座標とオプティカルフロー(ux, uy)から、消失点を求めることができる。このように、簡易的に各特徴点の消失点を定めることにより、消失点を算出するための演算量を低減することができる。 First, as shown in FIG. 5, in the image photographed by the video camera 10, a straight line y = y F is called a horizon. Assuming a flat ground with no inclination, the FOE and vanishing point exist on the horizon. For this reason, the vanishing point is an intersection of the extension line of the optical flow from which the rotational component is removed and the horizon. Therefore, for each feature point, the vanishing point can be obtained from the coordinates and the optical flow (u x , u y ). Thus, by simply determining the vanishing point of each feature point, the amount of calculation for calculating the vanishing point can be reduced.

ただし、各特徴点の消失点は、他の手法によってより高精度に算出しても良い。例えば、各特徴点のオプティカルフローを延長した延長線の交点をそれぞれ求め、近接した位置に存在する交点をグループ化し、そのグループ化した交点位置の中心とみなせる位置を消失点として定めても良い。   However, the vanishing point of each feature point may be calculated with higher accuracy by another method. For example, intersections of extension lines obtained by extending the optical flow of each feature point may be obtained, the intersections existing at close positions may be grouped, and a position that can be regarded as the center of the grouped intersection position may be determined as a vanishing point.

このようにして特徴点ごとに相対的進入角度を算出すると、次に、ステップS130において、車両の進路を横切る進路横断移動物体の候補点となる特徴点と、それ以外の特徴点とを分離する、フィルタリング処理を実行する。   Once the relative approach angle is calculated for each feature point in this way, in step S130, the feature point that is a candidate point for the cross-route moving object that crosses the course of the vehicle is separated from the other feature points. Execute the filtering process.

本実施形態においては、車両の進路を横切る進路横断移動物体を検知対象とする。このような進路横断移動物体は、車両が進行方向に移動している場合には、時間の経過とともに、Z軸(カメラの光軸)方向においてビデオカメラ10に接近する接近移動物体となる。   In the present embodiment, a moving object that crosses the course of the vehicle that crosses the course of the vehicle is the detection target. When the vehicle is moving in the traveling direction, such a cross-track moving object becomes an approaching moving object that approaches the video camera 10 in the Z-axis (camera optical axis) direction as time passes.

ここで、接近移動物体は、図6(a)〜(c)に示すように、3種類に分類することが出来る。図6(a)に示すpre-crossing(横断前移動物体)は、ビデオカメラ10の予測進路を表す直線を横断する前の状態の移動物体を表す。図6(b)に示すpost-crossing(横断後移動物体)は、ビデオカメラ10の予測進路を表す直線を横断した後の状態の移動物体を表す。図6(c)に示すnever-crossing(非横断移動物体)は、ビデオカメラ10の予測進路を表す直線を横断しない状態の移動物体を表す。   Here, the approaching moving object can be classified into three types as shown in FIGS. A pre-crossing (moving object before crossing) shown in FIG. 6A represents a moving object in a state before crossing a straight line representing a predicted course of the video camera 10. A post-crossing (moving object after crossing) shown in FIG. 6B represents a moving object in a state after crossing a straight line representing a predicted course of the video camera 10. A never-crossing (non-crossing moving object) shown in FIG. 6C represents a moving object that does not cross a straight line representing a predicted course of the video camera 10.

本実施形態では、pre-crossingとpost-crossingを進路横断移動物体と定義し、検出の対象とする。never-crossingを検出対象としない理由は、例えば車道の横の歩道の歩行者などがnever-crossingに当てはまる可能性があり、この対象に対して運転者に警報を与える必要性は低いと考えられるからである。なお、相対的進入角度が非零である限りにおいて、never-crossingを検出対象に含めることも可能ではある。   In the present embodiment, pre-crossing and post-crossing are defined as objects that cross the course and are set as detection targets. The reason why never-crossing is not detected is, for example, the possibility that pedestrians on the sidewalk next to the roadway may apply to never-crossing, and it is considered that there is little need to alert the driver to this target. Because. As long as the relative approach angle is non-zero, never-crossing can be included in the detection target.

図6(a)〜(c)に示す3状態の移動物体は、ビデオカメラ10によって図7(a)〜(c)のように画像に透視投影される。ここで、図7(a)に示すpre-crossingの状態は、FOE座標(x座標:xF)、消失点座標(x座標:x)、特徴点の座標(x座標:x)、ならびに相対的進入角度θに関して、以下の数式4に示す関係が成り立つ。

Figure 0005482672
The moving objects in the three states shown in FIGS. 6A to 6C are perspectively projected onto the image by the video camera 10 as shown in FIGS. 7A to 7C. Here, the pre-crossing state shown in FIG. 7A includes FOE coordinates (x coordinate: x F ), vanishing point coordinates (x coordinate: x ), feature point coordinates (x coordinate: x), and Regarding the relative approach angle θ, the relationship shown in the following Expression 4 is established.
Figure 0005482672

また、図7(b)に示すpost-crossingの状態は、FOE座標、消失点座標、特徴点の座標、ならびに相対的進入角度に関して、以下の数式5に示す関係が成り立つ。

Figure 0005482672
In the post-crossing state shown in FIG. 7B, the relationship shown in the following Expression 5 is established with respect to the FOE coordinate, the vanishing point coordinate, the feature point coordinate, and the relative approach angle.
Figure 0005482672

さらに、図7(c)に示すnever-crossingの状態は、FOE座標、消失点座標、特徴点の座標、ならびに相対的進入角度に関して、以下の数式6に示す関係が成り立つ。

Figure 0005482672
Furthermore, in the never-crossing state shown in FIG. 7C, the relationship shown in the following Expression 6 is established with respect to the FOE coordinates, vanishing point coordinates, feature point coordinates, and relative approach angle.
Figure 0005482672

これらの関係を利用することで、FOE座標、消失点座標、特徴点の画像座標、及び相対的進入角度から、各特徴点に関して、3状態の移動物体の内、いずれの状態の移動物体を示すものであるかを区別することが可能となる。ステップS130のフィルタリング処理では、pre-crossingまたはpost-crossingと分類された特徴点を、進路横断移動物体を示す候補点と判定する。この候補点は、次に述べるステップS140のグルーピング処理の入力(対象)となる。   By using these relationships, the moving object in any of the three states is indicated for each feature point from the FOE coordinates, vanishing point coordinates, image coordinates of the feature points, and relative approach angles. It is possible to distinguish whether it is a thing. In the filtering process of step S130, the feature points classified as pre-crossing or post-crossing are determined as candidate points indicating a crossing path moving object. This candidate point becomes an input (target) for the grouping process in step S140 described below.

ステップS140では、進路横断移動物体を示す候補点となった特徴点を、種々の条件で同一の進路横断移動物体を示すとみなし得る特徴点を抽出して、グルーピングする。進路横断物体の候補点は、それだけではただの点の集まりに過ぎないため、進路横断移動物体に関する情報(個数、相対的進入角度、衝突時間など)が分かりづらい。また、オプティカルフローには、アウトライアと呼ばれる誤対応により誤って算出された外れ値が混入することが少なからずある。そこで候補点を移動物体ごとにまとめ、かつアウトライアを除去する目的でグルーピングを施すのである。   In step S140, feature points that can be regarded as indicating the same crossing path moving object under various conditions are extracted and grouped from the feature points that are candidate points indicating the crossing path moving object. Since the candidate points for the path crossing object are just a collection of points, it is difficult to understand information (number, relative approach angle, collision time, etc.) regarding the moving object crossing the path. In addition, optical flows are often mixed with outliers that are erroneously calculated due to an erroneous correspondence called an outlier. Therefore, grouping is performed for the purpose of collecting candidate points for each moving object and removing outliers.

グルーピングを行う第1の条件は、特徴点が互いに近傍に存在することである。この近傍判定は、図8(a)に示すように、候補点である特徴点ごとに、各特徴点を中心とする正方の領域を与え、これらの正方領域の重なりが生じる特徴点は、互いに近傍にあるとみなし、グループ化する。一方、正方領域が他の特徴点の正方領域と重なりを持たない孤立点は、アウトライアとみなし、グループ化の対象から除外する。   The first condition for performing grouping is that feature points exist in the vicinity of each other. In this neighborhood determination, as shown in FIG. 8A, for each feature point that is a candidate point, a square region centered on each feature point is given, and the feature points where these square regions overlap each other are Group as if it were in the vicinity. On the other hand, isolated points whose square area does not overlap with the square areas of other feature points are regarded as outliers and excluded from grouping targets.

グルーピングを行う第2の条件は、相対的進入角度が実質的に一致することである。図5に示すように、同一移動物体の特徴点は、消失点を共有し、その結果、相対的進入角度が実質的に一致するためである。   The second condition for performing grouping is that the relative approach angles substantially match. As shown in FIG. 5, the feature points of the same moving object share the vanishing point, and as a result, the relative approach angles substantially match.

この相対的進入角度の一致判定では、図7(b)に示すように、近傍判定されたグループごとに消失点座標の分布状態を求め、その分布状態から、同一の消失点を共有するとみなされる特徴点と、同一の消失点を共有するとはみなされない特徴点とを統計的に区分けする。その他にも、例えば、消失点座標の分布位置から真の消失点位置を推定し、その消失点と特徴点を結ぶ直線とオプティカルフローとの角度誤差などに基づき、同一の消失点を共有する特徴点と、同一の消失点を共有しない特徴点とに区分けしても良い。そして、同一の消失点を共有しない特徴点は、例えばアウトライアによる特徴点であり、グループ化の対象から除外する。一方、同一の消失点を共有する特徴点は、相対的進入角度が一致するものと判定する。   In this relative approach angle coincidence determination, as shown in FIG. 7B, the distribution state of vanishing point coordinates is obtained for each group determined to be close, and it is considered that the same vanishing point is shared from the distribution state. Statistically divide feature points from feature points that are not considered to share the same vanishing point. In addition, for example, a feature that estimates the true vanishing point position from the vanishing point coordinate distribution position and shares the same vanishing point based on the angle error between the optical flow and the straight line connecting the vanishing point and the feature point. The points may be divided into feature points that do not share the same vanishing point. And the feature point which does not share the same vanishing point is a feature point by an outlier, for example, and is excluded from the grouping target. On the other hand, it is determined that the feature points sharing the same vanishing point have the same relative approach angle.

グルーピングを行う第3の条件は、各特徴点の衝突時間Tが類似していることである。ここで、衝突時間Tは、ビデオカメラ10の前方(Z>0)に存在する物体が、画像平面に到達するまでの時間(実質的に、車両と衝突するまでの時間)として定義される。この衝突時間Tは、ビデオカメラ10の回転移動により生じるオプティカルフローの成分が除去されたオプティカルフロー(ux, uy)及び消失点座標( x, y)を用いて、下記の数式7により算出することができる。

Figure 0005482672
The third condition for performing grouping is that the collision times T of the feature points are similar. Here, the collision time T is defined as the time until the object existing in front of the video camera 10 (Z> 0) reaches the image plane (substantially, the time until the vehicle collides). The collision time T is calculated by using the optical flow (u x , u y ) from which the optical flow component generated by the rotational movement of the video camera 10 is removed and the vanishing point coordinates (x , y ). Can be calculated.
Figure 0005482672

すなわち、数式7により、特徴点ごとに衝突時間Tを求めることが可能である。具体的には、上述した第1、2の条件によりグループ化された特徴点ごとに、消失点座標、特徴点座標、オプティカルフロー(ux, uy)を数式7に代入して、衝突時間Tを算出する。なお、衝突時間Tは、オプティカルフローの算出誤差を考慮し、ある範囲を持った時間として算出される。 That is, it is possible to obtain the collision time T for each feature point using Equation 7. Specifically, for each feature point grouped according to the first and second conditions described above, the vanishing point coordinates, the feature point coordinates, and the optical flow (u x , u y ) are substituted into Equation 7 to determine the collision time. T is calculated. The collision time T is calculated as a time having a certain range in consideration of an optical flow calculation error.

ここで、同一の移動物体の衝突時間Tは、その物体の部位により多少のずれはあるものの、道路上の一般的な検出対象(人、自転車、車両など)を考慮する限り、類似していると考えるのが自然である。従って、条件1,2によりグループ化された特徴点を対象として、各特徴点ごとに求めた衝突時間Tに関して、図8(c)に示すように、衝突時間Tの類似判定を行う。すなわち、あらかじめ設定した時間幅ΔTのエラーバーを与え、エラーバーの範囲で衝突時間Tが一致すれば衝突時間Tが類似すると判定し、エラーバーの範囲で衝突時間Tが一致しない特徴点があれば、グループから除外する。   Here, the collision time T of the same moving object is similar as long as general detection targets (people, bicycles, vehicles, etc.) on the road are taken into consideration, although there are some deviations depending on the part of the object. It is natural to think. Therefore, the similarity determination of the collision time T is performed on the characteristic points grouped according to the conditions 1 and 2 with respect to the collision time T obtained for each characteristic point as shown in FIG. That is, given an error bar with a preset time width ΔT, if the collision time T matches within the error bar range, it is determined that the collision time T is similar, and there is a feature point where the collision time T does not match within the error bar range. Exclude it from the group.

このように、本実施形態では、グルーピングの条件として複数の条件を用いているので、アウトライアの除去をより確実に行うことができる。さらに、進路横断移動物体の衝突時間Tが明らかとなることにより、衝突時間の長短から、そのときの状況の緊急度合なども判別することが可能になる。   Thus, in this embodiment, since a plurality of conditions are used as the grouping conditions, the outlier can be removed more reliably. Furthermore, since the collision time T of the moving object crossing the path becomes clear, it is possible to determine the degree of emergency of the situation at that time from the length of the collision time.

続くステップS150では、ステップS140のグルーピング処理によりグループ化された特徴点があるか否かを判定する。この判定処理において、グループ化された特徴点があると判定された場合には、車両の進路を横切る進路横断移動物体があるとみなし、ステップS160の処理に進む。一方、グループ化された特徴点がないと判定された場合には、再びステップS100から上述した処理を繰り返す。   In the subsequent step S150, it is determined whether or not there are feature points grouped by the grouping process in step S140. In this determination process, when it is determined that there are grouped feature points, it is considered that there is a path crossing moving object that crosses the path of the vehicle, and the process proceeds to step S160. On the other hand, if it is determined that there are no grouped feature points, the above-described processing is repeated again from step S100.

ステップS160では、制御装置30に対して、運転者に対する警報や、車両において自動的に制動を行う制御などを実行するように指示され、それにより、制御装置30は、警報や車両の制御を実行する。この警報処理において、検出されたグループの個数にしたがって、警報の態様を変化させてもよい。例えば、検出された進路横断移動物体の個数分だけ、警報音を鳴らしてもよい(3個の進路横断移動物体が検出された場合、「ピピピ、間、ピピピ、間、…」、と鳴らすなど。)。また、警報の煩わしさ回避のために警報音回数に上限を設けてもよい。あるいは、検出された進路横断移動物体の個数によって、警報音の周波数を変化させても良い。これらにより、運転者に対して、進路横断移動物体が存在するということだけでなく、その進路横断移動物体の数に関する情報も提供することができる。   In step S160, the control device 30 is instructed to execute an alarm for the driver, a control for automatically braking the vehicle, and the like, whereby the control device 30 executes the alarm and the vehicle control. To do. In this alarm process, the mode of the alarm may be changed according to the number of detected groups. For example, an alarm sound may be generated for the number of detected moving objects crossing the path (when three moving objects crossing the path are detected, a sound such as “beep, between, beep, between, etc.”) .) Also, an upper limit may be set for the number of alarm sounds in order to avoid the troublesomeness of alarms. Alternatively, the frequency of the warning sound may be changed according to the number of detected moving objects crossing the course. Thus, not only the fact that there is a moving object crossing the course but also information regarding the number of moving objects crossing the course can be provided to the driver.

また、同一グループの特徴点の衝突時間Tの平均値を算出し、これを、移動物体の衝突時間として、その衝突時間の長短によって警報の態様を変化させても良い。例えば、モニタによる警報装置の場合、衝突時間に応じてモニタ上の進路横断物体を囲う矩形の点滅速度を変化させたりしても良い。これにより、車両の運転者に対して、移動物体と衝突する可能性がある時間に関する情報も提供することができる。   Further, the average value of the collision times T of the feature points of the same group may be calculated, and this may be used as the collision time of the moving object, and the warning mode may be changed depending on the length of the collision time. For example, in the case of an alarm device using a monitor, the blinking speed of a rectangle surrounding a path crossing object on the monitor may be changed according to the collision time. Thereby, it is also possible to provide the vehicle driver with information regarding the time when there is a possibility of collision with a moving object.

10 ビデオカメラ
20 画像処理ECU
30 制御装置
100 移動体検出装置
10 video camera 20 image processing ECU
30 Control device 100 Moving object detection device

Claims (9)

車両の進行方向を撮影するように、車両に搭載される撮影手段と、
前記撮影手段によって撮影された画像において、特徴点を抽出するとともに、抽出された各特徴点のオプティカルフローを算出するオプティカルフロー算出手段と、
前記オプティカルフロー算出手段によって算出された各特徴点のオプティカルフローから、当該オプティカルフローの延長線上に存在する各特徴点の消失点を定める消失点算出手段と、
前記撮影手段によって撮影された画像における無限遠点と前記撮像手段の焦点とを結ぶ線分と、前記各特徴点の消失点と前記撮像手段の焦点とを結ぶ線分がなす角度を、前記車両の進行方向に対する各特徴点の相対的進入角度として算出する角度算出手段と、
前記角度算出手段によって算出された相対的進入角度が閾値以上である場合に、対応する特徴点により示される移動物体が、前記車両の進行方向を横切る移動物体であると判定する判定手段と、を備えることを特徴とする移動物体検出装置。
Photographing means mounted on the vehicle so as to photograph the traveling direction of the vehicle;
In the image photographed by the photographing means, the feature point is extracted, and an optical flow calculating means for calculating the optical flow of each extracted feature point;
From the optical flow of each feature point calculated by the optical flow calculation means, vanishing point calculation means for determining the vanishing point of each feature point existing on the extension line of the optical flow;
An angle formed by a line segment connecting the infinity point in the image captured by the image capturing unit and the focal point of the imaging unit, and a line segment connecting the vanishing point of each feature point and the focal point of the imaging unit is defined as the vehicle. Angle calculating means for calculating the relative approach angle of each feature point with respect to the traveling direction of
Determining means for determining that the moving object indicated by the corresponding feature point is a moving object crossing the traveling direction of the vehicle when the relative approach angle calculated by the angle calculating means is equal to or greater than a threshold; A moving object detection device comprising:
前記消失点算出手段は、前記画像における無限遠点から水平に伸びる仮想の水平線と、前記オプティカルフローの延長線との交点を、前記各特徴点の消失点として求めることを特徴とする請求項1に記載の移動物体検出装置。   2. The vanishing point calculating unit obtains an intersection point between a virtual horizontal line extending horizontally from an infinite point in the image and an extension line of the optical flow as a vanishing point of each feature point. The moving object detection apparatus described in 1. 少なくとも、前記消失点算出手段によって算出された各特徴点の消失点の位置から、同じ消失点を共有する特徴点同士を、同じ移動物体を示す特徴点としてグルーピングするグルーピング手段を備え、
前記判定手段は、グルーピングされた特徴点によって示される移動物体に関して、前記車両の進行方向を横切る移動物体であるか否かを判定することを特徴とする請求項1又は2に記載の移動物体検出装置。
At least grouping means for grouping feature points that share the same vanishing point as feature points indicating the same moving object from the position of the vanishing point of each feature point calculated by the vanishing point calculating means,
The moving object detection according to claim 1 or 2, wherein the determination unit determines whether or not the moving object indicated by the grouped feature point is a moving object that crosses a traveling direction of the vehicle. apparatus.
前記車両の進行方向における、当該車両と各特徴点との距離がゼロとなるまでの衝突時間を、各特徴点について算出する衝突時間算出手段を備え、
前記グルーピング手段は、前記衝突時間が所定の時間幅に属する特徴点同士を、同じ移動物体を示す特徴点としてグルーピングすることを特徴とする請求項3に記載の移動物体検出装置。
Collision time calculation means for calculating the collision time for each feature point until the distance between the vehicle and each feature point in the traveling direction of the vehicle becomes zero,
The moving object detection apparatus according to claim 3, wherein the grouping unit groups the characteristic points belonging to the collision time within a predetermined time width as characteristic points indicating the same moving object.
前記グルーピング手段は、所定の距離範囲内に存在する特徴点同士を、同じ移動物体を示す特徴点としてグルーピングすることを特徴とする請求項3又は4に記載の移動物体検出装置。   5. The moving object detection apparatus according to claim 3, wherein the grouping unit groups feature points existing within a predetermined distance range as feature points indicating the same moving object. 前記判定手段において、前記車両の進行方向を横切る移動物体との判定結果が得られたとき、前記車両の運転者に対して警報を発する警報手段を備え、
前記警報手段は、前記判定手段によって前記車両の進行方向を横切る移動物体と判定された移動物体の数に応じて、警報の態様を変化させることを特徴とする請求項3乃至5のいずれかに記載の移動物体検出装置。
In the determination means, when a determination result with a moving object crossing the traveling direction of the vehicle is obtained, the alarm means for issuing an alarm to the driver of the vehicle,
6. The alarm unit according to claim 3, wherein the alarm unit changes an alarm mode according to the number of moving objects determined by the determination unit as moving objects crossing the traveling direction of the vehicle. The moving object detection device described.
前記判定手段において、前記車両の進行方向を横切る移動物体との判定結果が得られたとき、前記車両の運転者に対して警報を発する警報手段を備え、
前記警報手段は、前記衝突時間判定手段により算出された衝突時間の長短に応じて、警報の態様を変化させることを特徴とする請求項4又は5に記載の移動物体検出装置。
In the determination means, when a determination result with a moving object crossing the traveling direction of the vehicle is obtained, the alarm means for issuing an alarm to the driver of the vehicle,
The moving object detection apparatus according to claim 4 or 5, wherein the warning unit changes a warning mode according to the length of the collision time calculated by the collision time determination unit.
前記判定手段は、前記車両の進行方向を横切る移動物体として、前記撮像手段の焦点と無限遠点を結ぶ線分を延長したラインを横切る前の横断前移動物体と、横切った後の横断後移動物体とを判定することを特徴とする請求項1乃至7のいずれかに記載の移動物体検出装置。   The determining means includes a moving object before crossing a line extending the line connecting the focal point of the imaging means and an infinite point as a moving object that crosses the traveling direction of the vehicle, and a post-crossing movement after crossing. The moving object detection device according to claim 1, wherein an object is determined. 前記オプティカルフロー算出手段は、前記車両の運動に伴う前記撮影手段の回転方向の移動により生じるフロー成分を除去したオプティカルフローを算出することを特徴とする請求項1乃至8のいずれかに記載の移動物体検出装置。   9. The movement according to claim 1, wherein the optical flow calculation unit calculates an optical flow from which a flow component generated by the movement of the photographing unit in the rotation direction accompanying the movement of the vehicle is removed. Object detection device.
JP2011004358A 2011-01-12 2011-01-12 Moving object detection device Active JP5482672B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011004358A JP5482672B2 (en) 2011-01-12 2011-01-12 Moving object detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011004358A JP5482672B2 (en) 2011-01-12 2011-01-12 Moving object detection device

Publications (2)

Publication Number Publication Date
JP2012146146A JP2012146146A (en) 2012-08-02
JP5482672B2 true JP5482672B2 (en) 2014-05-07

Family

ID=46789646

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011004358A Active JP5482672B2 (en) 2011-01-12 2011-01-12 Moving object detection device

Country Status (1)

Country Link
JP (1) JP5482672B2 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5870908B2 (en) 2012-12-11 2016-03-01 株式会社デンソー Vehicle collision determination device
EP2757527B1 (en) * 2013-01-16 2018-12-12 Honda Research Institute Europe GmbH System and method for distorted camera image correction
JP2016148512A (en) * 2013-06-11 2016-08-18 ヤマハ発動機株式会社 Monocular motion stereo distance estimation method and monocular motion stereo distance estimation device
WO2015170706A1 (en) * 2014-05-07 2015-11-12 日本電産エレシス株式会社 Traveling body detection method and program
CN104408743A (en) * 2014-11-05 2015-03-11 百度在线网络技术(北京)有限公司 Image segmentation method and device
JP6477453B2 (en) 2015-12-17 2019-03-06 株式会社デンソー Object detection device and object detection method
JP6504042B2 (en) 2015-12-17 2019-04-24 株式会社デンソー Control device, control method
JP6587006B2 (en) * 2018-03-14 2019-10-09 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Moving body detection device, control device, moving body, moving body detection method, and program
WO2022160101A1 (en) * 2021-01-26 2022-08-04 深圳市大疆创新科技有限公司 Orientation estimation method and apparatus, movable platform, and readable storage medium

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10269362A (en) * 1997-03-21 1998-10-09 Omron Corp Object recognition method and device therefor
JP4106163B2 (en) * 1999-09-27 2008-06-25 株式会社東芝 Obstacle detection apparatus and method
JP4539348B2 (en) * 2004-09-07 2010-09-08 日産自動車株式会社 Collision time calculation device and obstacle detection device
JP4610305B2 (en) * 2004-11-08 2011-01-12 アルパイン株式会社 Alarm generating method and alarm generating device
JP2008098989A (en) * 2006-10-12 2008-04-24 Stanley Electric Co Ltd Solid-state imaging element
JP2008172441A (en) * 2007-01-10 2008-07-24 Omron Corp Detection device, method, and program
JP4919036B2 (en) * 2007-01-30 2012-04-18 アイシン精機株式会社 Moving object recognition device
JP2009236492A (en) * 2008-03-25 2009-10-15 Panasonic Electric Works Co Ltd Obstacle monitoring device for vehicle
JPWO2010109831A1 (en) * 2009-03-23 2012-09-27 コニカミノルタホールディングス株式会社 Drive recorder

Also Published As

Publication number Publication date
JP2012146146A (en) 2012-08-02

Similar Documents

Publication Publication Date Title
JP5482672B2 (en) Moving object detection device
JP5944781B2 (en) Mobile object recognition system, mobile object recognition program, and mobile object recognition method
EP3258214B1 (en) Object detection device
WO2019116958A1 (en) Onboard environment recognition device
JP2021192303A (en) Rider support system and method
JP5089545B2 (en) Road boundary detection and judgment device
JP6787157B2 (en) Vehicle control device
US9704047B2 (en) Moving object recognition apparatus
CN111369831A (en) Road driving danger early warning method, device and equipment
JP5145585B2 (en) Target detection device
JP6450294B2 (en) Object detection apparatus, object detection method, and program
JP2007300181A (en) Periphery monitoring apparatus and periphery monitoring method and program thereof
JP6547785B2 (en) Target detection device
JP6315308B2 (en) Control object identification device, mobile device control system, and control object recognition program
JP6816401B2 (en) Image processing device, imaging device, mobile device control system, image processing method, and program
WO2019230123A1 (en) Detection device and detection system
JP2008117073A (en) Interruption vehicle detection device
Lim et al. Real-time forward collision warning system using nested Kalman filter for monocular camera
JP2009245042A (en) Traffic flow measurement device and program
JP3651419B2 (en) Environment recognition device
JP2019207655A (en) Detection device and detection system
Kilicarslan et al. Direct vehicle collision detection from motion in driving video
JP2006004188A (en) Obstacle recognition method and obstacle recognition device
JP7454685B2 (en) Detection of debris in vehicle travel paths
JP4703963B2 (en) Outside-of-vehicle monitoring device and travel control device equipped with this out-of-vehicle monitoring device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130307

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140116

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140121

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140203

R150 Certificate of patent or registration of utility model

Ref document number: 5482672

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250