JP4127255B2 - Pop-up object detection device - Google Patents
Pop-up object detection device Download PDFInfo
- Publication number
- JP4127255B2 JP4127255B2 JP2004251686A JP2004251686A JP4127255B2 JP 4127255 B2 JP4127255 B2 JP 4127255B2 JP 2004251686 A JP2004251686 A JP 2004251686A JP 2004251686 A JP2004251686 A JP 2004251686A JP 4127255 B2 JP4127255 B2 JP 4127255B2
- Authority
- JP
- Japan
- Prior art keywords
- detection
- optical flow
- pop
- road
- detection area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Image Processing (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Description
本発明は、自車両の前方に飛び出してくる物体を検出する装置に関する。 The present invention relates to an apparatus for detecting an object that pops out ahead of a host vehicle.
2台のカメラで撮像したステレオ画像を用いて、自車両前方に飛び出す歩行者などの物体を検出する方法が知られている(特許文献1)。これは、ステレオ画像から算出した距離分布データと画面上の物体の動きにより、自車両の前方に飛び出す物体を検出して運転者へ警報を発するものである。 There is known a method of detecting an object such as a pedestrian that jumps out ahead of the host vehicle using stereo images captured by two cameras (Patent Document 1). This detects an object popping out ahead of the host vehicle based on the distance distribution data calculated from the stereo image and the movement of the object on the screen, and issues a warning to the driver.
特許文献1に開示される方法では、ステレオ画像を取得するために2台のカメラが必要であり、コスト的に不利である。したがって、1台のカメラの撮像画像により自車両前方に飛び出す物体を検出できる装置が求められている。 In the method disclosed in Patent Document 1, two cameras are required to acquire a stereo image, which is disadvantageous in terms of cost. Accordingly, there is a need for an apparatus that can detect an object that jumps forward of the host vehicle from an image captured by one camera.
本発明による飛び出し物体検出装置は、自車両の進行先の撮像画像を取得する撮像手段と、自車両の移動量を検出する移動量検出手段と、移動量検出手段により検出された移動量に基づいて、実空間上に仮想的に固定された検出領域を撮像画像中に設定する検出領域設定手段と、検出領域設定手段により設定された検出領域における物体の画像上の速度を示すオプティカルフローを算出するオプティカルフロー算出手段と、オプティカルフローに基づいて、自車両の進行先に飛び出す飛び出し物体を検出する飛び出し物体検出手段とを備え、検出領域設定手段は、自車両が走行している道路の境界部分から所定距離離れた地点と、その地点よりも所定の横間隔だけ道路に対して近い地点とをそれぞれの実空間上における仮想的な設定位置とする2つの検出領域を設定し、オプティカルフロー算出手段は、2つの検出領域のうち道路に対して外側に設定された第1の検出領域における物体の画像上の速度を示す第1のオプティカルフローと、第1の検出領域よりも道路に対して内側に設定された第2の検出領域における物体の画像上の速度を示す第2のオプティカルフローとを算出し、飛び出し物体検出手段は、第1のオプティカルフローに基づいて算出された物体の実空間上における第1の移動速度と、第2のオプティカルフローに基づいて算出された物体の実空間上における第2の移動速度との差が所定値以下である場合、物体を飛び出し物体として検出するものである。
The pop-out object detection device according to the present invention is based on an imaging unit that acquires a captured image of a destination of a host vehicle, a movement amount detection unit that detects a movement amount of the host vehicle, and a movement amount detected by the movement amount detection unit. The detection area setting means for setting the detection area virtually fixed in the real space in the captured image, and the optical flow indicating the velocity on the image of the object in the detection area set by the detection area setting means is calculated. An optical flow calculating means that detects and a pop-out object detecting means that detects a pop-out object that jumps out to the destination of the own vehicle based on the optical flow, and the detection area setting means is a boundary portion of the road on which the own vehicle is traveling A virtual set position in each real space is a point that is a predetermined distance away from the point and a point that is closer to the road by a predetermined lateral distance than that point. Two detection areas are set, and the optical flow calculation means includes a first optical flow indicating a speed on the image of the object in the first detection area set outside the road among the two detection areas; The pop-out object detection means calculates the second optical flow indicating the speed on the image of the object in the second detection area set inside the road from the first detection area. The difference between the first movement speed of the object calculated based on the flow in the real space and the second movement speed of the object calculated based on the second optical flow is less than or equal to a predetermined value. In some cases, the object is detected as a pop-out object.
本発明によれば、自車両の進行先の撮像画像を取得し、この撮像画像中に実空間上に仮想的に固定された検出領域を設定して、設定された検出領域におけるオプティカルフローを算出し、そのオプティカルフローに基づいて飛び出し物体を検出する。すなわち、自車両が走行している道路の境界部分から所定距離離れた地点と、その地点よりも所定の横間隔だけ道路に対して近い地点とをそれぞれの実空間上における仮想的な設定位置とする2つの検出領域を設定し、2つの検出領域のうち道路に対して外側に設定された第1の検出領域における物体の画像上の速度を示す第1のオプティカルフローと、第1の検出領域よりも道路に対して内側に設定された第2の検出領域における物体の画像上の速度を示す第2のオプティカルフローとを算出し、第1のオプティカルフローに基づいて算出された物体の実空間上における第1の移動速度と、第2のオプティカルフローに基づいて算出された物体の実空間上における第2の移動速度との差が所定値以下である場合、その物体を飛び出し物体として検出することとした。このようにしたので、1台のカメラの撮像画像により自車両前方に飛び出す物体を検出することができる。 According to the present invention, a captured image of the destination of the host vehicle is acquired, a detection area virtually fixed in real space is set in the captured image, and an optical flow in the set detection area is calculated. Then, a pop-out object is detected based on the optical flow. That is, a point that is a predetermined distance away from the boundary portion of the road on which the vehicle is traveling and a point that is closer to the road by a predetermined lateral distance than the point are virtual set positions in the respective real spaces. A first optical flow indicating the speed on the image of the object in the first detection area set outside the road among the two detection areas, and the first detection area The second optical flow indicating the speed on the image of the object in the second detection region set on the inner side of the road, and the real space of the object calculated based on the first optical flow If the difference between the first moving speed above and the second moving speed of the object calculated based on the second optical flow in the real space is equal to or less than a predetermined value, the object is It was possible to detect Te. Since it did in this way, the object which jumps out ahead of the own vehicle can be detected with the picked-up image of one camera.
本発明の一実施形態による物体検出装置の構成を図1に示す。この物体検出装置は車両に搭載されて使用され、1台のカメラで撮像した撮像画像に基づいて自車両の前方に飛び出す物体を検出して、運転者に警報を発するものである。この車両検出装置は、カメラ1、画像メモリ2、車輪速センサ3、操舵角センサ4、マイコン5および警報機6を備えている。
FIG. 1 shows the configuration of an object detection apparatus according to an embodiment of the present invention. This object detection device is mounted on a vehicle and used to detect an object that jumps out ahead of the host vehicle based on a captured image captured by a single camera, and issues a warning to the driver. The vehicle detection device includes a camera 1, an
カメラ1は自車両前方を撮像するように自車両の前部に設置されており、撮像した画像を画像信号として画像メモリ2へ出力する。カメラ1には、たとえばCCDカメラ等が用いられる。画像メモリ2は、カメラ1から入力された画像信号を画像データとして記憶保持するためのフレームメモリである。画像メモリ2に記憶された画像データは、マイコン5の制御により画像フレーム単位でマイコン5に出力される。
The camera 1 is installed at the front of the host vehicle so as to capture the front of the host vehicle, and outputs the captured image to the
車輪速センサ3は、自車両の各タイヤ付近に備えられており、自車両のタイヤの回転を検出することによって車輪速を計測する。操舵角センサ4は、自車両のステアリングの操作状態を検出することによって操舵角を計測する。これらのセンサによって計測された車輪速データと操舵角データは、マイコン5に出力される。
The
マイコン5は、画像メモリ2から画像データを読み出すことによって、カメラ1により撮像された自車両前方の撮像画像を読み込む。また、車輪速センサ3と操舵角センサ4によりそれぞれ計測された車輪速データおよび操舵角データに基づいて、自車両の移動量を検出する。そして、この撮像画像と自車両の移動量に基づいて、以下に説明するような処理を実行することにより、自車両前方に飛び出してくる歩行者などの物体を検出する。このようにして検出される物体を、以下では飛び出し物体という。マイコン5において飛び出し物体が検出されると、警報機6を動作させるための信号がマイコン5より出力され、警報機6において警報音が出力される。このようにして、自車両の運転者に飛び出し物体の存在を報知する。
The
マイコン5において飛び出し物体を検出するときの処理内容について説明する。図2は、カメラ1によって取得された撮像画像から、自車両が走行している道路の脇より道路上へと進入してくる進入者200を飛び出し物体として検出するときの様子を示している。マイコン5において撮像画像が読み込まれると、初めに道路の境界部分を示すレーンマーク(白線)を撮像画像から抽出する。このレーンマークは、ソベルフィルタと呼ばれる画像フィルタを用いて撮像画像から縦方向のエッジを抽出し、そのエッジに対してハフ変換と呼ばれる処理を行って直線形状を求めることにより、撮像画像から抽出することができる。なお、こうしたレーンマークの抽出方法は周知の画像処理手法であるため、ここでは詳しい説明を省略する。
Processing contents when the
撮像画像からレーンマークが抽出されたら、次に撮像画像から物体を検出するための検出領域を撮像画像中に設定する。このとき、抽出されたレーンマークの位置に基づいて各検出領域の設定位置を決めることとし、レーンマークに沿って検出領域を所定間隔ごとに並べることで、自車両が走行している道路に沿って検出領域が所定間隔ごとに設定されるようにする。さらにこのとき、所定の横間隔ごとに2つの検出領域を横に並べる。これにより、図2の符号10〜15に示す外側の検出領域と、符号20〜25に示す内側の検出領域のように、道路に沿って2列のすだれ状の検出領域が設定される。
When the lane mark is extracted from the captured image, a detection area for detecting an object from the captured image is set in the captured image. At this time, the setting position of each detection area is determined based on the position of the extracted lane mark, and the detection area is arranged at predetermined intervals along the lane mark so that it follows the road on which the host vehicle is traveling. The detection area is set at predetermined intervals. Further, at this time, two detection areas are arranged side by side at predetermined horizontal intervals. Thus, two rows of interdigital detection areas are set along the road, such as an outer detection area indicated by
後で説明するように、外側の検出領域10〜15において検出された物体が道路に方向に向かって移動している場合には、さらにその物体を内側の検出領域20〜25において検出する。そして、外側と内側の検出領域においてそれぞれ算出される実空間上の移動速度を比較することにより、その物体が飛び出し物体であるか否かの判定が行われる。したがって、以下の説明では外側の検出領域10〜15を単に検出領域と称し、内側の検出領域20〜25を判定領域と称する。
As will be described later, when an object detected in the
ここで設定される検出領域10〜15および判定領域20〜25は、実空間上にその位置が仮想的に固定されている。したがって、自車両が移動すると、その移動量に応じて各検出領域および判定領域の撮像画像における位置がそれぞれ変化する。なお自車両の移動量は、前述のように車輪側データと操舵角データの計測結果に基づいて検出される。
The positions of the
検出領域と判定領域の各々は、実空間上において自車両から前方の所定の距離範囲内に対して、その前後方向および左右方向の間隔が一定となるように設定される。自車両の移動によって検出領域や判定領域のいずれかが撮像画像の範囲外となった場合には、その検出領域や判定領域が削除されるとともに、所定距離範囲内に対して新たな検出領域または判定領域が設定される。すなわち、自車両が前に進んでいくと、自車両に近い位置に設定された検出領域と判定領域から順に画面外に移動して削除されるとともに、新たな検出領域と判定領域が次々に設定される。 Each of the detection area and the determination area is set so that the distance in the front-rear direction and the left-right direction is constant within a predetermined distance range ahead of the host vehicle in real space. When either the detection area or the determination area is outside the range of the captured image due to the movement of the host vehicle, the detection area or the determination area is deleted, and a new detection area or A determination area is set. In other words, when the host vehicle moves forward, the detection area and the determination area set at positions close to the own vehicle are sequentially moved off the screen and deleted, and new detection areas and determination areas are set one after another. Is done.
検出領域10〜15と判定領域20〜25の具体的な設定例を説明する。たとえば、実空間における自車両の位置を基準に、そこから自車両の進行方向に向かって5m離れ、さらにレーンマークより道路と反対側に1m離れた地点を、検出領域15の実空間上の仮想的な設定位置とする。また、この検出領域15よりも所定の横間隔(たとえば30cm)だけ道路に対して近い地点を、判定領域25の実空間上の仮想的な設定位置とする。そして、検出領域15と判定領域25の仮想的な設定位置からそれぞれ自車両の進行方向に向かって一定間隔(たとえば1m)ごとの地点を、検出領域10〜14と判定領域20〜24の仮想的な設定位置とする。こうして実空間上に設定された仮想的な設定位置に対応させて、撮像画像における各検出領域および判定領域の設定位置を決定する。
A specific setting example of the
上記のようにして、道路に沿って等間隔にすだれ状に並べられた検出領域10〜15および判定領域20〜25が設定されたら、次に検出領域10〜15の各々におけるオプティカルフローを算出する。このオプティカルフローは、各検出領域における物体の画像上の速度を示しているものである。なおオプティカルフローは周知のように、画像フレーム間で同一物体を示す部分を抽出し、その部分の撮像画像中の位置変化量を求めることによって算出することができる。
As described above, when the
このように、検出領域10〜15の各々においてオプティカルフローを算出することにより、自車両前方の道路に向かって移動している物体を撮像画像中から検出できる。検出領域10〜15のいずれかにおいて算出されたオプティカルフローの向きが、道路の方向すなわち撮像画像の内側に向いている場合、その検出領域内の物体は自車両前方の道路に向かって移動しているものと判断できる。図2の例では、検出領域13において、進入者200のオプティカルフローが矢印201に示すように算出される。オプティカルフロー201の向きは道路の方向に向いているため、進入者200は自車両前方の道路に向かって移動していると判断される。
In this way, by calculating the optical flow in each of the
しかし、検出領域10〜15において検出された物体の実空間上における存在位置は、その検出領域の実空間上の仮想的な設定位置と一致しているとは限らず、後で図3により説明するように道路から離れている場合もある。このようなことから、上記のように道路の方向に移動している物体を全て飛び出し物体として検出すると、道路から離れた位置の物体までも誤って飛び出し物体として検出してしまうことになる。
However, the positions of the objects detected in the
したがって本発明では、検出領域10〜15のいずれかにおいて道路の方向に移動している物体が検出された場合は、その検出領域に対応して設定された判定領域20〜25のいずれかにおいても同じ物体を検出し、その判定領域におけるオプティカルフローを算出する。そして、検出領域と判定領域においてそれぞれに算出されたオプティカルフローに基づいて、その物体の実空間上における移動速度を検出領域と判定領域についてそれぞれ算出する。この移動速度を比較し、その差が所定値以下であれば、検出された物体を飛び出し物体として検出する。なお、オプティカルフローに基づいて実空間上の移動速度を算出する方法については、後で説明する。
Therefore, in the present invention, when an object moving in the direction of the road is detected in any of the
図2の例では、検出領域13において検出された進入者200を、その横に並べて設定された判定領域23において再び検出し、判定領域23における進入者200のオプティカルフローを算出する。このオプティカルフローと、検出領域13において算出されたオプティカルフロー201とに基づいてそれぞれ算出される進入者200の実空間上の移動速度の差が所定値以下であれば、進入者200を飛び出し物体として検出する。以上説明したような処理によって、飛び出し物体の検出が行われる。
In the example of FIG. 2, the
次に、実空間上における検出領域の仮想的な設定位置と検出対象物体の存在位置との関係について説明する。図3(a)は、自車両と検出対象物体である進入者の実空間上の位置関係を示した図であり、時刻T1と時刻T2における自車両位置をそれぞれ符号101と102に示す。この間の自車両の走行速度をVcと表す。また、時刻T1と時刻T2における進入者の位置をそれぞれ符号201と202に示す。このとき進入者の移動速度は一定であるとしてV0と表す。
Next, the relationship between the virtual setting position of the detection area in the real space and the presence position of the detection target object will be described. FIG. 3A is a diagram showing the positional relationship between the host vehicle and the intruder who is the detection target object in real space, and the host vehicle positions at time T1 and time T2 are denoted by
図2で説明したように、検出領域と判定領域は道路に沿って実空間上に仮想的に固定された状態で設定される。このとき自車両が道路の中心を走行しているとして、その道路の中心線に対する検出領域と判定領域の横位置を、(a)に示すようにそれぞれW1およびW2と表す。このW1とW2の値は、検出領域と判定領域の設定条件として予め定められている。 As described with reference to FIG. 2, the detection area and the determination area are set in a state of being virtually fixed in real space along the road. At this time, assuming that the host vehicle is traveling on the center of the road, the lateral positions of the detection area and the determination area with respect to the center line of the road are represented as W1 and W2, respectively, as shown in FIG. The values of W1 and W2 are predetermined as setting conditions for the detection area and the determination area.
時刻T1のときに(a)の自車両位置101において撮像された自車両前方の撮像画像を(b)に示す。この撮像画像には、(a)の位置201に存在する進入者(便宜上これを進入者201と表す)が撮像されており、この進入者201が検出領域11において検出される。このとき実空間上では、検出領域11が仮想的に設定されている位置、すなわち(a)に示す検出位置201Aに進入者201が存在するものと判断される。そこで、このような場合に誤って進入者201を飛び出し物体として検出することを避けるため、以下に説明するようにして、検出領域と判定領域においてそれぞれ算出されたオプティカルフローを比較する。
(B) shows a captured image in front of the host vehicle captured at the
(b)の撮像画像により検出領域11において算出された進入者201のオプティカルフローをF1と表す。(a)に示すように、自車両位置101から進入者201を見たときの進入者201の移動速度を角フローFθ1とすると、これはオプティカルフローF1を用いて以下の式(1)により表すことができる。なお、式(1)における定数αは、カメラ1の撮像面サイズや焦点距離に応じて予め定められている。
Fθ1=α・F1 ・・・(1)
ただし、αは定数
The optical flow of the
F θ1 = α · F1 (1)
Where α is a constant
また、自車両位置101から検出位置201Aまでの自車両進行方向に対する距離を検出距離Di1とすると、検出位置201Aに進入者201が存在すると仮定した場合の実空間上の移動速度Vi1は、以下の式(2)によって表すことができる。
Vi1=W1−Di1・tan{atan(W1/Di1−Fθ1)} ・・・(2)
Also, assuming that the distance from the
Vi1 = W1-Di1.tan {atan (W1 / Di1- Fθ1 )} (2)
ここで式(2)の検出距離Di1の値は、自車両位置101から検出領域11の実空間上の設定位置までの距離であるため、検出領域の設定条件と時刻T1以前の自車両の移動量によって求めることができる。また横位置W1の値は、前述したように予め定められており、角フローFθ1の値は、式(1)によって求められる。したがって式(2)により、検出位置201Aにおける進入者の実空間上の移動速度Vi1の値を算出することができる。
Here, since the value of the detection distance Di1 in the expression (2) is the distance from the
次に、時刻T2のときに(a)の自車両位置102において撮像された自車両前方の撮像画像を(c)に示す。この撮像画像には、(a)の位置202に存在する進入者(便宜上これを進入者202と表す)が撮像されている。この進入者202は、検出領域11の内側に設定された判定領域21において検出される。このとき実空間上では判定領域21が仮想的に設定されている位置、すなわち(a)に示す判定位置202Aに進入者202が存在するものと判断される。
Next, a captured image in front of the host vehicle captured at the
(c)の撮像画像により判定領域21において算出された進入者202のオプティカルフローをF2と表す。(a)に示すように、自車両位置102から進入者202を見たときの進入者202の移動速度を角フローFθ2とすると、これはオプティカルフローF2を用いて、式(1)と同様に以下の式(3)によって表すことができる。
Fθ2=α・F2 ・・・(3)
ただし、αは定数
The optical flow of the
F θ2 = α · F2 (3)
Where α is a constant
自車両位置102から判定位置202Aまでの自車両進行方向に対する距離を判定距離Di2とすると、判定位置202Aに進入者202が存在すると仮定した場合の実空間上の移動速度Vi2は、式(2)と同様に以下の式(4)によって表すことができる。
Vi2=W2−Di2・tan{atan(W2/Di2−Fθ2)} ・・・(4)
Assuming that the distance from the
Vi2 = W2-Di2 · tan {atan (W2 / Di2- Fθ2 )} (4)
ここで式(4)の判定距離Di2の値は、自車両位置102から判定領域21の実空間上の設定位置までの距離であり、これは自車両位置102から検出領域11の実空間上の設定位置までの距離と等しく、Di2=Di1−Vc・(T2−T1)として求めることができる。また横位置W2の値は、前述したように予め定められており、角フローFθ2の値は、式(3)によって求められる。したがって式(4)により、判定位置202Aにおける進入者の実空間上の移動速度Vi2の値を算出することができる。
Here, the value of the determination distance Di2 in the equation (4) is a distance from the
ここで進入者が実際に時刻T1において検出位置201Aに存在し、時刻T2において判定位置202Aに存在するとすれば、式(2)および(4)によって算出される移動速度Vi1とVi2の値は等しくなければならない。しかし(a)に示すように実際の存在位置が異なる場合には、移動速度Vi1とVi2の値に差が生じることとなる。このことより、以下の式(5)を満たすか否かを判定することによって、検出された進入者が飛び出し物体であるか否かを判断することができる。
|Vi1−Vi2|≦Rth ・・・(5)
ただし、Rthは定数
If the intruder actually exists at the detection position 201A at time T1 and exists at the determination position 202A at time T2, the values of the moving speeds Vi1 and Vi2 calculated by the equations (2) and (4) are equal. There must be. However, if the actual location is different as shown in (a), there will be a difference in the values of the moving velocities Vi1 and Vi2. From this, it is possible to determine whether or not the detected intruder is a pop-out object by determining whether or not the following expression (5) is satisfied.
| Vi1-Vi2 | ≦ Rth (5)
Where Rth is a constant
上記の式(5)を満たす場合は、進入者の存在する位置が検出位置および判定位置と等しいため、進入者を飛び出し物体として検出する。一方、式(5)を満たさない場合は、進入者の存在する位置と検出位置および判定位置が異なるため、飛び出し物体ではないと判断する。この場合は、その後においても進入者が他の検出領域において検出されるたびに、式(5)による判定が行われる。なお式(5)における定数Rthは、検出誤差等を考慮して移動速度Vi1とVi2が実質的に等しいと判断できるような値が予め定められている。 When the above expression (5) is satisfied, since the position where the intruder is present is equal to the detection position and the determination position, the intruder is detected as a pop-out object. On the other hand, when the expression (5) is not satisfied, the position where the intruder is present is different from the detection position and the determination position, so that it is determined that the object is not a pop-out object. In this case, each time an intruder is detected in another detection area after that, the determination according to Expression (5) is performed. The constant Rth in equation (5) is determined in advance so that it can be determined that the moving velocities Vi1 and Vi2 are substantially equal in consideration of detection errors and the like.
以上説明したようにして飛び出し物体を検出するときにマイコン5において実行される処理のフローチャートを図4に示す。このフローチャートは、フレームレートごとに撮像画像の各画像フレームに対して実行されるものである。ステップS10では、後で説明する図5のフローチャートに示す検出領域設定処理を行い、撮像画像中に検出領域と判定領域を設定する。ステップS20では、ステップS10で設定された検出領域と判定領域を用いて、後で説明する図6のフローチャートを実行することにより、飛び出し物体判定処理を行う。ステップS20を実行した後は、図4のフローチャートを終了する。
FIG. 4 shows a flowchart of processing executed in the
ステップS10で実行する検出領域設定処理の内容を図5のフローチャートにより説明する。ステップS100では、画像メモリ2に記憶された画像を読み込むことにより、カメラ1による撮像画像を取得する。ステップS101では、ステップS100で取得された撮像画像よりソベルフィルタを用いて縦方向のエッジを検出し、次のステップS102では、ステップS101で検出されたエッジに対してハフ変換処理を行う。
The contents of the detection area setting process executed in step S10 will be described with reference to the flowchart of FIG. In step S100, an image captured by the camera 1 is acquired by reading an image stored in the
ステップS103では、ステップS102のハフ変換処理の結果に基づいて、撮像画像からレーンマークである白線の部分を検出する。ステップS104では、車輪速センサ3と操舵角センサ4による車輪速データと操舵角データの計測結果に基づく車両挙動の算出を行い、自車両の移動量を求める。ステップS105では、ステップS104の車両挙動算出の結果に基づいて、撮像画像中に検出領域を設定する。このとき、前述したようにレーンマークに沿って、実空間上に仮想的に固定された2列のすだれ状の検出領域を設定する。これにより、図2の検出領域10〜15および判定領域20〜25が設定される。ステップS105を実行したら図4のステップS10を終了する。このようにして、検出領域設定処理が行われる。
In step S103, a white line portion that is a lane mark is detected from the captured image based on the result of the Hough transform process in step S102. In step S104, the vehicle behavior is calculated based on the measurement results of the wheel speed data and the steering angle data by the
次に、ステップS20で実行する飛び出し物体判定処理の内容を図6のフローチャートにより説明する。ステップS200では、検出領域設定処理によって撮像画像中に設定された検出領域10〜15におけるオプティカルフローを算出する。ステップS201では、ステップS200で算出された各検出領域のオプティカルフローのうち、その向きが道路に向かっているものがあるか否かを判定する。道路の方向に向かうオプティカルフローがある場合はステップS202へ進む。一方、道路の方向に向かうオプティカルフローがない場合は図6のフローチャートを終了する。
Next, the pop-out object determination process executed in step S20 will be described with reference to the flowchart of FIG. In step S200, the optical flow in the
ステップS202では、ステップS201においてオプティカルフローが道路に向かっていると判定された検出領域に対して、その検出領域に対応する判定領域20〜25のいずれかにおいて、同一物体に対するオプティカルフローを算出する。すなわち、図2のオプティカルフロー201が検出された検出領域13に対応する判定領域23において、進入者200に対するオプティカルフローを算出する。ステップS203とS204では、検出領域13と判定領域23における進入者200の実空間上の移動速度を、式(2)と(4)を用いてそれぞれ算出する。
In step S202, the optical flow for the same object is calculated in any of the
ステップS205では、ステップS203において算出された検出領域13における進入者200の実空間上の移動速度と、ステップS204において算出された判定領域23における進入者200の実空間上の移動速度との差が、所定値以下であるか否かを判定する。このとき、式(5)を用いて判定を行う。このステップS205の判定により、進入者200が飛び出し物体として検出される。
In step S205, the difference between the moving speed of the
ステップS205において式(5)を満たす場合は、進入者200を飛び出し物体として検出することとしてステップS206へ進む。ステップS206では、警報機6をオンして警報音を出力する。ステップS206を実行した後は、図6のフローチャートを終了する。一方、ステップS205において式(5)を満たさないと判定した場合は、進入者200を飛び出し物体として検出しないこととし、ステップS206を実行しないで図6のフローチャートを終了する。以上説明したようにして、本装置における飛び出し物体の検出が行われる。
If the expression (5) is satisfied in step S205, the
以上説明した実施の形態によれば、次の作用効果が得られる。
(1)カメラ1によって自車両の進行先の撮像画像を取得し、この撮像画像中に実空間上に仮想的に固定された検出領域を設定する(ステップS105)。そして、この検出領域におけるオプティカルフローを算出し(ステップS200)、算出されたオプティカルフローに基づいて飛び出し物体を検出することとした(ステップS205)。このようにしたので、1台のカメラの撮像画像により自車両前方に飛び出す物体を検出できる
According to the embodiment described above, the following operational effects can be obtained.
(1) A captured image of the destination of the host vehicle is acquired by the camera 1, and a detection region virtually fixed in real space is set in the captured image (step S105). Then, the optical flow in this detection area is calculated (step S200), and the pop-out object is detected based on the calculated optical flow (step S205). Since it did in this way, the object which jumps ahead of the own vehicle can be detected with the picked-up image of one camera.
(2)自車両が走行している道路に沿って、所定間隔ごとに複数の検出領域を設定することとしたので、飛び出し物体が道路脇のどの位置から道路上へと飛び出してきても、確実に検出することができる。 (2) Since a plurality of detection areas are set at predetermined intervals along the road on which the host vehicle is traveling, it can be ensured that no matter where the jumping object jumps out on the road. Can be detected.
(3)撮像画像よりレーンマークを抽出し(ステップS103)、抽出されたレーンマークの位置に基づいて各検出領域の設定位置を決めることとしたので、道路に沿って確実に検出領域を設定することができる。 (3) Since the lane mark is extracted from the captured image (step S103) and the setting position of each detection area is determined based on the position of the extracted lane mark, the detection area is surely set along the road. be able to.
(4)道路に対して外側に設定された検出領域におけるオプティカルフローを算出し(ステップS200)、このオプティカルフローが道路の方向に向いている場合は(ステップS201)、内側に設定された判定領域における同一物体のオプティカルフローを算出する(ステップS202)。これらのオプティカルフローに基づいて、その物体の検出領域と判定領域における実空間上の移動速度をそれぞれ算出する(ステップS203、S204)。そして、算出された移動速度の差が所定値以下である場合、その物体を飛び出し物体として検出することとした(ステップS205)。このようにしたので、道路から離れた位置の物体までも誤って飛び出し物体として検出してしまうのを防ぐことができる。 (4) The optical flow in the detection area set outside the road is calculated (step S200). If the optical flow is directed toward the road (step S201), the determination area set inside is determined. The optical flow of the same object at is calculated (step S202). Based on these optical flows, the moving speeds of the object in the detection area and the determination area in the real space are calculated (steps S203 and S204). Then, when the calculated difference in moving speed is equal to or less than the predetermined value, the object is detected as a pop-out object (step S205). Since it did in this way, it can prevent detecting even the object of the position away from the road as a jumping out object accidentally.
なお、上記の実施の形態では撮像画像よりレーンマークを抽出し、そのレーンマークの位置に基づいて検出領域の設定位置を決めることにより、自車両の進行先の道路に沿って各検出領域が設定されるようにしていた。しかし、ナビゲーション装置などにおいて使用される地図情報を用いて道路形状を判断することにより、自車両の進行先の道路に沿って各検出領域が設定されるようにしてもよい。 In the above embodiment, each detection area is set along the road where the host vehicle travels by extracting the lane mark from the captured image and determining the setting position of the detection area based on the position of the lane mark. I was supposed to be. However, each detection area may be set along the road on which the host vehicle travels by determining the road shape using map information used in a navigation device or the like.
上記の実施形態では、撮像手段をカメラ1によって実現し、その他の各手段をマイコン5の処理によって実現しているが、これはあくまで一例であって、本発明の特徴が損なわれない限り、各構成要素は上記実施の形態に限定されない。
In the above embodiment, the imaging means is realized by the camera 1, and the other respective means are realized by the processing of the
1:カメラ
2:画像メモリ
3:車輪速センサ
4:操舵角センサ
5:マイコン
6:警報機
200:進入者
1: Camera 2: Image memory 3: Wheel speed sensor 4: Steering angle sensor 5: Microcomputer 6: Alarm 200: Intruder
Claims (4)
前記自車両の移動量を検出する移動量検出手段と、
前記移動量検出手段により検出された移動量に基づいて、実空間上に仮想的に固定された検出領域を前記撮像画像中に設定する検出領域設定手段と、
前記検出領域設定手段により設定された検出領域における物体の画像上の速度を示すオプティカルフローを算出するオプティカルフロー算出手段と、
前記オプティカルフローに基づいて、前記自車両の進行先に飛び出す飛び出し物体を検出する飛び出し物体検出手段とを備え、
前記検出領域設定手段は、前記自車両が走行している道路の境界部分から所定距離離れた地点と、その地点よりも所定の横間隔だけ前記道路に対して近い地点とをそれぞれの実空間上における仮想的な設定位置とする2つの検出領域を設定し、
前記オプティカルフロー算出手段は、前記2つの検出領域のうち前記道路に対して外側に設定された第1の検出領域における前記物体の画像上の速度を示す第1のオプティカルフローと、前記第1の検出領域よりも前記道路に対して内側に設定された第2の検出領域における前記物体の画像上の速度を示す第2のオプティカルフローとを算出し、
前記飛び出し物体検出手段は、前記第1のオプティカルフローに基づいて算出された前記物体の実空間上における第1の移動速度と、前記第2のオプティカルフローに基づいて算出された前記物体の実空間上における第2の移動速度との差が所定値以下である場合、前記物体を前記飛び出し物体として検出することを特徴とする飛び出し物体検出装置。 Imaging means for acquiring a captured image of the destination of the host vehicle;
A movement amount detecting means for detecting a movement amount of the host vehicle;
Detection area setting means for setting a detection area virtually fixed in real space in the captured image based on the movement amount detected by the movement amount detection means;
An optical flow calculating means for calculating an optical flow indicating a speed on the image of the object in the detection area set by the detection area setting means;
Based on the optical flow, provided with a protruding object detection means for detecting a protruding object that jumps out to the destination of the host vehicle ,
The detection area setting means includes a point that is a predetermined distance away from a boundary portion of the road on which the host vehicle is traveling and a point that is closer to the road by a predetermined lateral distance than the point in each real space. Set two detection areas as virtual setting positions in
The optical flow calculation means includes a first optical flow indicating a speed on the image of the object in a first detection area set outside the road among the two detection areas, and the first A second optical flow indicating a speed on the image of the object in the second detection region set inside the detection region relative to the road,
The pop-out object detection means includes a first movement speed of the object in the real space calculated based on the first optical flow, and a real space of the object calculated based on the second optical flow. A pop-out object detection device that detects the object as the pop-out object when the difference from the second moving speed is equal to or less than a predetermined value.
前記検出領域設定手段は、前記自車両が走行している道路に沿って所定間隔ごとに複数の検出領域を設定することを特徴とする飛び出し物体検出装置。 In the pop-out object detection device according to claim 1,
The pop-up object detection apparatus, wherein the detection area setting means sets a plurality of detection areas at predetermined intervals along a road on which the host vehicle is traveling.
前記撮像画像から前記道路の境界部分を示すレーンマークを抽出するレーンマーク抽出手段をさらに備え、
前記検出領域設定手段は、前記レーンマーク抽出手段により抽出されたレーンマークの位置に基づいて、前記複数の検出領域の設定位置を決めることを特徴とする飛び出し物体検出装置。 In the pop-out object detection device according to claim 2,
Lane mark extraction means for extracting a lane mark indicating a boundary portion of the road from the captured image,
The pop-up object detection device, wherein the detection area setting means determines the setting positions of the plurality of detection areas based on the positions of the lane marks extracted by the lane mark extraction means.
前記オプティカルフロー算出手段は、前記第1のオプティカルフローの向きが前記道路の方向に向いている場合に、前記第2のオプティカルフローをさらに算出することを特徴とする飛び出し物体検出装置。 In the pop-out object detection device according to any one of claims 1 to 3,
The pop-out object detection device, wherein the optical flow calculation means further calculates the second optical flow when the direction of the first optical flow is in the direction of the road.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004251686A JP4127255B2 (en) | 2004-08-31 | 2004-08-31 | Pop-up object detection device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004251686A JP4127255B2 (en) | 2004-08-31 | 2004-08-31 | Pop-up object detection device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006072439A JP2006072439A (en) | 2006-03-16 |
JP4127255B2 true JP4127255B2 (en) | 2008-07-30 |
Family
ID=36153045
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004251686A Expired - Fee Related JP4127255B2 (en) | 2004-08-31 | 2004-08-31 | Pop-up object detection device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4127255B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102007009745A1 (en) * | 2007-02-28 | 2008-09-04 | Continental Automotive Gmbh | Method for controlling vehicle steering during parking process, involves measuring parking place selected for parking vehicle and establishing orientation field, where orientation field determines number of support points |
JP5983865B2 (en) | 2013-04-03 | 2016-09-06 | トヨタ自動車株式会社 | Detection device and driving support device |
-
2004
- 2004-08-31 JP JP2004251686A patent/JP4127255B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2006072439A (en) | 2006-03-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5594246B2 (en) | Lane recognition device | |
JP4962581B2 (en) | Lane marking detector | |
JP5281664B2 (en) | Lane departure warning device and lane departure warning system | |
JP7077910B2 (en) | Bound line detection device and lane marking method | |
JP2010078387A (en) | Lane determining apparatus | |
JP6261832B1 (en) | Traveling path recognition device and traveling path recognition method | |
JP2001091217A (en) | Object-recognizing apparatus | |
JP6295859B2 (en) | In-vehicle system, information processing apparatus, and program | |
JP6283105B2 (en) | Stereo camera device, vehicle having stereo camera device installed, and program | |
US11468691B2 (en) | Traveling lane recognition apparatus and traveling lane recognition method | |
JP2011150573A (en) | Drive recorder | |
JP5974923B2 (en) | Road edge detection system, method and program | |
JP3384278B2 (en) | Distance measuring device | |
JP4967603B2 (en) | Vehicle rear side monitoring device | |
US20110304734A1 (en) | Method and apparatus for operating a video-based driver assistance system in a vehicle | |
JP2007299045A (en) | Lane recognition device | |
JP4127255B2 (en) | Pop-up object detection device | |
JP2009014645A (en) | Distance measuring device used for vehicle | |
US11837121B2 (en) | Display correction system, display system, and display correction method | |
JP5193148B2 (en) | Vehicle imaging device | |
JP4225242B2 (en) | Travel path recognition device | |
CN115943287A (en) | Vehicle attitude estimation system and vehicle attitude estimation method | |
WO2020036039A1 (en) | Stereo camera device | |
JP5549468B2 (en) | Feature position acquisition apparatus, method and program | |
JP6048384B2 (en) | Image determination device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060127 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20080123 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080129 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080321 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080422 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080505 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110523 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4127255 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130523 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140523 Year of fee payment: 6 |
|
LAPS | Cancellation because of no payment of annual fees |