JP2008257378A - Object detection device - Google Patents

Object detection device Download PDF

Info

Publication number
JP2008257378A
JP2008257378A JP2007097213A JP2007097213A JP2008257378A JP 2008257378 A JP2008257378 A JP 2008257378A JP 2007097213 A JP2007097213 A JP 2007097213A JP 2007097213 A JP2007097213 A JP 2007097213A JP 2008257378 A JP2008257378 A JP 2008257378A
Authority
JP
Japan
Prior art keywords
attention area
movement vector
image
obstacle
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2007097213A
Other languages
Japanese (ja)
Inventor
Junji Eguchi
純司 江口
Osamu Hasegawa
修 長谷川
Norio Tateishi
憲男 立石
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Tokyo Institute of Technology NUC
Original Assignee
Honda Motor Co Ltd
Tokyo Institute of Technology NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd, Tokyo Institute of Technology NUC filed Critical Honda Motor Co Ltd
Priority to JP2007097213A priority Critical patent/JP2008257378A/en
Publication of JP2008257378A publication Critical patent/JP2008257378A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an object detection device 10 capable of always setting an effective caution region and detecting various objects which are likely to collide with a present vehicle. <P>SOLUTION: This object detection device is provided with: an image acquisition means 12 for acquiring a time-series image in the periphery of its own vehicle; a moving vector extraction means 16 for extracting the moving vector of an object existing in the image based on the acquired image; a disappearing point calculation means 18 for calculating an FOE indicating the traveling direction of its own vehicle; a caution region setting means 14 for setting a caution region in an image based on the calculated FOE; and an object decision means 22 for deciding an obstacle which is likely to be brought into contact with its own vehicle in the set caution region. The caution region setting means 14 sets a plurality of caution regions, and the obstacle detection means 22 decides the obstacle based on the direction of the moving vector to the FOE and which caution region does the moving vector exist in. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、物体検出装置に関するものである。   The present invention relates to an object detection device.

自動車にカメラを搭載し、そのカメラで周囲の道路環境を撮影し、撮影した画像を解析することで、自車前方の障害物を検出する装置が提案されている。
例えば、特許文献1に記載された技術では、自車両の進行先の撮像画像を1台のカメラから取得し、この撮像画像中に実空間上に仮想的に固定された検出領域を設定する。そして設定された検出領域におけるオプティカルフローを算出し、そのオプティカルフローに基づいて飛出し物体を検出する。
There has been proposed an apparatus for detecting an obstacle ahead of the host vehicle by mounting a camera on a car, photographing the surrounding road environment with the camera, and analyzing the photographed image.
For example, in the technique described in Patent Document 1, a captured image of a travel destination of the host vehicle is acquired from one camera, and a detection region virtually fixed in real space is set in the captured image. Then, an optical flow in the set detection area is calculated, and a flying object is detected based on the optical flow.

撮像画像が読み込まれると、初めに道路の境界部分を示すレーンマーク(白線)を撮像画像から抽出する。このレーンマークは、ソベルフィルタと呼ばれる画像フィルタを用いて撮像画像から縦方向のエッジを抽出し、そのエッジに対してハフ変換と呼ばれる処理を行って直線形状を求めることにより、撮像画像から抽出することができる。撮像画像からレーンマークが抽出されたら、次に撮像画像から物体を検出するための検出領域を撮像画像中に設定する。このとき、抽出されたレーンマークの位置に基づいて各検出領域の設定位置を決めることとし、レーンマークに沿って検出領域を所定間隔ごとに並べることで、自車両が走行している道路に沿って検出領域が所定間隔ごとに設定されるようにする。さらにこのとき、所定の横間隔ごとに2つの検出領域を横に並べる。外側・内側と道路に沿って2列のすだれ状の検出領域が設定される。   When the captured image is read, a lane mark (white line) indicating a boundary portion of the road is first extracted from the captured image. The lane mark is extracted from the captured image by extracting a vertical edge from the captured image using an image filter called a Sobel filter and performing a process called Hough transform on the edge to obtain a linear shape. be able to. When the lane mark is extracted from the captured image, a detection area for detecting an object from the captured image is set in the captured image. At this time, the setting position of each detection area is determined based on the position of the extracted lane mark, and the detection area is arranged at predetermined intervals along the lane mark so that it follows the road on which the host vehicle is traveling. The detection area is set at predetermined intervals. Further, at this time, two detection areas are arranged side by side at predetermined horizontal intervals. Two rows of interdigital detection areas are set along the outer and inner sides and along the road.

上記の検出領域の設定で外側に設定した領域を検出領域,内側に設定した領域を判定領域とする。検出領域と判定領域においてそれぞれに算出されたオプティカルフローに基づき、その物体の実空間上における移動速度を、検出領域と判定領域の両方についてそれぞれ算出する。この移動速度を比較し、その差が所定値以下であれば、検出された物体を飛出し物体として検出する。これによって、道路方向に移動している物体を全て飛出し物体として検出してしまい、道路から離れた位置の物体までも誤って検出することを防ぐことが可能となる。
特開2003−281700号公報
The area set outside in the above detection area setting is set as a detection area, and the area set inside is set as a determination area. Based on the optical flows respectively calculated in the detection area and the determination area, the moving speed of the object in the real space is calculated for both the detection area and the determination area. The movement speeds are compared, and if the difference is equal to or less than a predetermined value, the detected object is detected as a flying object. As a result, it is possible to prevent all objects moving in the road direction from being detected as flying objects, and to detect even objects at positions away from the road by mistake.
JP 2003-281700 A

従来の技術においては、レーンマークを利用して検出領域及び判定領域を設定しているため、レーンマークが抽出することができなかった場合に領域を設定することができなくなってしまうという問題を含んでいる。すなわち、白線がない山道や、白線が途切れている交差点の中、カーブ走行時といった場面で、飛出してくる移動物体を抽出することが不可能である。また、従来技術では横方向からの飛出し物体のみを対象とし、対向物体及び追越し物体を検出することができない。   In the conventional technology, since the detection area and the determination area are set using the lane mark, there is a problem that the area cannot be set when the lane mark cannot be extracted. It is out. That is, it is impossible to extract a moving object that pops out in a mountain road without a white line, an intersection where a white line is broken, or a scene such as when traveling on a curve. Further, in the prior art, only an object flying out from the lateral direction is targeted, and an opposing object and an overtaking object cannot be detected.

そこで本発明は、常に有効な注意領域を設定し、自車両と衝突する可能性のある様々な障害物を検出することが可能な、物体検出装置の提供を課題とする。   Therefore, an object of the present invention is to provide an object detection device that can always set an effective attention area and detect various obstacles that may collide with the host vehicle.

上記課題を解決するために、請求項1に係る発明は、自車両周辺の時系列画像を取得する画像取得手段(例えば、実施形態における画像取得手段12)と、前記画像に基づいて該画像内に存在する物体の移動ベクトルを抽出する移動ベクトル抽出手段(例えば、実施形態における移動ベクトル抽出手段16)と、前記自車両の進行方向をあらわす消失点を算出する消失点算出手段(例えば、実施形態における消失点算出手段18)と、前記消失点に基づいて前記画像内に注意領域を設定する注意領域設定手段(例えば、実施形態における注意領域設定手段14)と、前記注意領域内で前記自車両と接触可能性のある障害物を判定する障害物判定手段(例えば、実施形態における障害物判定手段22)と、を備えた物体検出装置(例えば、実施形態における物体検出装置10)において、前記注意領域設定手段は、複数の注意領域を設定し、前記障害物判定手段は、前記移動ベクトルの前記消失点に対する向きおよび該移動ベクトルが何れの注意領域に存在するかに基づいて該障害物を判定することを特徴とする。   In order to solve the above-mentioned problem, the invention according to claim 1 is directed to an image acquisition unit (for example, the image acquisition unit 12 in the embodiment) that acquires a time-series image around the host vehicle, and the image based on the image. A movement vector extraction means for extracting a movement vector of an object existing in the vehicle (for example, movement vector extraction means 16 in the embodiment), and a vanishing point calculation means for calculating a vanishing point representing the traveling direction of the host vehicle (for example, the embodiment) Vanishing point calculating means 18), attention area setting means for setting an attention area in the image based on the vanishing point (for example, attention area setting means 14 in the embodiment), and the host vehicle within the attention area An obstacle detection means (for example, the obstacle determination means 22 in the embodiment) for determining an obstacle that may come into contact with the object detection device (for example, implementation) In the object detection apparatus 10), the attention area setting means sets a plurality of attention areas, and the obstacle determination means determines the direction of the movement vector with respect to the vanishing point and the movement vector in any attention area. The obstacle is determined based on whether it exists.

請求項2に係る発明は、前記注意領域設定手段は、前記画像内の前記消失点を中心として第1の前記注意領域(例えば、実施形態における注意領域1)を設定し、前記障害物判定手段は、前記移動ベクトルが前記第1の注意領域内に存在し、かつ前記消失点に向かう場合に、前記物体を前記障害物(例えば、実施形態における飛出し車両)であると判定することを特徴とする。   The invention according to claim 2 is characterized in that the attention area setting means sets the first attention area (for example, attention area 1 in the embodiment) around the vanishing point in the image, and the obstacle determination means. Determines that the object is the obstacle (for example, a jumping-out vehicle in the embodiment) when the movement vector exists in the first attention area and moves toward the vanishing point. And

請求項3に係る発明は、前記注意領域設定手段は、前記画像内の前記消失点を中心として第1の前記注意領域を設定し、前記障害物判定手段は、前記移動ベクトルが前記第1の注意領域内に存在し、かつ前記消失点から離れる方向に向かう場合に、前記物体を前記障害物(例えば、実施形態における対向車両)であると判定することを特徴とする。   In the invention according to claim 3, the caution area setting means sets the first caution area around the vanishing point in the image, and the obstacle determination means has the movement vector as the first movement vector. It is characterized in that the object is determined to be the obstacle (for example, an oncoming vehicle in the embodiment) when it exists in the attention area and moves away from the vanishing point.

請求項4に係る発明は、前記注意領域設定手段は、前記画像内の右下端および左下端の少なくとも一方に第2の前記注意領域(例えば、実施形態における注意領域2)を設定し、前記障害物判定手段は、前記移動ベクトルが前記第2の注意領域内に存在し、かつ前記消失点に向かう場合に、前記物体を前記障害物(例えば、実施形態における追越し車両)であると判定することを特徴とする。   In the invention according to claim 4, the caution area setting means sets the second caution area (for example, caution area 2 in the embodiment) in at least one of the lower right end and the lower left end in the image, and the obstacle The object determination means determines that the object is the obstacle (for example, the overtaking vehicle in the embodiment) when the movement vector exists in the second attention area and heads toward the vanishing point. It is characterized by.

請求項5に係る発明は、前記注意領域設定手段は、前記移動ベクトルの位置と方向に基づいて前記注意領域の大きさを設定することを特徴とする。   The invention according to claim 5 is characterized in that the attention area setting means sets the size of the attention area based on the position and direction of the movement vector.

請求項6に係る発明は、前記物体が持つ前記移動ベクトルの内で、複数の前記移動ベクトルとの相関値が所定値未満の前記移動ベクトルを除去するノイズ除去手段を備えることを特徴とする。   The invention according to claim 6 is characterized by comprising noise removal means for removing the movement vector having a correlation value with a plurality of movement vectors less than a predetermined value among the movement vectors of the object.

請求項7に係る発明は、前記移動ベクトル抽出手段は、前記移動ベクトルを抽出する際の前記画像の取得間隔を前記物体の速度に基づいて調整することを特徴とする。   The invention according to claim 7 is characterized in that the movement vector extraction means adjusts the acquisition interval of the image when extracting the movement vector based on the speed of the object.

請求項1に係る発明によれば、レーンマーク等を利用することなく、消失点に基づいて画像内に注意領域を設定するので、常に有効な注意領域を設定することができる。また、移動ベクトルの消失点に対する向きおよび該移動ベクトルが何れの注意領域に存在するかに基づいて障害物を判定するので、自車両と衝突する可能性のある様々な障害物を的確に検出することができる。   According to the first aspect of the present invention, since the attention area is set in the image based on the vanishing point without using the lane mark or the like, it is possible to always set the effective attention area. Further, since the obstacle is determined based on the direction of the movement vector with respect to the vanishing point and in which attention area the movement vector exists, various obstacles that may collide with the host vehicle are accurately detected. be able to.

飛出し車両は消失点の近傍に出現し、その移動ベクトルは消失点に近づく方向に向かうので、請求項2に係る発明によれば、飛出し車両を精度良く検出することができる。   Since the flying vehicle appears in the vicinity of the vanishing point, and its movement vector is directed in the direction approaching the vanishing point, the flying vehicle can be detected with high accuracy.

対向車両は消失点の近傍に出現し、その移動ベクトルは消失点から離れる方向に向かうので、請求項3に係る発明によれば、対向車両を精度良く検出することができる。   Since the oncoming vehicle appears in the vicinity of the vanishing point and its movement vector goes in a direction away from the vanishing point, the oncoming vehicle can be detected with high accuracy.

追越し車両は画像内の右下端または左下端に出現し、その移動ベクトルは消失点に近づく方向に向かうので、請求項4に係る発明によれば、追越し車両を精度良く検出することができる。   Since the overtaking vehicle appears at the lower right end or the lower left end in the image, and its movement vector goes in the direction approaching the vanishing point, the overtaking vehicle can be detected with high accuracy.

請求項5に係る発明によれば、検出した障害物の移動ベクトルに基づいて注意領域を設定するので、継続して障害物を検出することが可能な注意領域を設定することができる。   According to the fifth aspect of the invention, since the attention area is set based on the detected movement vector of the obstacle, it is possible to set the attention area where the obstacle can be detected continuously.

請求項6に係る発明によれば、障害物を精度良く検出することができる。   According to the invention which concerns on Claim 6, an obstruction can be detected accurately.

請求項7に係る発明によれば、画像の取得間隔を調整することで、低速度で移動する物体の移動ベクトルを確実に抽出することができる。   According to the seventh aspect of the present invention, the movement vector of the object moving at a low speed can be reliably extracted by adjusting the image acquisition interval.

以下、本発明の実施形態につき図面を参照して説明する。
図1は、本実施形態に係る物体検出装置のブロック図である。本実施形態に係る物体検出装置10は、自車両周辺の時系列画像を取得する画像取得手段(撮像手段)12と、前記画像に基づいて該画像内に存在する物体の移動ベクトルを抽出する移動ベクトル抽出手段16と、前記自車両の進行方向をあらわす消失点を算出する消失点算出手段18と、前記消失点に基づいて前記画像内に注意領域を設定する注意領域設定手段14と、前記注意領域内で前記自車両と接触可能性のある相手車両(障害物)30を判定する障害物判定手段22と、相手車両の存在を報知する報知手段24とを備えるものである。なお移動ベクトル抽出手段16、消失点算出手段18、注意領域設定手段14および障害物判定手段22は、自車両に搭載されたコンピュータ20に構築されている。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a block diagram of an object detection apparatus according to this embodiment. The object detection apparatus 10 according to the present embodiment includes an image acquisition unit (imaging unit) 12 that acquires a time-series image around the host vehicle, and a movement that extracts a movement vector of an object existing in the image based on the image. A vector extracting unit 16; a vanishing point calculating unit 18 for calculating a vanishing point representing a traveling direction of the host vehicle; a caution region setting unit 14 for setting a caution region in the image based on the vanishing point; The vehicle includes an obstacle determination unit 22 that determines a partner vehicle (obstacle) 30 that may contact the host vehicle in an area, and a notification unit 24 that notifies the presence of the partner vehicle. The movement vector extraction means 16, the vanishing point calculation means 18, the attention area setting means 14, and the obstacle determination means 22 are constructed in a computer 20 mounted on the host vehicle.

(画像取得手段)
画像取得手段12は、自車両周辺の時系列画像を取得するものであり、具体的には1台のCCDカメラやCMOS等で構成されている。なおステレオ視を利用するため2台のカメラで物体検出装置を構成する場合と比較して、本実施形態では1台のカメラで物体検出装置を構成することができるので、車両コストを低減することができる。この画像取得手段12は、自車両前方の画像を撮影するため、車室内のバックミラー付近などに固定されている。画像取得手段12によって撮影された画像は、メモリ(不図示)に記録されるとともに、移動ベクトル抽出手段16等に出力される。
(Image acquisition means)
The image acquisition unit 12 acquires a time-series image around the host vehicle, and specifically includes a single CCD camera, CMOS, or the like. In addition, since the object detection device can be configured with one camera in this embodiment compared to the case where the object detection device is configured with two cameras to use stereo vision, the vehicle cost can be reduced. Can do. This image acquisition means 12 is fixed in the vicinity of a rearview mirror in the passenger compartment in order to capture an image in front of the host vehicle. An image taken by the image acquisition unit 12 is recorded in a memory (not shown) and output to the movement vector extraction unit 16 and the like.

(移動ベクトル抽出手段)
移動ベクトル抽出手段16は、画像内に存在する物体の移動ベクトルを、画像のピクセルごとに抽出するものである。
図2は、移動ベクトルの説明図である。一般に、動画から物体の動きを抽出する手法の一つとして、オプティカルフローが知られている。オプティカルフローは物体30の移動ベクトル32であり、時間的に連続する2つの画像V0,V1間において、同一物体の輝度変化は小さいという仮定の下で、同程度の輝度をもつ点の移動量から算出される。
(Moving vector extraction means)
The movement vector extracting means 16 extracts a movement vector of an object existing in the image for each pixel of the image.
FIG. 2 is an explanatory diagram of the movement vector. In general, an optical flow is known as one of methods for extracting a motion of an object from a moving image. The optical flow is a movement vector 32 of the object 30, and is based on the movement amount of a point having the same level of luminance under the assumption that the change in luminance of the same object is small between two temporally continuous images V0 and V1. Calculated.

いま、時刻tにおける画像上の点P(x,y)の輝度値をE(x,y,t)とする。時刻tからt+Δtまでの間に、Pが(Δx,Δy)だけ移動し、輝度値が変化しないと仮定すると、数式1が成り立つ。   Now, let the luminance value of the point P (x, y) on the image at time t be E (x, y, t). Assuming that P moves by (Δx, Δy) from time t to t + Δt and the luminance value does not change, Formula 1 is established.

Figure 2008257378
数式1の右辺をテイラー展開して、2次以降の項は微小値であるため無視すると、数式2が得られる。
Figure 2008257378
If the right side of Equation 1 is Taylor-expanded and the terms after the second order are negligible values, Equation 2 is obtained.

Figure 2008257378
数式2の両辺をΔtで割ると、数式3が得られる。
Figure 2008257378
When both sides of Equation 2 are divided by Δt, Equation 3 is obtained.

Figure 2008257378
この数式3を、以下の数式4を用いて書き直すと、数式5が得られる。
Figure 2008257378
By rewriting Equation 3 using Equation 4 below, Equation 5 is obtained.

Figure 2008257378
Figure 2008257378

Figure 2008257378
この数式5を満たす(u,v)が、オプティカルフローである。
しかし、求める変数が(u,v)の2つであるのに対して、関係式が数式5の1つなので、これのみではオプティカルフローを求めることはできない。そこで、オプティカルフロー(u,v)の算出にあたり、数式5のほかに、「オプティカルフローは滑らかに変化する」という条件を付け加える。オプティカルフロー(u,v)の変化量は、次の数式6で表される。
Figure 2008257378
The optical flow is (u, v) that satisfies Equation (5).
However, since there are two variables (u, v) to be obtained, the relational expression is one of Equation 5, so that it is not possible to obtain an optical flow by this alone. Therefore, in calculating the optical flow (u, v), in addition to Equation 5, a condition that “the optical flow changes smoothly” is added. The amount of change in the optical flow (u, v) is expressed by the following formula 6.

Figure 2008257378
数式5および数式6より、次の数式7を立てる。
Figure 2008257378
From Equation 5 and Equation 6, the following Equation 7 is established.

Figure 2008257378
この数式7を最小化する(u,v)が、求めるオプティカルフローである。この数式7は、一般的な変分法を用いて解くことができる。
Figure 2008257378
The optical flow to be obtained is (u, v) that minimizes Equation 7. Equation 7 can be solved using a general variational method.

図1に示す移動ベクトル抽出手段16は、移動ベクトルを抽出する際の画像の取得間隔を調整しうるようになっていることが望ましい。
図3は、移動ベクトルの代替算出方法の説明図である。低速度で移動している車両は、連続する画像間での移動量が小さい。そのため、現在(時刻t)の画像V0とその直前(時刻t−Δt)の画像V-1との間で、オプティカルフローを抽出するのが困難である。そこで、オプティカルフローを抽出する際の画像の取得間隔を長くし、現在(時刻t)の画像V0と時刻t−nΔtの画像V-nとの間でオプティカルフローを抽出する。このように画像の取得間隔を車両の速度に基づいて調整することにより、低速度で移動している車両でも、画像間での移動量が大きくなるため、オプティカルフロー32を確実に抽出することができる。このように抽出したオプティカルフローを1/n倍すれば、連続する画像間で抽出したオプティカルフローと同様に取り扱うことができる。なお本実施形態ではn=2としている。
It is desirable that the movement vector extraction means 16 shown in FIG. 1 can adjust the image acquisition interval when extracting the movement vector.
FIG. 3 is an explanatory diagram of a movement vector alternative calculation method. A vehicle moving at a low speed has a small amount of movement between successive images. Therefore, it is difficult to extract an optical flow between the current image V0 (time t) and the image V-1 immediately before (time t−Δt). Therefore, the image acquisition interval when extracting the optical flow is lengthened, and the optical flow is extracted between the current image V0 (time t) and the image V-n at time t−nΔt. By adjusting the image acquisition interval based on the speed of the vehicle in this way, even if the vehicle is moving at a low speed, the amount of movement between the images increases, so that the optical flow 32 can be reliably extracted. it can. If the optical flow extracted in this way is multiplied by 1 / n, it can be handled in the same manner as the optical flow extracted between successive images. In this embodiment, n = 2.

(ノイズ除去手段)
図1に示す移動ベクトル抽出手段16は、ノイズ除去手段(不図示)を備えていることが望ましい。ノイズ除去手段は、物体が持つ移動ベクトルの内で複数の移動ベクトルとの相関値が所定値未満の移動ベクトルを除去するものである。
図4は、移動ベクトルのノイズ除去の説明図である。上記のように求めた移動ベクトル32には、ノイズ(雑音成分)32nが含まれている可能性がある。このノイズ32nは周囲の移動ベクトル32との相関が小さいことを利用して、次の手法でノイズ32nを除去することが可能である。
(Noise removal means)
The movement vector extraction means 16 shown in FIG. 1 preferably includes noise removal means (not shown). The noise removing means removes a movement vector having a correlation value with a plurality of movement vectors less than a predetermined value from movement vectors of the object.
FIG. 4 is an explanatory diagram of noise removal of the movement vector. The movement vector 32 obtained as described above may include noise (noise component) 32n. The noise 32n can be removed by the following method using the fact that the noise 32n has a small correlation with the surrounding movement vector 32.

一般的に、同一物体における局所領域のオプティカルフロー32は、向きおよび大きさが類似する性質をもつ(相関が大きい)。これに対してノイズ32nは、周囲の移動ベクトルと向きおよび大きさが異なる(相関が小さい)。そこで、始点座標が(xa0,ya0)、終点座標が(xa1,ya1)の、数式8に示す任意のflowAを考える。   In general, the optical flow 32 in the local region in the same object has properties that are similar in direction and size (high correlation). On the other hand, the noise 32n is different in direction and size from the surrounding movement vector (correlation is small). Therefore, an arbitrary flowA shown in Formula 8 in which the start point coordinates are (xa0, ya0) and the end point coordinates are (xa1, ya1) is considered.

Figure 2008257378
このflowAの周囲N×Nピクセルに存在するn個のflowXkと、flowAとの平均相関値cor_aveを、数式9により算出する。
Figure 2008257378
An average correlation value cor_ave between n flowXk existing in N × N pixels around this flowA and flowA is calculated by Equation 9.

Figure 2008257378
なお本実施形態では、N=5およびn>1に設定した。
この平均相関値cor_aveが、閾値Threshold_Noise以下であるか、数式10により判断する。
Figure 2008257378
In this embodiment, N = 5 and n> 1.
Whether the average correlation value cor_ave is equal to or less than the threshold value Threshold_Noise is determined by Expression 10.

Figure 2008257378
なお本実施形態では、Threshold_Noise=0.8に設定した。数式10を満たす場合にはflowAをノイズであるとみなす。このようにノイズとみなされたflowAを移動ベクトルから除去することにより、障害物を精度良く検出することができる。
Figure 2008257378
In this embodiment, Threshold_Noise = 0.8 is set. When Formula 10 is satisfied, flowA is regarded as noise. Thus, by removing the flow A regarded as noise from the movement vector, the obstacle can be detected with high accuracy.

(消失点算出手段)
図1に示す消失点算出手段18は、自車両の進行方向をあらわす消失点を算出するものである。
図5は、消失点算出方法の説明図である。本実施形態において消失点は、自車の進行によって生じる周囲の静止物体92のオプティカルフロー93から求める。一般に、自車が前方に進行する場合、周囲の静止物体92のオプティカルフロー93は、画像の消失点(Focus of Expansion;以下「FOE」という。)90から湧き出すように発生する。そのため、複数のオプティカルフロー93の湧き出し点としてFOE90を算出することができる。
(Vanishing point calculation means)
The vanishing point calculating means 18 shown in FIG. 1 calculates a vanishing point that represents the traveling direction of the host vehicle.
FIG. 5 is an explanatory diagram of a vanishing point calculation method. In the present embodiment, the vanishing point is obtained from the optical flow 93 of the surrounding stationary object 92 generated by the traveling of the host vehicle. In general, when the host vehicle travels forward, an optical flow 93 of a surrounding stationary object 92 is generated so as to spring out from an image vanishing point (hereinafter referred to as “FOE”) 90. Therefore, the FOE 90 can be calculated as a spring point of the plurality of optical flows 93.

ただし、FOEは自車の進行方向によって変化するため、画像毎にFOEを算出する必要があり、計算コストが増大するという問題がある。そこで、次の手法によりFOEの座標を推定する。時刻t+ΔtにおけるFOE座標(foe_x(t+Δt),foe_y(t+Δt))は、時刻tにおけるFOE座標(foe_x(t),foe_y(t))を用いて、数式11で表すことができる。   However, since the FOE changes depending on the traveling direction of the own vehicle, it is necessary to calculate the FOE for each image, which increases the calculation cost. Therefore, FOE coordinates are estimated by the following method. The FOE coordinates (foe_x (t + Δt), foe_y (t + Δt)) at time t + Δt can be expressed by Equation 11 using the FOE coordinates (foe_x (t), foe_y (t)) at time t.

Figure 2008257378
数式11のΔxおよびΔyは、時間Δtの経過による自車進行方向の変化量であり、自車速度および操舵角から求めることができる。
図6は、FOE座標の変化量テーブルの説明図である。このテーブルには、横軸に自車速度をとり、縦軸に操舵角をとって、予め計算や実測によって求めた自車進行方向の変化量が記載されている。
Figure 2008257378
Δx and Δy in Expression 11 are changes in the traveling direction of the host vehicle with the passage of time Δt, and can be obtained from the host vehicle speed and the steering angle.
FIG. 6 is an explanatory diagram of a FOE coordinate change amount table. In this table, the amount of change in the traveling direction of the vehicle, which is obtained in advance by calculation or actual measurement, with the vehicle speed on the horizontal axis and the steering angle on the vertical axis, is described.

このように、時刻tにおけるFOE座標(foe_x(t),foe_y(t))に、図6で求めたΔxおよびΔyを繰り返し加算することにより、その後のFOE座標を簡単に推定することができる。これに伴って、画像毎に複数のオプティカルフローの湧き出し点としてFOEを算出する必要がなくなり、計算コストを低減することができる。   Thus, the subsequent FOE coordinates can be easily estimated by repeatedly adding Δx and Δy obtained in FIG. 6 to the FOE coordinates (foe_x (t), foe_y (t)) at time t. Accordingly, it is not necessary to calculate the FOE as a source of a plurality of optical flows for each image, and the calculation cost can be reduced.

(注意領域設定手段)
図1に示す注意領域設定手段は、自車両と衝突する可能性がある障害物を検出すべき注意領域を設定するものである。
図7は、注意領域の説明図である。本実施形態では、検出対象である障害物を、飛出し車両、対向車両および追越し車両の三種類とする。そのうち飛出し車両および対向車両は、自車両の進行方向の近傍に出現する。そこで、FOEを中心に四角形の注意領域1を設定する。また追越し車両は、自車両の両脇に出現する。そこで、画像の左下端に四角形の注意領域2Lを設定し、右下端に四角形の注意領域2Rを設定する。
(Caution area setting means)
The attention area setting means shown in FIG. 1 sets an attention area in which an obstacle that may collide with the host vehicle is to be detected.
FIG. 7 is an explanatory diagram of the attention area. In the present embodiment, there are three types of obstacles to be detected: a jump-out vehicle, an oncoming vehicle, and an overtaking vehicle. Among them, the jump-out vehicle and the oncoming vehicle appear in the vicinity of the traveling direction of the host vehicle. Therefore, a rectangular attention area 1 is set around the FOE. In addition, the overtaking vehicle appears on both sides of the own vehicle. Therefore, a square attention area 2L is set at the lower left corner of the image, and a square attention area 2R is set at the lower right edge.

注意領域1は、FOEを中心とする四角形に設定し、その大きさの初期値は幅W10、高さH10に設定する。本実施形態では、640×480ピクセルの画像に対して、幅W10=300ピクセル、高さH10=200ピクセルに設定する。   The attention area 1 is set to a quadrangle centered on the FOE, and the initial value of the size is set to the width W10 and the height H10. In the present embodiment, the width W10 = 300 pixels and the height H10 = 200 pixels are set for an image of 640 × 480 pixels.

図8は、画像内における障害物の大きさの説明図である。注意領域1において飛出し車両30を検出した場合には、追跡監視のためその後の画像からも同じ飛出し車両30を検出する必要がある。ところが、自車の進行に伴って、画像内での飛出し車両30の大きさは拡大する。この場合、注意領域1の大きさが初期値のままでは、飛出し車両30を検出できなくなる可能性がある。   FIG. 8 is an explanatory diagram of the size of the obstacle in the image. When the jumping vehicle 30 is detected in the caution area 1, it is necessary to detect the same jumping vehicle 30 from the subsequent image for tracking monitoring. However, the size of the flying vehicle 30 in the image increases as the host vehicle advances. In this case, there is a possibility that the flying vehicle 30 cannot be detected if the size of the attention area 1 remains the initial value.

そこで、以下の手法により注意領域1の大きさを拡大する。注意領域1内で検出された飛出し車両30の移動ベクトルのうち、その始点がX方向においてFOEから最も離れているもの(移動ベクトル34の始点34s)に注目する。時系列画像において、始点34sの位置は徐々にX方向外側に移動する。そこで、この始点34sが含まれるように注意領域1の大きさを設定すれば、飛出し車両30を常に検出することができる。   Therefore, the size of the attention area 1 is enlarged by the following method. Of the movement vectors of the flying vehicle 30 detected in the attention area 1, attention is paid to the movement vector whose start point is farthest from the FOE in the X direction (start point 34s of the movement vector 34). In the time series image, the position of the start point 34s gradually moves outward in the X direction. Therefore, if the size of the attention area 1 is set so that the start point 34s is included, the flying vehicle 30 can always be detected.

図9は、注意領域の拡大操作の説明図である。移動ベクトル34の始点34sのX座標をxs1とし、FOEのX座標をxfoeとすれば、新たな注意領域1の幅(暫定値)W1´は数式12で表される。   FIG. 9 is an explanatory diagram of the operation for enlarging the attention area. If the X coordinate of the start point 34s of the movement vector 34 is xs1 and the X coordinate of the FOE is xfoe, the width (provisional value) W1 ′ of the new attention area 1 is expressed by Equation 12.

Figure 2008257378
ただし、新たな注意領域1の幅W1が初期値W10より小さくなるのは適当でない。そこで、数式13の規則に従って、新たな注意領域1の幅W1を決定する。
Figure 2008257378
However, it is not appropriate that the width W1 of the new attention area 1 is smaller than the initial value W10. Therefore, a new width W1 of the attention area 1 is determined according to the rule of Expression 13.

Figure 2008257378
Figure 2008257378

同様に、注意領域1内で検出された飛出し車両30の移動ベクトルのうち、その始点がY方向においてFOEから最も離れているもの(移動ベクトル35の始点35s)に注目する。始点35sのY座標をys1とし、FOEのY座標をyfoeとすれば、新たな注意領域1の高さ(暫定値)H1´は数式14で表される。   Similarly, attention is paid to the movement vector of the flying vehicle 30 detected in the attention area 1 whose start point is farthest from the FOE in the Y direction (start point 35s of the movement vector 35). If the Y coordinate of the starting point 35s is ys1 and the Y coordinate of the FOE is yfoe, the height (provisional value) H1 ′ of the new attention area 1 is expressed by Equation 14.

Figure 2008257378
ただし、新たな注意領域1の高さH1が初期値H10より小さくならないように、数式15の規則に従って新たな注意領域1の高さH1を決定する。
Figure 2008257378
However, the height H1 of the new attention area 1 is determined according to the rule of Equation 15 so that the height H1 of the new attention area 1 does not become smaller than the initial value H10.

Figure 2008257378
Figure 2008257378

図7に戻り、注意領域2Lおよび注意領域2Rは、画像の左下隅および右下隅における四角形に設定し、その大きさの初期値は幅W20、高さH20に設定する。なお注意領域2Lの大きさの初期値と注意領域2Rの大きさの初期値とを異なる値に設定してもよい。   Returning to FIG. 7, the attention area 2L and the attention area 2R are set to squares at the lower left corner and the lower right corner of the image, and the initial values of the sizes are set to the width W20 and the height H20. Note that the initial value of the size of the attention area 2L and the initial value of the size of the attention area 2R may be set to different values.

図10は、注意領域2Rの拡大操作の説明図である。注意領域2Rにおいて追越し車両31を検出した場合には、追跡監視のためその後の画像からも同じ追越し車両31を検出する必要がある。ところが追越し車両31は、時間の経過とともに自車両の進行方向に接近する。この場合、注意領域2Rの大きさが初期値のままでは、追越し車両31を検出できなくなる可能性がある。   FIG. 10 is an explanatory diagram of the enlargement operation of the attention area 2R. When the overtaking vehicle 31 is detected in the caution area 2R, it is necessary to detect the same overtaking vehicle 31 from the subsequent images for tracking monitoring. However, the passing vehicle 31 approaches the traveling direction of the host vehicle with the passage of time. In this case, there is a possibility that the overtaking vehicle 31 cannot be detected if the size of the attention area 2R remains the initial value.

そこで、以下の手法により注意領域2Rの大きさを拡大する。注意領域2内で検出された追越し車両31の移動ベクトルのうち、最もFOEに近い移動ベクトル36に注目する。時系列画像において、移動ベクトル36の終点36eの位置は徐々にFOEに接近する。そこで、この終点36eが含まれるように注意領域2Rの大きさを設定すれば、追越し車両31を常に検出することができる。   Therefore, the size of the attention area 2R is enlarged by the following method. Of the movement vectors of the overtaking vehicle 31 detected in the attention area 2, attention is paid to the movement vector 36 closest to the FOE. In the time series image, the position of the end point 36e of the movement vector 36 gradually approaches the FOE. Thus, if the size of the attention area 2R is set so that the end point 36e is included, the overtaking vehicle 31 can always be detected.

具体的には、移動ベクトル36の終点36eの座標を(xe1,ye1)とし、注意領域2Rの右端のX座標をxrとすれば、新たな注意領域2Rの幅(暫定値)W2R´は数式16で表される。   Specifically, if the coordinates of the end point 36e of the movement vector 36 are (xe1, ye1) and the X coordinate of the right end of the attention area 2R is xr, the width (provisional value) W2R ′ of the new attention area 2R is expressed by the mathematical formula. 16.

Figure 2008257378
ただし、注意領域2Rの幅W2Rが初期値W20より小さくなるのは適当でない。そこで、数式17の規則に従って、新たな注意領域2Rの幅W2Rを決定する。
Figure 2008257378
However, it is not appropriate that the width W2R of the attention area 2R is smaller than the initial value W20. Therefore, the width W2R of the new attention area 2R is determined according to the rule of Expression 17.

Figure 2008257378
Figure 2008257378

同様に、新たな注意領域2Rの高さ(暫定値)H2R´は数式18で表される。   Similarly, the height (provisional value) H2R ′ of the new attention area 2R is expressed by Expression 18.

Figure 2008257378
ただし、注意領域2Rの高さH2Rが初期値H20より小さくなるのは適当でない。そこで、数式19の規則に従って、新たな注意領域2Rの高さH2Rを決定する。
Figure 2008257378
However, it is not appropriate that the height H2R of the attention area 2R is smaller than the initial value H20. Therefore, the height H2R of the new attention area 2R is determined according to the rule of Expression 19.

Figure 2008257378
なお注意領域2Lの大きさについても、上述した注意領域2Rと同様に設定する。
Figure 2008257378
The size of the attention area 2L is set in the same manner as the attention area 2R described above.

(障害物判定手段)
図1に示す障害物判定手段は、注意領域の中から自車両と接触の可能性のある障害物を判定するものである。本実施形態では、注意領域内の移動ベクトルが、FOEとの位置関係で規定された障害物(飛出し車両、対向車両および追越し車両)の判別条件を満たすか否かを判断する。判別条件を満たす場合には、その移動ベクトルが占める画像領域に障害物が存在すると判断する。これには、最初に車両候補の移動ベクトルを抽出し,次にそれらに対して各種車両の判別をおこなう。
(Obstacle determination means)
The obstacle determination means shown in FIG. 1 determines an obstacle that may come into contact with the host vehicle from the attention area. In the present embodiment, it is determined whether or not the movement vector in the attention area satisfies the discrimination condition for obstacles (flying-out vehicle, oncoming vehicle, and overtaking vehicle) defined by the positional relationship with the FOE. When the determination condition is satisfied, it is determined that an obstacle exists in the image area occupied by the movement vector. For this purpose, first, the movement vectors of the vehicle candidates are extracted, and then various vehicles are discriminated against them.

最初に、注意領域の中から障害物候補となる移動ベクトルを抽出する。具体的には、各移動ベクトルの始点(xs、ys)および終点(xe,ye)と、FOE(xfoe,yfoe)との位置関係に着目し、以下の条件を満たす移動ベクトルを障害物候補として抽出する。   First, a movement vector as an obstacle candidate is extracted from the attention area. Specifically, focusing on the positional relationship between the start point (xs, ys) and end point (xe, ye) of each movement vector and FOE (xfoe, yfoe), a movement vector that satisfies the following conditions is used as an obstacle candidate. Extract.

対向車両の候補となるのは、注意領域1内でFOEから離れる移動ベクトルである。具体的には、数式20を満たす移動ベクトルが対向車両の候補となる。   A candidate for the oncoming vehicle is a movement vector that moves away from the FOE in the attention area 1. Specifically, a movement vector that satisfies Equation 20 is a candidate for an oncoming vehicle.

Figure 2008257378
Figure 2008257378

追越し車両の候補となるのは、注意領域2Lまたは注意領域2R内で、FOEに向かう移動ベクトルである。具体的には、数式21を満たす移動ベクトルが対向車両の候補となる。   A candidate for the overtaking vehicle is a movement vector toward the FOE in the attention area 2L or the attention area 2R. Specifically, a movement vector that satisfies Formula 21 is a candidate for an oncoming vehicle.

Figure 2008257378
Figure 2008257378

飛出し車両の候補となるのは、注意領域1内で側方からFOEに向かう移動ベクトルである。具体的には、数式22を満たす移動ベクトルが飛出し車両の候補となる。   A candidate for a jump-out vehicle is a movement vector from the side toward the FOE in the attention area 1. Specifically, a movement vector that satisfies Formula 22 is a candidate for a flying vehicle.

Figure 2008257378
Figure 2008257378

次に、障害物の候補になった複数の移動ベクトルにつき、以下の3条件が成立する画像内の領域を、障害物の存在領域として判断する。
障害物の移動ベクトルは、局所領域に密集しているはずである。そこで条件1として、複数の移動ベクトルのうち隣接する二つの移動ベクトルの始点間の平均距離dist_aveがしきい値dist_ave_Threshold以下であるか、数式23により判断する。
Next, for a plurality of movement vectors that are candidates for an obstacle, an area in the image that satisfies the following three conditions is determined as an obstacle existing area.
Obstacle movement vectors should be dense in the local region. Therefore, as condition 1, whether or not the average distance dist_ave between the start points of two adjacent movement vectors among the plurality of movement vectors is equal to or smaller than the threshold dist_ave_Threshold is determined by Expression 23.

Figure 2008257378
本実施形態では、dist_ave_Threshold=20ピクセルとする。
Figure 2008257378
In the present embodiment, dist_ave_Threshold = 20 pixels.

また条件2として、条件1が成立する領域において、移動ベクトルの総数n_FlowNumがn_FlowNum_Threshold以上であるか、数式24により判断する。   Also, as condition 2, in the area where condition 1 is satisfied, whether the total number n_FlowNum of movement vectors is equal to or greater than n_FlowNum_Threshold is determined by Expression 24.

Figure 2008257378
本実施形態では、n_FlowNum_Threshold=5とする。
Figure 2008257378
In this embodiment, n_FlowNum_Threshold = 5.

また障害物の移動ベクトルは、向きおよび大きさが類似する性質をもつ(相関が大きい)。そこで条件3として、条件1が成立する領域において、全移動ベクトル間の平均相関値n_Correlationが、しきい値n_Correlation_Threshold以上であるか、数式25により判断する。   Moreover, the movement vector of an obstacle has the property that direction and magnitude | size are similar (a correlation is large). Therefore, as condition 3, in the region where condition 1 is satisfied, it is determined by Expression 25 whether the average correlation value n_Correlation between all the movement vectors is equal to or greater than the threshold value n_Correlation_Threshold.

Figure 2008257378
本実施形態では、n_Correlation_Threshold=0.8とする。
以上により、画像から障害物が検出されるようになっている。
Figure 2008257378
In this embodiment, n_Correlation_Threshold = 0.8.
Thus, an obstacle is detected from the image.

(報知手段)
図1に示す報知手段24は、自車両の運転者に対して障害物の存在を報知するものである。具体的な報知手段24として、ディスプレイ装置等が車室内のインスツルメンタル・パネル付近に配置されている。
その報知手段24には、画像取得手段12により撮影された画像、および障害物判定手段22により検出された障害物の情報が入力される。報知手段24は、画像取得手段12により撮影された画像を表示し、画像内に障害物が存在する場合にはその外周に沿った多角形の枠体等を表示する。例えば、障害物の幅および高さを2辺とする長方形の枠体を表示する。なお枠体と同時に、障害物の移動ベクトルに相当する矢印を表示してもよい。また、障害物の危険度に応じて報知形態を変化させてもよい。さらに、運転者の運転習熟度に応じて表示形態を選択してもよい。
(Notification means)
The notification means 24 shown in FIG. 1 notifies the presence of an obstacle to the driver of the host vehicle. As a specific notification means 24, a display device or the like is disposed in the vicinity of the instrument panel in the passenger compartment.
The notification unit 24 receives an image taken by the image acquisition unit 12 and information on the obstacle detected by the obstacle determination unit 22. The notification unit 24 displays the image taken by the image acquisition unit 12, and when an obstacle exists in the image, displays a polygonal frame or the like along the outer periphery thereof. For example, a rectangular frame having two sides with the width and height of the obstacle is displayed. At the same time as the frame, an arrow corresponding to the movement vector of the obstacle may be displayed. Moreover, you may change a alerting | reporting form according to the danger level of an obstruction. Furthermore, the display form may be selected according to the driving skill of the driver.

(物体検出方法)
次に、前記物体検出装置を用いた物体検出方法につき、図1に加え、図11ないし14を用いて説明する。
図11ないし14は、本実施形態に係る物体検出方法のフローチャートである。まず画像取得手段12が、自車両周囲の現在時刻Tの画像を取得し(S10)、メモリに記録するとともに、移動ベクトル抽出手段に出力する。
(Object detection method)
Next, an object detection method using the object detection apparatus will be described with reference to FIGS. 11 to 14 in addition to FIG.
11 to 14 are flowcharts of the object detection method according to this embodiment. First, the image acquisition means 12 acquires an image at the current time T around the host vehicle (S10), records it in the memory, and outputs it to the movement vector extraction means.

次に移動ベクトル抽出手段16が、画像内に存在する物体の移動ベクトルを抽出する。具体的には、まずΔt時刻前の画像をメモリから読込み(S12)、さらにnΔt時刻前の画像もメモリから読込む(S14)。そして、これらの画像からオプティカルフローを算出し、移動ベクトルを抽出する(S50)。
図12は、移動ベクトル抽出サブルーチンのフローチャートである。まず、現在時刻の画像とΔt時刻前の画像からオプティカルフローを算出する(S52)。次に、現在時刻の画像とnΔt時刻前の画像から、低速車両のオプティカルフローを算出する(S54)。なお、S52およびS54のオプティカルフローの平均値を算出して、移動ベクトルを抽出してもよい。また、S52またはS54のいずれかのオプティカルフローを、そのまま移動ベクトルとして抽出してもよい。また、S52においてオプティカルフローの算出に成功した場合には、S54を省略することも可能である。最後に、移動ベクトルのノイズ(雑音成分)を除去する(S56)。
Next, the movement vector extraction means 16 extracts the movement vector of the object existing in the image. Specifically, first, an image before Δt time is read from the memory (S12), and an image before nΔt time is also read from the memory (S14). Then, an optical flow is calculated from these images, and a movement vector is extracted (S50).
FIG. 12 is a flowchart of the movement vector extraction subroutine. First, an optical flow is calculated from an image at the current time and an image before Δt time (S52). Next, the optical flow of the low-speed vehicle is calculated from the image at the current time and the image before the time nΔt (S54). The movement vector may be extracted by calculating the average value of the optical flows in S52 and S54. Further, the optical flow of either S52 or S54 may be extracted as a movement vector as it is. If the optical flow is successfully calculated in S52, S54 can be omitted. Finally, the movement vector noise (noise component) is removed (S56).

次に消失点算出手段18が、自車進行方向をあらわす消失点を推定する(S60)。
図13は、自車進行方向推定サブルーチンのフローチャートである。まず自車両の走行速度を取得し(S62)、操舵角を取得する(S64)。次に、取得した自車速度および操舵角を、図6に示すFOE座標の変化量テーブルに当てはめる。これにより取得したFOE座標の変化量を、前回推定したFOE座標に加算することにより、現在のFOEの位置を推定する(S66)。
Next, the vanishing point calculating means 18 estimates a vanishing point representing the traveling direction of the host vehicle (S60).
FIG. 13 is a flowchart of the own vehicle traveling direction estimation subroutine. First, the traveling speed of the host vehicle is acquired (S62), and the steering angle is acquired (S64). Next, the acquired own vehicle speed and steering angle are applied to the FOE coordinate change amount table shown in FIG. The current FOE position is estimated by adding the obtained change amount of the FOE coordinate to the previously estimated FOE coordinate (S66).

次に注意領域設定手段14が、画像内に注意領域を設定する(S70)。
図14は、注意領域設定サブルーチンのフローチャートである。ここでは、すでに初期値が設定されている注意領域の大きさの再設定を行う。まず、注意領域1内の移動ベクトルのうち、その始点がFOEから最も遠いものを、X方向およびY方向についてそれぞれ抽出する(S72)。そして、注意領域1の拡大要否を判別する(S73)。具体的には、S72で抽出した移動ベクトルの始点座標を数式12および14に代入して、暫定的な注意領域1の幅W1´および高さH1´を算出する。次に数式13および15により、暫定値が初期値より大きいか判断する。判断がYESの場合はS74に進み、注意領域1の幅W1および高さH1を前記暫定値に拡大設定する。判断がNOの場合は、注意領域1の幅W1および高さH1を初期値のまま維持して、S76に進む。
Next, the attention area setting unit 14 sets an attention area in the image (S70).
FIG. 14 is a flowchart of the attention area setting subroutine. Here, the size of the attention area for which the initial value has already been set is reset. First, out of the movement vectors in the attention area 1, the one whose start point is farthest from the FOE is extracted in the X direction and the Y direction (S 72). Then, it is determined whether or not the attention area 1 needs to be enlarged (S73). Specifically, the starting point coordinates of the movement vector extracted in S72 are substituted into Equations 12 and 14, and the width W1 ′ and the height H1 ′ of the temporary attention area 1 are calculated. Next, it is determined by Equations 13 and 15 whether the provisional value is larger than the initial value. If the determination is YES, the process proceeds to S74, and the width W1 and the height H1 of the attention area 1 are enlarged and set to the provisional values. If the determination is NO, the width W1 and height H1 of the attention area 1 are maintained at the initial values, and the process proceeds to S76.

次にS76において、注意領域2R内の移動ベクトルのうち、その終点がFOEに最も近いものを抽出する(S76)。そして、注意領域2Rの拡大要否を判別する(S77)。具体的には、S76で抽出した移動ベクトルの終点座標を数式16に代入して、暫定的な注意領域2Rの幅W2R´および高さH2R´を算出する。次に数式17により、暫定値が初期値より大きいか判断する。判断がYESの場合はS78に進み、注意領域2Rの幅W2Rおよび高さH2Rを前記暫定値に拡大設定する。判断がNOの場合は、注意領域2Rの幅W2Rおよび高さH2Rを初期値のまま維持して、S80に進む。   Next, in S76, out of the movement vectors in the attention area 2R, the one whose end point is closest to the FOE is extracted (S76). Then, it is determined whether or not the attention area 2R needs to be enlarged (S77). Specifically, the end point coordinates of the movement vector extracted in S76 are substituted into Expression 16, and the width W2R ′ and the height H2R ′ of the provisional attention area 2R are calculated. Next, it is determined by Equation 17 whether the provisional value is larger than the initial value. If the determination is YES, the process proceeds to S78, and the width W2R and the height H2R of the attention area 2R are enlarged and set to the provisional values. If the determination is NO, the width W2R and the height H2R of the attention area 2R are maintained at the initial values, and the process proceeds to S80.

次にS80において、注意領域2L内の移動ベクトルのうち、その終点がFOEに最も近いものを抽出する(S80)。そして、注意領域2Lの拡大要否を判別する(S81)。具体的には、S80で抽出した移動ベクトルの終点座標を用いて、暫定的な注意領域2Lの幅W2L´および高さH2L´を算出する。次に、暫定値が初期値より大きいか判断する。判断がYESの場合はS82に進み、注意領域2Lの幅W2Lおよび高さH2Lを前記暫定値に拡大設定する。判断がNOの場合は、注意領域2Lの幅W2Lおよび高さH2Lを初期値のまま維持する。   Next, in S80, the movement vector in the attention area 2L is extracted that has the end point closest to the FOE (S80). Then, it is determined whether or not the attention area 2L needs to be enlarged (S81). More specifically, the width W2L ′ and the height H2L ′ of the provisional attention area 2L are calculated using the end point coordinates of the movement vector extracted in S80. Next, it is determined whether the provisional value is larger than the initial value. If the determination is YES, the process proceeds to S82, and the width W2L and the height H2L of the attention area 2L are enlarged and set to the provisional values. When the determination is NO, the width W2L and the height H2L of the attention area 2L are maintained at the initial values.

次に障害物判定手段22が、設定された注意領域内の移動ベクトルから、自車両との接触可能性のある障害物を判定する。図11に示すように、まず飛出し車両候補を抽出する(S20)。具体的には、注意領域1内でFOEに向かう(数式22を満たす)移動ベクトルが存在するか判断する。判断がYESの場合には、S21に進んで飛出し車両を検出する。具体的には、数式23、24および25を満たす複数の移動ベクトルの存在領域を、飛出し車両と判定する。判断がNOの場合には、飛出し車両が存在しないと判定し、S23に進む。   Next, the obstacle determination means 22 determines an obstacle that may come into contact with the host vehicle from the movement vector in the set attention area. As shown in FIG. 11, first, a jump-out vehicle candidate is extracted (S20). Specifically, it is determined whether or not there is a movement vector toward FOE (satisfying Formula 22) in attention area 1. If the determination is YES, the process proceeds to S21 to detect a flying vehicle. Specifically, a plurality of movement vector existing areas that satisfy Expressions 23, 24, and 25 are determined as flying vehicles. If the determination is NO, it is determined that there is no flying vehicle, and the process proceeds to S23.

次にS23において、対向車両候補を抽出する(S23)。具体的には、注意領域1内でFOEから離れる(数式20を満たす)移動ベクトルが存在するか判断する。判断がYESの場合には、S24に進んで対向車両を検出する。具体的には、数式23、24および25を満たす複数の移動ベクトルの存在領域を、対向車両と判定する。判断がNOの場合には、対向車両が存在しないと判定し、S26に進む。   Next, an oncoming vehicle candidate is extracted in S23 (S23). Specifically, it is determined whether or not there is a movement vector that leaves the FOE (satisfies Equation 20) in the attention area 1. When judgment is YES, it progresses to S24 and an oncoming vehicle is detected. Specifically, a plurality of movement vector existing areas that satisfy Expressions 23, 24, and 25 are determined as oncoming vehicles. If the determination is NO, it is determined that there is no oncoming vehicle, and the process proceeds to S26.

次にS26において、追越し車両候補を抽出する(S26)。具体的には、注意領域2Lまたは注意領域2R内でFOEに向かう(数式21を満たす)移動ベクトルが存在するか判断する。判断がYESの場合には、S27に進んで追越し車両を検出する。具体的には、数式23、24および25を満たす複数の移動ベクトルの存在領域を、追越し車両と判定する。判断がNOの場合には、追越し車両が存在しないと判定し、処理を終了する。   Next, in S26, an overtaking vehicle candidate is extracted (S26). Specifically, it is determined whether or not there is a movement vector toward FOE (satisfying Expression 21) in attention area 2L or attention area 2R. If the determination is YES, the process proceeds to S27 to detect the overtaking vehicle. Specifically, the presence areas of a plurality of movement vectors that satisfy Expressions 23, 24, and 25 are determined as overtaking vehicles. If the determination is NO, it is determined that there is no overtaking vehicle, and the process ends.

そして、飛出し車両、対向車両および追越し車両の少なくともいずれかが検出された場合には、報知手段24が自車両の運転者に対して障害物の存在を報知する。
以上により、自車両と衝突する可能性がある物体が検出される。
When at least one of the jumping-out vehicle, the oncoming vehicle, and the overtaking vehicle is detected, the notification unit 24 notifies the driver of the host vehicle of the presence of the obstacle.
Thus, an object that may collide with the host vehicle is detected.

以上に詳述したように、本実施形態に係る物体検出装置10は、自車両周辺の時系列画像を取得する画像取得手段12と、取得した画像に基づいて該画像内に存在する物体の移動ベクトルを抽出する移動ベクトル抽出手段16と、自車両の進行方向をあらわすFOEを算出する消失点算出手段18と、算出されたFOEに基づいて画像内に注意領域を設定する注意領域設定手段14と、設定された注意領域内で自車両と接触可能性のある障害物を判定する障害物判定手段22とを備え、注意領域設定手段14は、複数の注意領域を設定し、障害物判定手段22は、移動ベクトルのFOEに対する向きおよび該移動ベクトルが何れの注意領域に存在するかに基づいて該障害物を判定する構成とした。   As described in detail above, the object detection apparatus 10 according to the present embodiment includes the image acquisition unit 12 that acquires a time-series image around the host vehicle, and the movement of an object that exists in the image based on the acquired image. A movement vector extracting means 16 for extracting a vector, a vanishing point calculating means 18 for calculating an FOE representing the traveling direction of the host vehicle, and an attention area setting means 14 for setting an attention area in the image based on the calculated FOE. Obstacle determining means 22 for determining obstacles that may come into contact with the host vehicle within the set attention area. The attention area setting means 14 sets a plurality of attention areas, and the obstacle determination means 22 Is configured to determine the obstacle based on the direction of the movement vector with respect to the FOE and in which attention area the movement vector exists.

この構成によれば、レーンマーク等を利用することなく、FOEに基づいて画像内に注意領域を設定するので、常に有効な注意領域を設定することができる。また、移動ベクトルのFOEに対する向きおよび該移動ベクトルが何れの注意領域に存在するかに基づいて障害物を判定するので、自車両と衝突する可能性のある様々な障害物を的確に検出することができる。また注意領域内で障害物を判定するので、重要な障害物を効率よく判定することが可能になり、計算コストを削減することができる。   According to this configuration, since the attention area is set in the image based on the FOE without using the lane mark or the like, it is possible to always set an effective attention area. Further, since the obstacle is determined based on the direction of the movement vector with respect to the FOE and in which caution area the movement vector exists, various obstacles that may collide with the host vehicle are accurately detected. Can do. In addition, since the obstacle is determined within the attention area, it is possible to efficiently determine the important obstacle, and the calculation cost can be reduced.

また注意領域設定手段14は、画像内のFOEを中心として注意領域1を設定し、障害物判定手段22は、移動ベクトルが注意領域1内に存在し、かつFOEに向かう場合に、物体を飛出し車両であると判定する構成とした。飛出し車両はFOEの近傍に出現し、その移動ベクトルはFOEに近づく方向に向かうので、上記構成により飛出し車両を精度良く検出することができる。   The attention area setting means 14 sets the attention area 1 centering on the FOE in the image, and the obstacle determination means 22 jumps the object when the movement vector exists in the attention area 1 and goes to the FOE. It was set as the structure determined to be a taking-out vehicle. The flying vehicle appears in the vicinity of the FOE, and its movement vector is directed in a direction approaching the FOE. Therefore, the flying vehicle can be detected with high accuracy by the above configuration.

また注意領域設定手段14は、画像内のFOEを中心として注意領域1を設定し、障害物判定手段22は、移動ベクトルが注意領域1内に存在し、かつFOEから離れる方向に向かう場合に、物体を対向車両であると判定する構成とした。対向車両はFOEの近傍に出現し、その移動ベクトルはFOEから離れる方向に向かうので、上記構成により対向車両を精度良く検出することができる。   Further, the attention area setting unit 14 sets the attention area 1 around the FOE in the image, and the obstacle determination unit 22 determines that the movement vector exists in the attention area 1 and moves away from the FOE. The object is determined to be an oncoming vehicle. Since the oncoming vehicle appears in the vicinity of the FOE, and its movement vector goes in a direction away from the FOE, the oncoming vehicle can be detected with high accuracy by the above configuration.

また注意領域設定手段14は、画像内の右下端および左下端の少なくとも一方に注意領域2Rおよび注意領域2Lを設定し、障害物判定手段22は、移動ベクトルが注意領域2Rまたは注意領域2L内に存在し、かつFOEに向かう場合に、物体を追越し車両であると判定する構成とした。追越し車両は画像内の右下端または左下端に出現し、その移動ベクトルはFOEに近づく方向に向かうので、上記構成により追越し車両を精度良く検出することができる。   The attention area setting unit 14 sets the attention area 2R and the attention area 2L at least one of the lower right end and the lower left end in the image, and the obstacle determination unit 22 sets the movement vector within the attention area 2R or the attention area 2L. When the vehicle exists and heads for FOE, the object is determined to be an overtaking vehicle. The overtaking vehicle appears at the lower right end or the lower left end in the image, and its movement vector is directed in a direction approaching the FOE. Therefore, the overtaking vehicle can be detected with high accuracy by the above configuration.

なお、この発明は前述した実施例に限られるものではない。
例えば、上記実施形態では飛出し車両、対向車両および追越し車両を検出したが、自車両と衝突する可能性のある上記以外の車両を検出することも可能である。また上記実施形態では車両を検出したが、自動二輪車や自転車、歩行者等の移動物体を検出することも可能である。また、上記実施形態では報知手段としてディスプレイ装置を採用したが、それ以外の警報音出力装置等を採用することも可能である。
The present invention is not limited to the embodiment described above.
For example, in the above-described embodiment, a jump-out vehicle, an oncoming vehicle, and an overtaking vehicle are detected, but it is also possible to detect a vehicle other than the above that may collide with the own vehicle. Moreover, although the vehicle was detected in the said embodiment, it is also possible to detect moving objects, such as a motorcycle, a bicycle, and a pedestrian. Moreover, in the said embodiment, although the display apparatus was employ | adopted as an alerting | reporting means, other alarm sound output apparatuses etc. are also employable.

実施形態に係る物体検出装置のブロック図である。1 is a block diagram of an object detection device according to an embodiment. 移動ベクトルの説明図である。It is explanatory drawing of a movement vector. 移動ベクトルの代替算出方法の説明図である。It is explanatory drawing of the alternative calculation method of a movement vector. 移動ベクトルのノイズ除去の説明図である。It is explanatory drawing of the noise removal of a movement vector. 消失点算出方法の説明図である。It is explanatory drawing of a vanishing point calculation method. FOE座標の変化量テーブルの説明図である。It is explanatory drawing of the variation | change_quantity table of FOE coordinate. 注意領域の説明図である。It is explanatory drawing of a caution area | region. 画像内における障害物の大きさの説明図である。It is explanatory drawing of the magnitude | size of the obstruction in an image. 注意領域1の拡大操作の説明図である。10 is an explanatory diagram of an enlargement operation of the attention area 1. FIG. 注意領域2Rの拡大操作の説明図である。It is explanatory drawing of expansion operation of attention area | region 2R. 実施形態に係る物体検出方法のフローチャートである。It is a flowchart of the object detection method which concerns on embodiment. 移動ベクトル抽出サブルーチンのフローチャートである。It is a flowchart of a movement vector extraction subroutine. 自車進行方向推定サブルーチンのフローチャートである。It is a flowchart of the own vehicle traveling direction estimation subroutine. 注意領域設定サブルーチンのフローチャートである。It is a flowchart of an attention area setting subroutine.

符号の説明Explanation of symbols

1…注意領域(第1注意領域) 2L,2R…注意領域(第2注意領域) 10…物体検出装置 12…画像取得手段 14…注意領域設定手段 16…移動ベクトル抽出手段 18…消失点算出手段 22…障害物判定手段 24…報知手段   DESCRIPTION OF SYMBOLS 1 ... Attention area (1st attention area) 2L, 2R ... Attention area (2nd attention area) 10 ... Object detection apparatus 12 ... Image acquisition means 14 ... Attention area setting means 16 ... Movement vector extraction means 18 ... Vanishing point calculation means 22 ... Obstacle determination means 24 ... Notification means

Claims (7)

自車両周辺の時系列画像を取得する画像取得手段と、
前記画像に基づいて該画像内に存在する物体の移動ベクトルを抽出する移動ベクトル抽出手段と、
前記自車両の進行方向をあらわす消失点を算出する消失点算出手段と、
前記消失点に基づいて前記画像内に注意領域を設定する注意領域設定手段と、
前記注意領域内で前記自車両と接触可能性のある障害物を判定する障害物判定手段と、を備えた物体検出装置において、
前記注意領域設定手段は、複数の注意領域を設定し、
前記障害物判定手段は、前記移動ベクトルの前記消失点に対する向きおよび該移動ベクトルが何れの注意領域に存在するかに基づいて該障害物を判定することを特徴とする物体検出装置。
Image acquisition means for acquiring time-series images around the host vehicle;
A movement vector extracting means for extracting a movement vector of an object existing in the image based on the image;
Vanishing point calculating means for calculating a vanishing point representing the traveling direction of the host vehicle;
Attention area setting means for setting an attention area in the image based on the vanishing point;
In an object detection device comprising obstacle determination means for determining an obstacle that may contact the host vehicle within the attention area,
The attention area setting means sets a plurality of attention areas,
The obstacle detection means determines the obstacle based on a direction of the movement vector with respect to the vanishing point and in which attention area the movement vector exists.
前記注意領域設定手段は、前記画像内の前記消失点を中心として第1の前記注意領域を設定し、
前記障害物判定手段は、前記移動ベクトルが前記第1の注意領域内に存在し、かつ前記消失点に向かう場合に、前記物体を前記障害物であると判定することを特徴とする請求項1に記載の物体検出装置。
The attention area setting means sets the first attention area around the vanishing point in the image,
2. The obstacle determination unit according to claim 1, wherein the object is determined to be the obstacle when the movement vector is present in the first attention area and heads toward the vanishing point. The object detection apparatus described in 1.
前記注意領域設定手段は、前記画像内の前記消失点を中心として第1の前記注意領域を設定し、
前記障害物判定手段は、前記移動ベクトルが前記第1の注意領域内に存在し、かつ前記消失点から離れる方向に向かう場合に、前記物体を前記障害物であると判定することを特徴とする請求項1または請求項2に記載の物体検出装置。
The attention area setting means sets the first attention area around the vanishing point in the image,
The obstacle determination means determines that the object is the obstacle when the movement vector exists in the first attention area and moves in a direction away from the vanishing point. The object detection apparatus according to claim 1 or 2.
前記注意領域設定手段は、前記画像内の右下端および左下端の少なくとも一方に第2の前記注意領域を設定し、
前記障害物判定手段は、前記移動ベクトルが前記第2の注意領域内に存在し、かつ前記消失点に向かう場合に、前記物体を前記障害物であると判定することを特徴とする請求項1から請求項3の何れかに記載の物体検出装置。
The attention area setting means sets the second attention area in at least one of the lower right end and the lower left end in the image,
2. The obstacle determination unit according to claim 1, wherein the object is determined to be the obstacle when the movement vector is present in the second attention area and heads toward the vanishing point. The object detection apparatus according to claim 3.
前記注意領域設定手段は、前記移動ベクトルの位置と方向に基づいて前記注意領域の大きさを設定することを特徴とする請求項1から請求項4の何れかに記載の物体検出装置。   5. The object detection device according to claim 1, wherein the attention area setting unit sets a size of the attention area based on a position and a direction of the movement vector. 前記物体が持つ前記移動ベクトルの内で、複数の前記移動ベクトルとの相関値が所定値未満の前記移動ベクトルを除去するノイズ除去手段を備えることを特徴とする請求項1から請求項5の何れかに記載の物体検出装置。   The noise removal means for removing the movement vector having a correlation value with a plurality of the movement vectors less than a predetermined value among the movement vectors of the object is provided. The object detection device according to claim 1. 前記移動ベクトル抽出手段は、前記移動ベクトルを抽出する際の前記画像の取得間隔を前記物体の速度に基づいて調整することを特徴とする請求項1から請求項6の何れかに記載の物体検出装置。   The object detection according to any one of claims 1 to 6, wherein the movement vector extraction unit adjusts an acquisition interval of the image when extracting the movement vector based on a speed of the object. apparatus.
JP2007097213A 2007-04-03 2007-04-03 Object detection device Withdrawn JP2008257378A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007097213A JP2008257378A (en) 2007-04-03 2007-04-03 Object detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007097213A JP2008257378A (en) 2007-04-03 2007-04-03 Object detection device

Publications (1)

Publication Number Publication Date
JP2008257378A true JP2008257378A (en) 2008-10-23

Family

ID=39980908

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007097213A Withdrawn JP2008257378A (en) 2007-04-03 2007-04-03 Object detection device

Country Status (1)

Country Link
JP (1) JP2008257378A (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011070783A1 (en) * 2009-12-10 2011-06-16 パナソニック株式会社 Information display apparatus and information display method
JP2012038031A (en) * 2010-08-05 2012-02-23 Kyushu Institute Of Technology Detection method of object jumping out in front of mobile and device therefor
WO2013065122A1 (en) * 2011-11-01 2013-05-10 アイシン精機株式会社 Obstacle alert device
WO2013065119A1 (en) * 2011-11-01 2013-05-10 アイシン精機株式会社 Obstacle alert device
JP2013092994A (en) * 2011-10-27 2013-05-16 Clarion Co Ltd Vehicle periphery monitoring device
WO2013191078A1 (en) * 2012-06-19 2013-12-27 市光工業株式会社 Object detection device for area around vehicle
JP5674071B2 (en) * 2011-11-01 2015-02-25 アイシン精機株式会社 Obstacle alarm device
US9396401B2 (en) 2011-11-01 2016-07-19 Aisin Seiki Kabushiki Kaisha Obstacle alarm device
US9454704B2 (en) 2012-08-31 2016-09-27 Fujitsu Limited Apparatus and method for determining monitoring object region in image
CN106292712A (en) * 2016-10-25 2017-01-04 中国人民解放军海军航空工程学院 A kind of unmanned vehicle barrier-avoiding method based on Speed Obstacles arc method
KR101862461B1 (en) * 2016-07-14 2018-05-29 연세대학교 산학협력단 Method and apparatus for estimating location of sound source location based on wideband frequency
CN111295321A (en) * 2017-11-02 2020-06-16 株式会社东芝 Obstacle detection device
KR20200133122A (en) * 2019-05-17 2020-11-26 현대모비스 주식회사 Apparatus and method for preventing vehicle collision

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102378998A (en) * 2009-12-10 2012-03-14 松下电器产业株式会社 Information display apparatus and information display method
JP5590684B2 (en) * 2009-12-10 2014-09-17 パナソニック株式会社 Information display device and information display method
US8536995B2 (en) 2009-12-10 2013-09-17 Panasonic Corporation Information display apparatus and information display method
WO2011070783A1 (en) * 2009-12-10 2011-06-16 パナソニック株式会社 Information display apparatus and information display method
JP2012038031A (en) * 2010-08-05 2012-02-23 Kyushu Institute Of Technology Detection method of object jumping out in front of mobile and device therefor
JP2013092994A (en) * 2011-10-27 2013-05-16 Clarion Co Ltd Vehicle periphery monitoring device
WO2013065325A1 (en) * 2011-11-01 2013-05-10 アイシン精機株式会社 Obstacle alert device
US9691283B2 (en) 2011-11-01 2017-06-27 Aisin Seiki Kabushiki Kaisha Obstacle alert device
WO2013065122A1 (en) * 2011-11-01 2013-05-10 アイシン精機株式会社 Obstacle alert device
JP5674071B2 (en) * 2011-11-01 2015-02-25 アイシン精機株式会社 Obstacle alarm device
JPWO2013065119A1 (en) * 2011-11-01 2015-04-02 アイシン精機株式会社 Obstacle alarm device
US9396401B2 (en) 2011-11-01 2016-07-19 Aisin Seiki Kabushiki Kaisha Obstacle alarm device
WO2013065119A1 (en) * 2011-11-01 2013-05-10 アイシン精機株式会社 Obstacle alert device
WO2013191078A1 (en) * 2012-06-19 2013-12-27 市光工業株式会社 Object detection device for area around vehicle
JP2014002577A (en) * 2012-06-19 2014-01-09 Ichikoh Ind Ltd Detection apparatus for object around vehicle
US9367751B2 (en) 2012-06-19 2016-06-14 Ichikoh Industries, Ltd. Object detection device for area around vehicle
US9454704B2 (en) 2012-08-31 2016-09-27 Fujitsu Limited Apparatus and method for determining monitoring object region in image
KR101862461B1 (en) * 2016-07-14 2018-05-29 연세대학교 산학협력단 Method and apparatus for estimating location of sound source location based on wideband frequency
CN106292712A (en) * 2016-10-25 2017-01-04 中国人民解放军海军航空工程学院 A kind of unmanned vehicle barrier-avoiding method based on Speed Obstacles arc method
CN106292712B (en) * 2016-10-25 2018-12-07 中国人民解放军海军航空大学 A kind of unmanned vehicle barrier-avoiding method based on Speed Obstacles arc method
CN111295321A (en) * 2017-11-02 2020-06-16 株式会社东芝 Obstacle detection device
KR20200133122A (en) * 2019-05-17 2020-11-26 현대모비스 주식회사 Apparatus and method for preventing vehicle collision
KR102712307B1 (en) * 2019-05-17 2024-10-04 현대모비스 주식회사 Apparatus and method for preventing vehicle collision

Similar Documents

Publication Publication Date Title
JP2008257378A (en) Object detection device
JP6416293B2 (en) Method of tracking a target vehicle approaching a car by a car camera system, a camera system, and a car
JP4622001B2 (en) Road lane marking detection apparatus and road lane marking detection method
JP4650079B2 (en) Object detection apparatus and method
JP6384082B2 (en) Moving object detection apparatus, moving object detection method, and program
JP5561064B2 (en) Vehicle object recognition device
US20100110193A1 (en) Lane recognition device, vehicle, lane recognition method, and lane recognition program
JPH11353565A (en) Method and device for alarm of collision for vehicle
JP2003067752A (en) Vehicle periphery monitoring device
JP5482672B2 (en) Moving object detection device
JP2008158640A (en) Moving object detection apparatus
JP2009053818A (en) Image processor and method thereof
JP2006350699A (en) Image processor and image processing method
JP2007280132A (en) Travel guide obstacle detector, and controller for vehicle
JP2007249257A (en) Apparatus and method for detecting movable element
KR20180047149A (en) Apparatus and method for risk alarming of collision
JP2009245042A (en) Traffic flow measurement device and program
JP2012252501A (en) Traveling path recognition device and traveling path recognition program
JP3651419B2 (en) Environment recognition device
JP2007264717A (en) Lane deviation decision device, lane deviation prevention device and lane follow-up supporting device
JP2006140636A (en) Obstacle detecting device and method
EP3287948B1 (en) Image processing apparatus, moving body apparatus control system, image processing method, and program
JP4321410B2 (en) Object detection apparatus and method
JP4575315B2 (en) Object detection apparatus and method
JP2007199932A (en) Image processor and its method

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20100706