JP2008257378A - Object detection device - Google Patents
Object detection device Download PDFInfo
- Publication number
- JP2008257378A JP2008257378A JP2007097213A JP2007097213A JP2008257378A JP 2008257378 A JP2008257378 A JP 2008257378A JP 2007097213 A JP2007097213 A JP 2007097213A JP 2007097213 A JP2007097213 A JP 2007097213A JP 2008257378 A JP2008257378 A JP 2008257378A
- Authority
- JP
- Japan
- Prior art keywords
- attention area
- movement vector
- image
- obstacle
- vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、物体検出装置に関するものである。 The present invention relates to an object detection device.
自動車にカメラを搭載し、そのカメラで周囲の道路環境を撮影し、撮影した画像を解析することで、自車前方の障害物を検出する装置が提案されている。
例えば、特許文献1に記載された技術では、自車両の進行先の撮像画像を1台のカメラから取得し、この撮像画像中に実空間上に仮想的に固定された検出領域を設定する。そして設定された検出領域におけるオプティカルフローを算出し、そのオプティカルフローに基づいて飛出し物体を検出する。
There has been proposed an apparatus for detecting an obstacle ahead of the host vehicle by mounting a camera on a car, photographing the surrounding road environment with the camera, and analyzing the photographed image.
For example, in the technique described in
撮像画像が読み込まれると、初めに道路の境界部分を示すレーンマーク(白線)を撮像画像から抽出する。このレーンマークは、ソベルフィルタと呼ばれる画像フィルタを用いて撮像画像から縦方向のエッジを抽出し、そのエッジに対してハフ変換と呼ばれる処理を行って直線形状を求めることにより、撮像画像から抽出することができる。撮像画像からレーンマークが抽出されたら、次に撮像画像から物体を検出するための検出領域を撮像画像中に設定する。このとき、抽出されたレーンマークの位置に基づいて各検出領域の設定位置を決めることとし、レーンマークに沿って検出領域を所定間隔ごとに並べることで、自車両が走行している道路に沿って検出領域が所定間隔ごとに設定されるようにする。さらにこのとき、所定の横間隔ごとに2つの検出領域を横に並べる。外側・内側と道路に沿って2列のすだれ状の検出領域が設定される。 When the captured image is read, a lane mark (white line) indicating a boundary portion of the road is first extracted from the captured image. The lane mark is extracted from the captured image by extracting a vertical edge from the captured image using an image filter called a Sobel filter and performing a process called Hough transform on the edge to obtain a linear shape. be able to. When the lane mark is extracted from the captured image, a detection area for detecting an object from the captured image is set in the captured image. At this time, the setting position of each detection area is determined based on the position of the extracted lane mark, and the detection area is arranged at predetermined intervals along the lane mark so that it follows the road on which the host vehicle is traveling. The detection area is set at predetermined intervals. Further, at this time, two detection areas are arranged side by side at predetermined horizontal intervals. Two rows of interdigital detection areas are set along the outer and inner sides and along the road.
上記の検出領域の設定で外側に設定した領域を検出領域,内側に設定した領域を判定領域とする。検出領域と判定領域においてそれぞれに算出されたオプティカルフローに基づき、その物体の実空間上における移動速度を、検出領域と判定領域の両方についてそれぞれ算出する。この移動速度を比較し、その差が所定値以下であれば、検出された物体を飛出し物体として検出する。これによって、道路方向に移動している物体を全て飛出し物体として検出してしまい、道路から離れた位置の物体までも誤って検出することを防ぐことが可能となる。
従来の技術においては、レーンマークを利用して検出領域及び判定領域を設定しているため、レーンマークが抽出することができなかった場合に領域を設定することができなくなってしまうという問題を含んでいる。すなわち、白線がない山道や、白線が途切れている交差点の中、カーブ走行時といった場面で、飛出してくる移動物体を抽出することが不可能である。また、従来技術では横方向からの飛出し物体のみを対象とし、対向物体及び追越し物体を検出することができない。 In the conventional technology, since the detection area and the determination area are set using the lane mark, there is a problem that the area cannot be set when the lane mark cannot be extracted. It is out. That is, it is impossible to extract a moving object that pops out in a mountain road without a white line, an intersection where a white line is broken, or a scene such as when traveling on a curve. Further, in the prior art, only an object flying out from the lateral direction is targeted, and an opposing object and an overtaking object cannot be detected.
そこで本発明は、常に有効な注意領域を設定し、自車両と衝突する可能性のある様々な障害物を検出することが可能な、物体検出装置の提供を課題とする。 Therefore, an object of the present invention is to provide an object detection device that can always set an effective attention area and detect various obstacles that may collide with the host vehicle.
上記課題を解決するために、請求項1に係る発明は、自車両周辺の時系列画像を取得する画像取得手段(例えば、実施形態における画像取得手段12)と、前記画像に基づいて該画像内に存在する物体の移動ベクトルを抽出する移動ベクトル抽出手段(例えば、実施形態における移動ベクトル抽出手段16)と、前記自車両の進行方向をあらわす消失点を算出する消失点算出手段(例えば、実施形態における消失点算出手段18)と、前記消失点に基づいて前記画像内に注意領域を設定する注意領域設定手段(例えば、実施形態における注意領域設定手段14)と、前記注意領域内で前記自車両と接触可能性のある障害物を判定する障害物判定手段(例えば、実施形態における障害物判定手段22)と、を備えた物体検出装置(例えば、実施形態における物体検出装置10)において、前記注意領域設定手段は、複数の注意領域を設定し、前記障害物判定手段は、前記移動ベクトルの前記消失点に対する向きおよび該移動ベクトルが何れの注意領域に存在するかに基づいて該障害物を判定することを特徴とする。
In order to solve the above-mentioned problem, the invention according to
請求項2に係る発明は、前記注意領域設定手段は、前記画像内の前記消失点を中心として第1の前記注意領域(例えば、実施形態における注意領域1)を設定し、前記障害物判定手段は、前記移動ベクトルが前記第1の注意領域内に存在し、かつ前記消失点に向かう場合に、前記物体を前記障害物(例えば、実施形態における飛出し車両)であると判定することを特徴とする。
The invention according to claim 2 is characterized in that the attention area setting means sets the first attention area (for example,
請求項3に係る発明は、前記注意領域設定手段は、前記画像内の前記消失点を中心として第1の前記注意領域を設定し、前記障害物判定手段は、前記移動ベクトルが前記第1の注意領域内に存在し、かつ前記消失点から離れる方向に向かう場合に、前記物体を前記障害物(例えば、実施形態における対向車両)であると判定することを特徴とする。 In the invention according to claim 3, the caution area setting means sets the first caution area around the vanishing point in the image, and the obstacle determination means has the movement vector as the first movement vector. It is characterized in that the object is determined to be the obstacle (for example, an oncoming vehicle in the embodiment) when it exists in the attention area and moves away from the vanishing point.
請求項4に係る発明は、前記注意領域設定手段は、前記画像内の右下端および左下端の少なくとも一方に第2の前記注意領域(例えば、実施形態における注意領域2)を設定し、前記障害物判定手段は、前記移動ベクトルが前記第2の注意領域内に存在し、かつ前記消失点に向かう場合に、前記物体を前記障害物(例えば、実施形態における追越し車両)であると判定することを特徴とする。 In the invention according to claim 4, the caution area setting means sets the second caution area (for example, caution area 2 in the embodiment) in at least one of the lower right end and the lower left end in the image, and the obstacle The object determination means determines that the object is the obstacle (for example, the overtaking vehicle in the embodiment) when the movement vector exists in the second attention area and heads toward the vanishing point. It is characterized by.
請求項5に係る発明は、前記注意領域設定手段は、前記移動ベクトルの位置と方向に基づいて前記注意領域の大きさを設定することを特徴とする。 The invention according to claim 5 is characterized in that the attention area setting means sets the size of the attention area based on the position and direction of the movement vector.
請求項6に係る発明は、前記物体が持つ前記移動ベクトルの内で、複数の前記移動ベクトルとの相関値が所定値未満の前記移動ベクトルを除去するノイズ除去手段を備えることを特徴とする。 The invention according to claim 6 is characterized by comprising noise removal means for removing the movement vector having a correlation value with a plurality of movement vectors less than a predetermined value among the movement vectors of the object.
請求項7に係る発明は、前記移動ベクトル抽出手段は、前記移動ベクトルを抽出する際の前記画像の取得間隔を前記物体の速度に基づいて調整することを特徴とする。 The invention according to claim 7 is characterized in that the movement vector extraction means adjusts the acquisition interval of the image when extracting the movement vector based on the speed of the object.
請求項1に係る発明によれば、レーンマーク等を利用することなく、消失点に基づいて画像内に注意領域を設定するので、常に有効な注意領域を設定することができる。また、移動ベクトルの消失点に対する向きおよび該移動ベクトルが何れの注意領域に存在するかに基づいて障害物を判定するので、自車両と衝突する可能性のある様々な障害物を的確に検出することができる。 According to the first aspect of the present invention, since the attention area is set in the image based on the vanishing point without using the lane mark or the like, it is possible to always set the effective attention area. Further, since the obstacle is determined based on the direction of the movement vector with respect to the vanishing point and in which attention area the movement vector exists, various obstacles that may collide with the host vehicle are accurately detected. be able to.
飛出し車両は消失点の近傍に出現し、その移動ベクトルは消失点に近づく方向に向かうので、請求項2に係る発明によれば、飛出し車両を精度良く検出することができる。 Since the flying vehicle appears in the vicinity of the vanishing point, and its movement vector is directed in the direction approaching the vanishing point, the flying vehicle can be detected with high accuracy.
対向車両は消失点の近傍に出現し、その移動ベクトルは消失点から離れる方向に向かうので、請求項3に係る発明によれば、対向車両を精度良く検出することができる。 Since the oncoming vehicle appears in the vicinity of the vanishing point and its movement vector goes in a direction away from the vanishing point, the oncoming vehicle can be detected with high accuracy.
追越し車両は画像内の右下端または左下端に出現し、その移動ベクトルは消失点に近づく方向に向かうので、請求項4に係る発明によれば、追越し車両を精度良く検出することができる。 Since the overtaking vehicle appears at the lower right end or the lower left end in the image, and its movement vector goes in the direction approaching the vanishing point, the overtaking vehicle can be detected with high accuracy.
請求項5に係る発明によれば、検出した障害物の移動ベクトルに基づいて注意領域を設定するので、継続して障害物を検出することが可能な注意領域を設定することができる。 According to the fifth aspect of the invention, since the attention area is set based on the detected movement vector of the obstacle, it is possible to set the attention area where the obstacle can be detected continuously.
請求項6に係る発明によれば、障害物を精度良く検出することができる。 According to the invention which concerns on Claim 6, an obstruction can be detected accurately.
請求項7に係る発明によれば、画像の取得間隔を調整することで、低速度で移動する物体の移動ベクトルを確実に抽出することができる。 According to the seventh aspect of the present invention, the movement vector of the object moving at a low speed can be reliably extracted by adjusting the image acquisition interval.
以下、本発明の実施形態につき図面を参照して説明する。
図1は、本実施形態に係る物体検出装置のブロック図である。本実施形態に係る物体検出装置10は、自車両周辺の時系列画像を取得する画像取得手段(撮像手段)12と、前記画像に基づいて該画像内に存在する物体の移動ベクトルを抽出する移動ベクトル抽出手段16と、前記自車両の進行方向をあらわす消失点を算出する消失点算出手段18と、前記消失点に基づいて前記画像内に注意領域を設定する注意領域設定手段14と、前記注意領域内で前記自車両と接触可能性のある相手車両(障害物)30を判定する障害物判定手段22と、相手車両の存在を報知する報知手段24とを備えるものである。なお移動ベクトル抽出手段16、消失点算出手段18、注意領域設定手段14および障害物判定手段22は、自車両に搭載されたコンピュータ20に構築されている。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a block diagram of an object detection apparatus according to this embodiment. The
(画像取得手段)
画像取得手段12は、自車両周辺の時系列画像を取得するものであり、具体的には1台のCCDカメラやCMOS等で構成されている。なおステレオ視を利用するため2台のカメラで物体検出装置を構成する場合と比較して、本実施形態では1台のカメラで物体検出装置を構成することができるので、車両コストを低減することができる。この画像取得手段12は、自車両前方の画像を撮影するため、車室内のバックミラー付近などに固定されている。画像取得手段12によって撮影された画像は、メモリ(不図示)に記録されるとともに、移動ベクトル抽出手段16等に出力される。
(Image acquisition means)
The
(移動ベクトル抽出手段)
移動ベクトル抽出手段16は、画像内に存在する物体の移動ベクトルを、画像のピクセルごとに抽出するものである。
図2は、移動ベクトルの説明図である。一般に、動画から物体の動きを抽出する手法の一つとして、オプティカルフローが知られている。オプティカルフローは物体30の移動ベクトル32であり、時間的に連続する2つの画像V0,V1間において、同一物体の輝度変化は小さいという仮定の下で、同程度の輝度をもつ点の移動量から算出される。
(Moving vector extraction means)
The movement vector extracting means 16 extracts a movement vector of an object existing in the image for each pixel of the image.
FIG. 2 is an explanatory diagram of the movement vector. In general, an optical flow is known as one of methods for extracting a motion of an object from a moving image. The optical flow is a
いま、時刻tにおける画像上の点P(x,y)の輝度値をE(x,y,t)とする。時刻tからt+Δtまでの間に、Pが(Δx,Δy)だけ移動し、輝度値が変化しないと仮定すると、数式1が成り立つ。
Now, let the luminance value of the point P (x, y) on the image at time t be E (x, y, t). Assuming that P moves by (Δx, Δy) from time t to t + Δt and the luminance value does not change,
しかし、求める変数が(u,v)の2つであるのに対して、関係式が数式5の1つなので、これのみではオプティカルフローを求めることはできない。そこで、オプティカルフロー(u,v)の算出にあたり、数式5のほかに、「オプティカルフローは滑らかに変化する」という条件を付け加える。オプティカルフロー(u,v)の変化量は、次の数式6で表される。
However, since there are two variables (u, v) to be obtained, the relational expression is one of Equation 5, so that it is not possible to obtain an optical flow by this alone. Therefore, in calculating the optical flow (u, v), in addition to Equation 5, a condition that “the optical flow changes smoothly” is added. The amount of change in the optical flow (u, v) is expressed by the following formula 6.
図1に示す移動ベクトル抽出手段16は、移動ベクトルを抽出する際の画像の取得間隔を調整しうるようになっていることが望ましい。
図3は、移動ベクトルの代替算出方法の説明図である。低速度で移動している車両は、連続する画像間での移動量が小さい。そのため、現在(時刻t)の画像V0とその直前(時刻t−Δt)の画像V-1との間で、オプティカルフローを抽出するのが困難である。そこで、オプティカルフローを抽出する際の画像の取得間隔を長くし、現在(時刻t)の画像V0と時刻t−nΔtの画像V-nとの間でオプティカルフローを抽出する。このように画像の取得間隔を車両の速度に基づいて調整することにより、低速度で移動している車両でも、画像間での移動量が大きくなるため、オプティカルフロー32を確実に抽出することができる。このように抽出したオプティカルフローを1/n倍すれば、連続する画像間で抽出したオプティカルフローと同様に取り扱うことができる。なお本実施形態ではn=2としている。
It is desirable that the movement vector extraction means 16 shown in FIG. 1 can adjust the image acquisition interval when extracting the movement vector.
FIG. 3 is an explanatory diagram of a movement vector alternative calculation method. A vehicle moving at a low speed has a small amount of movement between successive images. Therefore, it is difficult to extract an optical flow between the current image V0 (time t) and the image V-1 immediately before (time t−Δt). Therefore, the image acquisition interval when extracting the optical flow is lengthened, and the optical flow is extracted between the current image V0 (time t) and the image V-n at time t−nΔt. By adjusting the image acquisition interval based on the speed of the vehicle in this way, even if the vehicle is moving at a low speed, the amount of movement between the images increases, so that the
(ノイズ除去手段)
図1に示す移動ベクトル抽出手段16は、ノイズ除去手段(不図示)を備えていることが望ましい。ノイズ除去手段は、物体が持つ移動ベクトルの内で複数の移動ベクトルとの相関値が所定値未満の移動ベクトルを除去するものである。
図4は、移動ベクトルのノイズ除去の説明図である。上記のように求めた移動ベクトル32には、ノイズ(雑音成分)32nが含まれている可能性がある。このノイズ32nは周囲の移動ベクトル32との相関が小さいことを利用して、次の手法でノイズ32nを除去することが可能である。
(Noise removal means)
The movement vector extraction means 16 shown in FIG. 1 preferably includes noise removal means (not shown). The noise removing means removes a movement vector having a correlation value with a plurality of movement vectors less than a predetermined value from movement vectors of the object.
FIG. 4 is an explanatory diagram of noise removal of the movement vector. The
一般的に、同一物体における局所領域のオプティカルフロー32は、向きおよび大きさが類似する性質をもつ(相関が大きい)。これに対してノイズ32nは、周囲の移動ベクトルと向きおよび大きさが異なる(相関が小さい)。そこで、始点座標が(xa0,ya0)、終点座標が(xa1,ya1)の、数式8に示す任意のflowAを考える。
In general, the
この平均相関値cor_aveが、閾値Threshold_Noise以下であるか、数式10により判断する。
Whether the average correlation value cor_ave is equal to or less than the threshold value Threshold_Noise is determined by
(消失点算出手段)
図1に示す消失点算出手段18は、自車両の進行方向をあらわす消失点を算出するものである。
図5は、消失点算出方法の説明図である。本実施形態において消失点は、自車の進行によって生じる周囲の静止物体92のオプティカルフロー93から求める。一般に、自車が前方に進行する場合、周囲の静止物体92のオプティカルフロー93は、画像の消失点(Focus of Expansion;以下「FOE」という。)90から湧き出すように発生する。そのため、複数のオプティカルフロー93の湧き出し点としてFOE90を算出することができる。
(Vanishing point calculation means)
The vanishing point calculating means 18 shown in FIG. 1 calculates a vanishing point that represents the traveling direction of the host vehicle.
FIG. 5 is an explanatory diagram of a vanishing point calculation method. In the present embodiment, the vanishing point is obtained from the
ただし、FOEは自車の進行方向によって変化するため、画像毎にFOEを算出する必要があり、計算コストが増大するという問題がある。そこで、次の手法によりFOEの座標を推定する。時刻t+ΔtにおけるFOE座標(foe_x(t+Δt),foe_y(t+Δt))は、時刻tにおけるFOE座標(foe_x(t),foe_y(t))を用いて、数式11で表すことができる。 However, since the FOE changes depending on the traveling direction of the own vehicle, it is necessary to calculate the FOE for each image, which increases the calculation cost. Therefore, FOE coordinates are estimated by the following method. The FOE coordinates (foe_x (t + Δt), foe_y (t + Δt)) at time t + Δt can be expressed by Equation 11 using the FOE coordinates (foe_x (t), foe_y (t)) at time t.
図6は、FOE座標の変化量テーブルの説明図である。このテーブルには、横軸に自車速度をとり、縦軸に操舵角をとって、予め計算や実測によって求めた自車進行方向の変化量が記載されている。
FIG. 6 is an explanatory diagram of a FOE coordinate change amount table. In this table, the amount of change in the traveling direction of the vehicle, which is obtained in advance by calculation or actual measurement, with the vehicle speed on the horizontal axis and the steering angle on the vertical axis, is described.
このように、時刻tにおけるFOE座標(foe_x(t),foe_y(t))に、図6で求めたΔxおよびΔyを繰り返し加算することにより、その後のFOE座標を簡単に推定することができる。これに伴って、画像毎に複数のオプティカルフローの湧き出し点としてFOEを算出する必要がなくなり、計算コストを低減することができる。 Thus, the subsequent FOE coordinates can be easily estimated by repeatedly adding Δx and Δy obtained in FIG. 6 to the FOE coordinates (foe_x (t), foe_y (t)) at time t. Accordingly, it is not necessary to calculate the FOE as a source of a plurality of optical flows for each image, and the calculation cost can be reduced.
(注意領域設定手段)
図1に示す注意領域設定手段は、自車両と衝突する可能性がある障害物を検出すべき注意領域を設定するものである。
図7は、注意領域の説明図である。本実施形態では、検出対象である障害物を、飛出し車両、対向車両および追越し車両の三種類とする。そのうち飛出し車両および対向車両は、自車両の進行方向の近傍に出現する。そこで、FOEを中心に四角形の注意領域1を設定する。また追越し車両は、自車両の両脇に出現する。そこで、画像の左下端に四角形の注意領域2Lを設定し、右下端に四角形の注意領域2Rを設定する。
(Caution area setting means)
The attention area setting means shown in FIG. 1 sets an attention area in which an obstacle that may collide with the host vehicle is to be detected.
FIG. 7 is an explanatory diagram of the attention area. In the present embodiment, there are three types of obstacles to be detected: a jump-out vehicle, an oncoming vehicle, and an overtaking vehicle. Among them, the jump-out vehicle and the oncoming vehicle appear in the vicinity of the traveling direction of the host vehicle. Therefore, a
注意領域1は、FOEを中心とする四角形に設定し、その大きさの初期値は幅W10、高さH10に設定する。本実施形態では、640×480ピクセルの画像に対して、幅W10=300ピクセル、高さH10=200ピクセルに設定する。
The
図8は、画像内における障害物の大きさの説明図である。注意領域1において飛出し車両30を検出した場合には、追跡監視のためその後の画像からも同じ飛出し車両30を検出する必要がある。ところが、自車の進行に伴って、画像内での飛出し車両30の大きさは拡大する。この場合、注意領域1の大きさが初期値のままでは、飛出し車両30を検出できなくなる可能性がある。
FIG. 8 is an explanatory diagram of the size of the obstacle in the image. When the jumping
そこで、以下の手法により注意領域1の大きさを拡大する。注意領域1内で検出された飛出し車両30の移動ベクトルのうち、その始点がX方向においてFOEから最も離れているもの(移動ベクトル34の始点34s)に注目する。時系列画像において、始点34sの位置は徐々にX方向外側に移動する。そこで、この始点34sが含まれるように注意領域1の大きさを設定すれば、飛出し車両30を常に検出することができる。
Therefore, the size of the
図9は、注意領域の拡大操作の説明図である。移動ベクトル34の始点34sのX座標をxs1とし、FOEのX座標をxfoeとすれば、新たな注意領域1の幅(暫定値)W1´は数式12で表される。
FIG. 9 is an explanatory diagram of the operation for enlarging the attention area. If the X coordinate of the
同様に、注意領域1内で検出された飛出し車両30の移動ベクトルのうち、その始点がY方向においてFOEから最も離れているもの(移動ベクトル35の始点35s)に注目する。始点35sのY座標をys1とし、FOEのY座標をyfoeとすれば、新たな注意領域1の高さ(暫定値)H1´は数式14で表される。
Similarly, attention is paid to the movement vector of the flying
図7に戻り、注意領域2Lおよび注意領域2Rは、画像の左下隅および右下隅における四角形に設定し、その大きさの初期値は幅W20、高さH20に設定する。なお注意領域2Lの大きさの初期値と注意領域2Rの大きさの初期値とを異なる値に設定してもよい。
Returning to FIG. 7, the attention area 2L and the
図10は、注意領域2Rの拡大操作の説明図である。注意領域2Rにおいて追越し車両31を検出した場合には、追跡監視のためその後の画像からも同じ追越し車両31を検出する必要がある。ところが追越し車両31は、時間の経過とともに自車両の進行方向に接近する。この場合、注意領域2Rの大きさが初期値のままでは、追越し車両31を検出できなくなる可能性がある。
FIG. 10 is an explanatory diagram of the enlargement operation of the
そこで、以下の手法により注意領域2Rの大きさを拡大する。注意領域2内で検出された追越し車両31の移動ベクトルのうち、最もFOEに近い移動ベクトル36に注目する。時系列画像において、移動ベクトル36の終点36eの位置は徐々にFOEに接近する。そこで、この終点36eが含まれるように注意領域2Rの大きさを設定すれば、追越し車両31を常に検出することができる。
Therefore, the size of the
具体的には、移動ベクトル36の終点36eの座標を(xe1,ye1)とし、注意領域2Rの右端のX座標をxrとすれば、新たな注意領域2Rの幅(暫定値)W2R´は数式16で表される。
Specifically, if the coordinates of the end point 36e of the
同様に、新たな注意領域2Rの高さ(暫定値)H2R´は数式18で表される。
Similarly, the height (provisional value) H2R ′ of the
(障害物判定手段)
図1に示す障害物判定手段は、注意領域の中から自車両と接触の可能性のある障害物を判定するものである。本実施形態では、注意領域内の移動ベクトルが、FOEとの位置関係で規定された障害物(飛出し車両、対向車両および追越し車両)の判別条件を満たすか否かを判断する。判別条件を満たす場合には、その移動ベクトルが占める画像領域に障害物が存在すると判断する。これには、最初に車両候補の移動ベクトルを抽出し,次にそれらに対して各種車両の判別をおこなう。
(Obstacle determination means)
The obstacle determination means shown in FIG. 1 determines an obstacle that may come into contact with the host vehicle from the attention area. In the present embodiment, it is determined whether or not the movement vector in the attention area satisfies the discrimination condition for obstacles (flying-out vehicle, oncoming vehicle, and overtaking vehicle) defined by the positional relationship with the FOE. When the determination condition is satisfied, it is determined that an obstacle exists in the image area occupied by the movement vector. For this purpose, first, the movement vectors of the vehicle candidates are extracted, and then various vehicles are discriminated against them.
最初に、注意領域の中から障害物候補となる移動ベクトルを抽出する。具体的には、各移動ベクトルの始点(xs、ys)および終点(xe,ye)と、FOE(xfoe,yfoe)との位置関係に着目し、以下の条件を満たす移動ベクトルを障害物候補として抽出する。 First, a movement vector as an obstacle candidate is extracted from the attention area. Specifically, focusing on the positional relationship between the start point (xs, ys) and end point (xe, ye) of each movement vector and FOE (xfoe, yfoe), a movement vector that satisfies the following conditions is used as an obstacle candidate. Extract.
対向車両の候補となるのは、注意領域1内でFOEから離れる移動ベクトルである。具体的には、数式20を満たす移動ベクトルが対向車両の候補となる。
A candidate for the oncoming vehicle is a movement vector that moves away from the FOE in the
追越し車両の候補となるのは、注意領域2Lまたは注意領域2R内で、FOEに向かう移動ベクトルである。具体的には、数式21を満たす移動ベクトルが対向車両の候補となる。
A candidate for the overtaking vehicle is a movement vector toward the FOE in the attention area 2L or the
飛出し車両の候補となるのは、注意領域1内で側方からFOEに向かう移動ベクトルである。具体的には、数式22を満たす移動ベクトルが飛出し車両の候補となる。
A candidate for a jump-out vehicle is a movement vector from the side toward the FOE in the
次に、障害物の候補になった複数の移動ベクトルにつき、以下の3条件が成立する画像内の領域を、障害物の存在領域として判断する。
障害物の移動ベクトルは、局所領域に密集しているはずである。そこで条件1として、複数の移動ベクトルのうち隣接する二つの移動ベクトルの始点間の平均距離dist_aveがしきい値dist_ave_Threshold以下であるか、数式23により判断する。
Next, for a plurality of movement vectors that are candidates for an obstacle, an area in the image that satisfies the following three conditions is determined as an obstacle existing area.
Obstacle movement vectors should be dense in the local region. Therefore, as
また条件2として、条件1が成立する領域において、移動ベクトルの総数n_FlowNumがn_FlowNum_Threshold以上であるか、数式24により判断する。
Also, as condition 2, in the area where
また障害物の移動ベクトルは、向きおよび大きさが類似する性質をもつ(相関が大きい)。そこで条件3として、条件1が成立する領域において、全移動ベクトル間の平均相関値n_Correlationが、しきい値n_Correlation_Threshold以上であるか、数式25により判断する。
Moreover, the movement vector of an obstacle has the property that direction and magnitude | size are similar (a correlation is large). Therefore, as condition 3, in the region where
以上により、画像から障害物が検出されるようになっている。
Thus, an obstacle is detected from the image.
(報知手段)
図1に示す報知手段24は、自車両の運転者に対して障害物の存在を報知するものである。具体的な報知手段24として、ディスプレイ装置等が車室内のインスツルメンタル・パネル付近に配置されている。
その報知手段24には、画像取得手段12により撮影された画像、および障害物判定手段22により検出された障害物の情報が入力される。報知手段24は、画像取得手段12により撮影された画像を表示し、画像内に障害物が存在する場合にはその外周に沿った多角形の枠体等を表示する。例えば、障害物の幅および高さを2辺とする長方形の枠体を表示する。なお枠体と同時に、障害物の移動ベクトルに相当する矢印を表示してもよい。また、障害物の危険度に応じて報知形態を変化させてもよい。さらに、運転者の運転習熟度に応じて表示形態を選択してもよい。
(Notification means)
The notification means 24 shown in FIG. 1 notifies the presence of an obstacle to the driver of the host vehicle. As a specific notification means 24, a display device or the like is disposed in the vicinity of the instrument panel in the passenger compartment.
The
(物体検出方法)
次に、前記物体検出装置を用いた物体検出方法につき、図1に加え、図11ないし14を用いて説明する。
図11ないし14は、本実施形態に係る物体検出方法のフローチャートである。まず画像取得手段12が、自車両周囲の現在時刻Tの画像を取得し(S10)、メモリに記録するとともに、移動ベクトル抽出手段に出力する。
(Object detection method)
Next, an object detection method using the object detection apparatus will be described with reference to FIGS. 11 to 14 in addition to FIG.
11 to 14 are flowcharts of the object detection method according to this embodiment. First, the image acquisition means 12 acquires an image at the current time T around the host vehicle (S10), records it in the memory, and outputs it to the movement vector extraction means.
次に移動ベクトル抽出手段16が、画像内に存在する物体の移動ベクトルを抽出する。具体的には、まずΔt時刻前の画像をメモリから読込み(S12)、さらにnΔt時刻前の画像もメモリから読込む(S14)。そして、これらの画像からオプティカルフローを算出し、移動ベクトルを抽出する(S50)。
図12は、移動ベクトル抽出サブルーチンのフローチャートである。まず、現在時刻の画像とΔt時刻前の画像からオプティカルフローを算出する(S52)。次に、現在時刻の画像とnΔt時刻前の画像から、低速車両のオプティカルフローを算出する(S54)。なお、S52およびS54のオプティカルフローの平均値を算出して、移動ベクトルを抽出してもよい。また、S52またはS54のいずれかのオプティカルフローを、そのまま移動ベクトルとして抽出してもよい。また、S52においてオプティカルフローの算出に成功した場合には、S54を省略することも可能である。最後に、移動ベクトルのノイズ(雑音成分)を除去する(S56)。
Next, the movement vector extraction means 16 extracts the movement vector of the object existing in the image. Specifically, first, an image before Δt time is read from the memory (S12), and an image before nΔt time is also read from the memory (S14). Then, an optical flow is calculated from these images, and a movement vector is extracted (S50).
FIG. 12 is a flowchart of the movement vector extraction subroutine. First, an optical flow is calculated from an image at the current time and an image before Δt time (S52). Next, the optical flow of the low-speed vehicle is calculated from the image at the current time and the image before the time nΔt (S54). The movement vector may be extracted by calculating the average value of the optical flows in S52 and S54. Further, the optical flow of either S52 or S54 may be extracted as a movement vector as it is. If the optical flow is successfully calculated in S52, S54 can be omitted. Finally, the movement vector noise (noise component) is removed (S56).
次に消失点算出手段18が、自車進行方向をあらわす消失点を推定する(S60)。
図13は、自車進行方向推定サブルーチンのフローチャートである。まず自車両の走行速度を取得し(S62)、操舵角を取得する(S64)。次に、取得した自車速度および操舵角を、図6に示すFOE座標の変化量テーブルに当てはめる。これにより取得したFOE座標の変化量を、前回推定したFOE座標に加算することにより、現在のFOEの位置を推定する(S66)。
Next, the vanishing point calculating means 18 estimates a vanishing point representing the traveling direction of the host vehicle (S60).
FIG. 13 is a flowchart of the own vehicle traveling direction estimation subroutine. First, the traveling speed of the host vehicle is acquired (S62), and the steering angle is acquired (S64). Next, the acquired own vehicle speed and steering angle are applied to the FOE coordinate change amount table shown in FIG. The current FOE position is estimated by adding the obtained change amount of the FOE coordinate to the previously estimated FOE coordinate (S66).
次に注意領域設定手段14が、画像内に注意領域を設定する(S70)。
図14は、注意領域設定サブルーチンのフローチャートである。ここでは、すでに初期値が設定されている注意領域の大きさの再設定を行う。まず、注意領域1内の移動ベクトルのうち、その始点がFOEから最も遠いものを、X方向およびY方向についてそれぞれ抽出する(S72)。そして、注意領域1の拡大要否を判別する(S73)。具体的には、S72で抽出した移動ベクトルの始点座標を数式12および14に代入して、暫定的な注意領域1の幅W1´および高さH1´を算出する。次に数式13および15により、暫定値が初期値より大きいか判断する。判断がYESの場合はS74に進み、注意領域1の幅W1および高さH1を前記暫定値に拡大設定する。判断がNOの場合は、注意領域1の幅W1および高さH1を初期値のまま維持して、S76に進む。
Next, the attention
FIG. 14 is a flowchart of the attention area setting subroutine. Here, the size of the attention area for which the initial value has already been set is reset. First, out of the movement vectors in the
次にS76において、注意領域2R内の移動ベクトルのうち、その終点がFOEに最も近いものを抽出する(S76)。そして、注意領域2Rの拡大要否を判別する(S77)。具体的には、S76で抽出した移動ベクトルの終点座標を数式16に代入して、暫定的な注意領域2Rの幅W2R´および高さH2R´を算出する。次に数式17により、暫定値が初期値より大きいか判断する。判断がYESの場合はS78に進み、注意領域2Rの幅W2Rおよび高さH2Rを前記暫定値に拡大設定する。判断がNOの場合は、注意領域2Rの幅W2Rおよび高さH2Rを初期値のまま維持して、S80に進む。
Next, in S76, out of the movement vectors in the
次にS80において、注意領域2L内の移動ベクトルのうち、その終点がFOEに最も近いものを抽出する(S80)。そして、注意領域2Lの拡大要否を判別する(S81)。具体的には、S80で抽出した移動ベクトルの終点座標を用いて、暫定的な注意領域2Lの幅W2L´および高さH2L´を算出する。次に、暫定値が初期値より大きいか判断する。判断がYESの場合はS82に進み、注意領域2Lの幅W2Lおよび高さH2Lを前記暫定値に拡大設定する。判断がNOの場合は、注意領域2Lの幅W2Lおよび高さH2Lを初期値のまま維持する。 Next, in S80, the movement vector in the attention area 2L is extracted that has the end point closest to the FOE (S80). Then, it is determined whether or not the attention area 2L needs to be enlarged (S81). More specifically, the width W2L ′ and the height H2L ′ of the provisional attention area 2L are calculated using the end point coordinates of the movement vector extracted in S80. Next, it is determined whether the provisional value is larger than the initial value. If the determination is YES, the process proceeds to S82, and the width W2L and the height H2L of the attention area 2L are enlarged and set to the provisional values. When the determination is NO, the width W2L and the height H2L of the attention area 2L are maintained at the initial values.
次に障害物判定手段22が、設定された注意領域内の移動ベクトルから、自車両との接触可能性のある障害物を判定する。図11に示すように、まず飛出し車両候補を抽出する(S20)。具体的には、注意領域1内でFOEに向かう(数式22を満たす)移動ベクトルが存在するか判断する。判断がYESの場合には、S21に進んで飛出し車両を検出する。具体的には、数式23、24および25を満たす複数の移動ベクトルの存在領域を、飛出し車両と判定する。判断がNOの場合には、飛出し車両が存在しないと判定し、S23に進む。
Next, the obstacle determination means 22 determines an obstacle that may come into contact with the host vehicle from the movement vector in the set attention area. As shown in FIG. 11, first, a jump-out vehicle candidate is extracted (S20). Specifically, it is determined whether or not there is a movement vector toward FOE (satisfying Formula 22) in
次にS23において、対向車両候補を抽出する(S23)。具体的には、注意領域1内でFOEから離れる(数式20を満たす)移動ベクトルが存在するか判断する。判断がYESの場合には、S24に進んで対向車両を検出する。具体的には、数式23、24および25を満たす複数の移動ベクトルの存在領域を、対向車両と判定する。判断がNOの場合には、対向車両が存在しないと判定し、S26に進む。
Next, an oncoming vehicle candidate is extracted in S23 (S23). Specifically, it is determined whether or not there is a movement vector that leaves the FOE (satisfies Equation 20) in the
次にS26において、追越し車両候補を抽出する(S26)。具体的には、注意領域2Lまたは注意領域2R内でFOEに向かう(数式21を満たす)移動ベクトルが存在するか判断する。判断がYESの場合には、S27に進んで追越し車両を検出する。具体的には、数式23、24および25を満たす複数の移動ベクトルの存在領域を、追越し車両と判定する。判断がNOの場合には、追越し車両が存在しないと判定し、処理を終了する。
Next, in S26, an overtaking vehicle candidate is extracted (S26). Specifically, it is determined whether or not there is a movement vector toward FOE (satisfying Expression 21) in attention area 2L or
そして、飛出し車両、対向車両および追越し車両の少なくともいずれかが検出された場合には、報知手段24が自車両の運転者に対して障害物の存在を報知する。
以上により、自車両と衝突する可能性がある物体が検出される。
When at least one of the jumping-out vehicle, the oncoming vehicle, and the overtaking vehicle is detected, the
Thus, an object that may collide with the host vehicle is detected.
以上に詳述したように、本実施形態に係る物体検出装置10は、自車両周辺の時系列画像を取得する画像取得手段12と、取得した画像に基づいて該画像内に存在する物体の移動ベクトルを抽出する移動ベクトル抽出手段16と、自車両の進行方向をあらわすFOEを算出する消失点算出手段18と、算出されたFOEに基づいて画像内に注意領域を設定する注意領域設定手段14と、設定された注意領域内で自車両と接触可能性のある障害物を判定する障害物判定手段22とを備え、注意領域設定手段14は、複数の注意領域を設定し、障害物判定手段22は、移動ベクトルのFOEに対する向きおよび該移動ベクトルが何れの注意領域に存在するかに基づいて該障害物を判定する構成とした。
As described in detail above, the
この構成によれば、レーンマーク等を利用することなく、FOEに基づいて画像内に注意領域を設定するので、常に有効な注意領域を設定することができる。また、移動ベクトルのFOEに対する向きおよび該移動ベクトルが何れの注意領域に存在するかに基づいて障害物を判定するので、自車両と衝突する可能性のある様々な障害物を的確に検出することができる。また注意領域内で障害物を判定するので、重要な障害物を効率よく判定することが可能になり、計算コストを削減することができる。 According to this configuration, since the attention area is set in the image based on the FOE without using the lane mark or the like, it is possible to always set an effective attention area. Further, since the obstacle is determined based on the direction of the movement vector with respect to the FOE and in which caution area the movement vector exists, various obstacles that may collide with the host vehicle are accurately detected. Can do. In addition, since the obstacle is determined within the attention area, it is possible to efficiently determine the important obstacle, and the calculation cost can be reduced.
また注意領域設定手段14は、画像内のFOEを中心として注意領域1を設定し、障害物判定手段22は、移動ベクトルが注意領域1内に存在し、かつFOEに向かう場合に、物体を飛出し車両であると判定する構成とした。飛出し車両はFOEの近傍に出現し、その移動ベクトルはFOEに近づく方向に向かうので、上記構成により飛出し車両を精度良く検出することができる。
The attention area setting means 14 sets the
また注意領域設定手段14は、画像内のFOEを中心として注意領域1を設定し、障害物判定手段22は、移動ベクトルが注意領域1内に存在し、かつFOEから離れる方向に向かう場合に、物体を対向車両であると判定する構成とした。対向車両はFOEの近傍に出現し、その移動ベクトルはFOEから離れる方向に向かうので、上記構成により対向車両を精度良く検出することができる。
Further, the attention
また注意領域設定手段14は、画像内の右下端および左下端の少なくとも一方に注意領域2Rおよび注意領域2Lを設定し、障害物判定手段22は、移動ベクトルが注意領域2Rまたは注意領域2L内に存在し、かつFOEに向かう場合に、物体を追越し車両であると判定する構成とした。追越し車両は画像内の右下端または左下端に出現し、その移動ベクトルはFOEに近づく方向に向かうので、上記構成により追越し車両を精度良く検出することができる。
The attention
なお、この発明は前述した実施例に限られるものではない。
例えば、上記実施形態では飛出し車両、対向車両および追越し車両を検出したが、自車両と衝突する可能性のある上記以外の車両を検出することも可能である。また上記実施形態では車両を検出したが、自動二輪車や自転車、歩行者等の移動物体を検出することも可能である。また、上記実施形態では報知手段としてディスプレイ装置を採用したが、それ以外の警報音出力装置等を採用することも可能である。
The present invention is not limited to the embodiment described above.
For example, in the above-described embodiment, a jump-out vehicle, an oncoming vehicle, and an overtaking vehicle are detected, but it is also possible to detect a vehicle other than the above that may collide with the own vehicle. Moreover, although the vehicle was detected in the said embodiment, it is also possible to detect moving objects, such as a motorcycle, a bicycle, and a pedestrian. Moreover, in the said embodiment, although the display apparatus was employ | adopted as an alerting | reporting means, other alarm sound output apparatuses etc. are also employable.
1…注意領域(第1注意領域) 2L,2R…注意領域(第2注意領域) 10…物体検出装置 12…画像取得手段 14…注意領域設定手段 16…移動ベクトル抽出手段 18…消失点算出手段 22…障害物判定手段 24…報知手段
DESCRIPTION OF
Claims (7)
前記画像に基づいて該画像内に存在する物体の移動ベクトルを抽出する移動ベクトル抽出手段と、
前記自車両の進行方向をあらわす消失点を算出する消失点算出手段と、
前記消失点に基づいて前記画像内に注意領域を設定する注意領域設定手段と、
前記注意領域内で前記自車両と接触可能性のある障害物を判定する障害物判定手段と、を備えた物体検出装置において、
前記注意領域設定手段は、複数の注意領域を設定し、
前記障害物判定手段は、前記移動ベクトルの前記消失点に対する向きおよび該移動ベクトルが何れの注意領域に存在するかに基づいて該障害物を判定することを特徴とする物体検出装置。 Image acquisition means for acquiring time-series images around the host vehicle;
A movement vector extracting means for extracting a movement vector of an object existing in the image based on the image;
Vanishing point calculating means for calculating a vanishing point representing the traveling direction of the host vehicle;
Attention area setting means for setting an attention area in the image based on the vanishing point;
In an object detection device comprising obstacle determination means for determining an obstacle that may contact the host vehicle within the attention area,
The attention area setting means sets a plurality of attention areas,
The obstacle detection means determines the obstacle based on a direction of the movement vector with respect to the vanishing point and in which attention area the movement vector exists.
前記障害物判定手段は、前記移動ベクトルが前記第1の注意領域内に存在し、かつ前記消失点に向かう場合に、前記物体を前記障害物であると判定することを特徴とする請求項1に記載の物体検出装置。 The attention area setting means sets the first attention area around the vanishing point in the image,
2. The obstacle determination unit according to claim 1, wherein the object is determined to be the obstacle when the movement vector is present in the first attention area and heads toward the vanishing point. The object detection apparatus described in 1.
前記障害物判定手段は、前記移動ベクトルが前記第1の注意領域内に存在し、かつ前記消失点から離れる方向に向かう場合に、前記物体を前記障害物であると判定することを特徴とする請求項1または請求項2に記載の物体検出装置。 The attention area setting means sets the first attention area around the vanishing point in the image,
The obstacle determination means determines that the object is the obstacle when the movement vector exists in the first attention area and moves in a direction away from the vanishing point. The object detection apparatus according to claim 1 or 2.
前記障害物判定手段は、前記移動ベクトルが前記第2の注意領域内に存在し、かつ前記消失点に向かう場合に、前記物体を前記障害物であると判定することを特徴とする請求項1から請求項3の何れかに記載の物体検出装置。 The attention area setting means sets the second attention area in at least one of the lower right end and the lower left end in the image,
2. The obstacle determination unit according to claim 1, wherein the object is determined to be the obstacle when the movement vector is present in the second attention area and heads toward the vanishing point. The object detection apparatus according to claim 3.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007097213A JP2008257378A (en) | 2007-04-03 | 2007-04-03 | Object detection device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007097213A JP2008257378A (en) | 2007-04-03 | 2007-04-03 | Object detection device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008257378A true JP2008257378A (en) | 2008-10-23 |
Family
ID=39980908
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007097213A Withdrawn JP2008257378A (en) | 2007-04-03 | 2007-04-03 | Object detection device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2008257378A (en) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011070783A1 (en) * | 2009-12-10 | 2011-06-16 | パナソニック株式会社 | Information display apparatus and information display method |
JP2012038031A (en) * | 2010-08-05 | 2012-02-23 | Kyushu Institute Of Technology | Detection method of object jumping out in front of mobile and device therefor |
WO2013065122A1 (en) * | 2011-11-01 | 2013-05-10 | アイシン精機株式会社 | Obstacle alert device |
WO2013065119A1 (en) * | 2011-11-01 | 2013-05-10 | アイシン精機株式会社 | Obstacle alert device |
JP2013092994A (en) * | 2011-10-27 | 2013-05-16 | Clarion Co Ltd | Vehicle periphery monitoring device |
WO2013191078A1 (en) * | 2012-06-19 | 2013-12-27 | 市光工業株式会社 | Object detection device for area around vehicle |
JP5674071B2 (en) * | 2011-11-01 | 2015-02-25 | アイシン精機株式会社 | Obstacle alarm device |
US9396401B2 (en) | 2011-11-01 | 2016-07-19 | Aisin Seiki Kabushiki Kaisha | Obstacle alarm device |
US9454704B2 (en) | 2012-08-31 | 2016-09-27 | Fujitsu Limited | Apparatus and method for determining monitoring object region in image |
CN106292712A (en) * | 2016-10-25 | 2017-01-04 | 中国人民解放军海军航空工程学院 | A kind of unmanned vehicle barrier-avoiding method based on Speed Obstacles arc method |
KR101862461B1 (en) * | 2016-07-14 | 2018-05-29 | 연세대학교 산학협력단 | Method and apparatus for estimating location of sound source location based on wideband frequency |
CN111295321A (en) * | 2017-11-02 | 2020-06-16 | 株式会社东芝 | Obstacle detection device |
KR20200133122A (en) * | 2019-05-17 | 2020-11-26 | 현대모비스 주식회사 | Apparatus and method for preventing vehicle collision |
-
2007
- 2007-04-03 JP JP2007097213A patent/JP2008257378A/en not_active Withdrawn
Cited By (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102378998A (en) * | 2009-12-10 | 2012-03-14 | 松下电器产业株式会社 | Information display apparatus and information display method |
JP5590684B2 (en) * | 2009-12-10 | 2014-09-17 | パナソニック株式会社 | Information display device and information display method |
US8536995B2 (en) | 2009-12-10 | 2013-09-17 | Panasonic Corporation | Information display apparatus and information display method |
WO2011070783A1 (en) * | 2009-12-10 | 2011-06-16 | パナソニック株式会社 | Information display apparatus and information display method |
JP2012038031A (en) * | 2010-08-05 | 2012-02-23 | Kyushu Institute Of Technology | Detection method of object jumping out in front of mobile and device therefor |
JP2013092994A (en) * | 2011-10-27 | 2013-05-16 | Clarion Co Ltd | Vehicle periphery monitoring device |
WO2013065325A1 (en) * | 2011-11-01 | 2013-05-10 | アイシン精機株式会社 | Obstacle alert device |
US9691283B2 (en) | 2011-11-01 | 2017-06-27 | Aisin Seiki Kabushiki Kaisha | Obstacle alert device |
WO2013065122A1 (en) * | 2011-11-01 | 2013-05-10 | アイシン精機株式会社 | Obstacle alert device |
JP5674071B2 (en) * | 2011-11-01 | 2015-02-25 | アイシン精機株式会社 | Obstacle alarm device |
JPWO2013065119A1 (en) * | 2011-11-01 | 2015-04-02 | アイシン精機株式会社 | Obstacle alarm device |
US9396401B2 (en) | 2011-11-01 | 2016-07-19 | Aisin Seiki Kabushiki Kaisha | Obstacle alarm device |
WO2013065119A1 (en) * | 2011-11-01 | 2013-05-10 | アイシン精機株式会社 | Obstacle alert device |
WO2013191078A1 (en) * | 2012-06-19 | 2013-12-27 | 市光工業株式会社 | Object detection device for area around vehicle |
JP2014002577A (en) * | 2012-06-19 | 2014-01-09 | Ichikoh Ind Ltd | Detection apparatus for object around vehicle |
US9367751B2 (en) | 2012-06-19 | 2016-06-14 | Ichikoh Industries, Ltd. | Object detection device for area around vehicle |
US9454704B2 (en) | 2012-08-31 | 2016-09-27 | Fujitsu Limited | Apparatus and method for determining monitoring object region in image |
KR101862461B1 (en) * | 2016-07-14 | 2018-05-29 | 연세대학교 산학협력단 | Method and apparatus for estimating location of sound source location based on wideband frequency |
CN106292712A (en) * | 2016-10-25 | 2017-01-04 | 中国人民解放军海军航空工程学院 | A kind of unmanned vehicle barrier-avoiding method based on Speed Obstacles arc method |
CN106292712B (en) * | 2016-10-25 | 2018-12-07 | 中国人民解放军海军航空大学 | A kind of unmanned vehicle barrier-avoiding method based on Speed Obstacles arc method |
CN111295321A (en) * | 2017-11-02 | 2020-06-16 | 株式会社东芝 | Obstacle detection device |
KR20200133122A (en) * | 2019-05-17 | 2020-11-26 | 현대모비스 주식회사 | Apparatus and method for preventing vehicle collision |
KR102712307B1 (en) * | 2019-05-17 | 2024-10-04 | 현대모비스 주식회사 | Apparatus and method for preventing vehicle collision |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2008257378A (en) | Object detection device | |
JP6416293B2 (en) | Method of tracking a target vehicle approaching a car by a car camera system, a camera system, and a car | |
JP4622001B2 (en) | Road lane marking detection apparatus and road lane marking detection method | |
JP4650079B2 (en) | Object detection apparatus and method | |
JP6384082B2 (en) | Moving object detection apparatus, moving object detection method, and program | |
JP5561064B2 (en) | Vehicle object recognition device | |
US20100110193A1 (en) | Lane recognition device, vehicle, lane recognition method, and lane recognition program | |
JPH11353565A (en) | Method and device for alarm of collision for vehicle | |
JP2003067752A (en) | Vehicle periphery monitoring device | |
JP5482672B2 (en) | Moving object detection device | |
JP2008158640A (en) | Moving object detection apparatus | |
JP2009053818A (en) | Image processor and method thereof | |
JP2006350699A (en) | Image processor and image processing method | |
JP2007280132A (en) | Travel guide obstacle detector, and controller for vehicle | |
JP2007249257A (en) | Apparatus and method for detecting movable element | |
KR20180047149A (en) | Apparatus and method for risk alarming of collision | |
JP2009245042A (en) | Traffic flow measurement device and program | |
JP2012252501A (en) | Traveling path recognition device and traveling path recognition program | |
JP3651419B2 (en) | Environment recognition device | |
JP2007264717A (en) | Lane deviation decision device, lane deviation prevention device and lane follow-up supporting device | |
JP2006140636A (en) | Obstacle detecting device and method | |
EP3287948B1 (en) | Image processing apparatus, moving body apparatus control system, image processing method, and program | |
JP4321410B2 (en) | Object detection apparatus and method | |
JP4575315B2 (en) | Object detection apparatus and method | |
JP2007199932A (en) | Image processor and its method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20100706 |