JP2016012264A - Article detection device, drive support apparatus, article detection method, and article detection program - Google Patents
Article detection device, drive support apparatus, article detection method, and article detection program Download PDFInfo
- Publication number
- JP2016012264A JP2016012264A JP2014133937A JP2014133937A JP2016012264A JP 2016012264 A JP2016012264 A JP 2016012264A JP 2014133937 A JP2014133937 A JP 2014133937A JP 2014133937 A JP2014133937 A JP 2014133937A JP 2016012264 A JP2016012264 A JP 2016012264A
- Authority
- JP
- Japan
- Prior art keywords
- vertical edge
- captured image
- object detection
- captured
- extension region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、物体検出装置、運転支援装置、物体検出方法、および物体検出プログラムに関する。 The present invention relates to an object detection device, a driving support device, an object detection method, and an object detection program.
従来、自車両の走行車線内における車幅方向の位置、及び先行車両の前記自車両に対する相対的な関係の少なくとも一方から、自車両の走行状態が適切であると判定される場合に先行車両を除く他車両との衝突可能性の判定を行う衝突可能性判定装置であって、自車両前方に存在する他車両を検出する他車両検出手段と、他車両検出手段によって検出される先行車両を除く他車両の自車両に対する相対的な位置関係が所定時間連続して同じ位置関係にあるか否かを判定する相対位置判定手段と、相対位置判定手段の判定結果に基づいて、自車両と他車両との衝突可能性を判定する衝突可能性判定手段とを備えることを特徴とする衝突可能性判定装置が知られている(例えば、特許文献1参照)。 Conventionally, when the traveling state of the host vehicle is determined to be appropriate from at least one of the position in the vehicle width direction in the traveling lane of the host vehicle and the relative relationship of the preceding vehicle with the host vehicle, A collision possibility determination device for determining the possibility of collision with another vehicle excluding other vehicle detection means for detecting another vehicle existing ahead of the host vehicle and a preceding vehicle detected by the other vehicle detection means Relative position determination means for determining whether or not the relative positional relationship of the other vehicle to the own vehicle is the same for a predetermined time continuously, and based on the determination result of the relative position determination means, the own vehicle and the other vehicle There is known a collision possibility determination device including a collision possibility determination unit that determines the possibility of collision with (see, for example, Patent Document 1).
しかしながら、現実には、他車両の自車両に対する相対的な位置関係が所定時間連続して同じ位置関係に無い場合であっても、当該他車両を衝突対象物として監視する必要性のある場面が生じ得る。このため、従来の技術では、本来検出すべき衝突対象物の検出漏れが生じる場合がある。
本発明は、このような事情を考慮してなされたものであり、より適切に検出対象物を検出することができる物体検出装置、物体検出方法、および物体検出プログラムを提供することを目的の一つとする。
However, in reality, there is a scene where it is necessary to monitor the other vehicle as a collision target even when the relative positional relationship of the other vehicle with respect to the host vehicle is not the same positional relationship for a predetermined time. Can occur. For this reason, in the conventional technique, there is a case where the detection of the collision target that should be detected originally occurs.
The present invention has been made in consideration of such circumstances, and an object of the present invention is to provide an object detection device, an object detection method, and an object detection program that can detect a detection target more appropriately. I will.
請求項1記載の発明は、車両(M)周辺を撮像する撮像部(10)により撮像された撮像画像において、垂直方向に延在する垂直エッジ(VE)を抽出する垂直エッジ抽出部(42)と、前記垂直エッジ抽出部により抽出された垂直エッジを一端とし、前記垂直エッジから前記撮像画像の中心方向に向けて所定の幅を有する拡張領域(AVE)を設定する拡張領域設定部(44)と、前記拡張領域設定部により設定された拡張領域を用いて、前記垂直エッジが検出対象物の一部に該当するか否かを判定する判定部(46)と、を備える物体検出装置である。 According to the first aspect of the present invention, a vertical edge extraction unit (42) for extracting a vertical edge (VE) extending in the vertical direction in a captured image captured by the imaging unit (10) that captures the periphery of the vehicle (M). And an extended area setting unit (44) for setting an extended area (AVE) having a predetermined width from the vertical edge toward the center of the captured image, with the vertical edge extracted by the vertical edge extracting unit as one end And a determination unit (46) for determining whether or not the vertical edge corresponds to a part of the detection target using the extension region set by the extension region setting unit. .
請求項2記載の発明は、請求項1記載の物体検出装置であって、前記判定部は、時系列で撮像された複数の撮像画像における前記拡張領域同士の重なり具合に基づいて、前記垂直エッジが検出対象物の一部に該当するか否かを判定するものである。
The invention according to
請求項3記載の発明は、請求項2記載の物体検出装置であって、前記判定部は、時系列で撮像された複数の撮像画像において、前記拡張領域に含まれると共に互いに重なる画素の重なり継続時間(CT)が長い場合に、前記垂直エッジが検出対象物の一部に該当すると判定するものである。 A third aspect of the present invention is the object detection device according to the second aspect, wherein the determination unit continues overlapping pixels that are included in the extended region and overlap each other in a plurality of captured images captured in time series. When the time (CT) is long, it is determined that the vertical edge corresponds to a part of the detection target.
請求項4記載の発明は、請求項1から3のうちいずれか1項記載の物体検出装置であって、前記判定部は、前記垂直エッジの前記撮像画像における水平方向の速度に基づいて、前記垂直エッジが検出対象物の一部に該当するか否かを判定するものである。
Invention of
請求項5記載の発明は、請求項4記載の物体検出装置であって、前記判定部は、前記垂直エッジの前記撮像画像における水平方向の速度が小さい場合に、前記垂直エッジが検出対象物の一部に該当すると判定するものである。
The invention according to
請求項6記載の発明は、請求項4または5記載の物体検出装置であって、前記判定部は、時系列で撮像された複数の撮像画像において、前記拡張領域に含まれると共に互いに重なる画素の重なり継続時間を算出すると共に、前記拡張領域の左右端の画素における前記重なり継続時間の差分を分母とする指標値(V(VE))を算出し、前記算出した指標値を前記垂直エッジの前記撮像画像における水平方向の速度として扱うものである。 A sixth aspect of the present invention is the object detection device according to the fourth or fifth aspect, wherein the determination unit includes pixels that are included in the extended region and overlap each other in a plurality of captured images captured in time series. An overlap duration is calculated, and an index value (V (VE)) using a difference between the overlap durations in the left and right end pixels of the extension region as a denominator is calculated, and the calculated index value is calculated as the vertical edge of the vertical edge. This is handled as the horizontal speed in the captured image.
請求項7記載の発明は、請求項6記載の物体検出装置であって、前記判定部は、前記指標値が無効値となった場合、前記垂直エッジの前記撮像画像における水平方向の速度が小さい場合であっても、前記垂直エッジが検出対象物の一部に該当すると判定しないものである。
The invention according to
請求項8記載の発明は、請求項1から7のうちいずれか1項記載の物体検出装置であって、前記車両と前記検出対象物との距離が長い場合に前記拡張領域の幅を小さく設定し、前記車両と前記検出対象物との距離が短い場合に前記拡張領域の幅を大きく設定するものである。
The invention according to
請求項9記載の発明は、1から8のうちいずれか1項記載の物体検出装置であって、前記垂直エッジの前記撮像画像における水平方向座標が中央部に近い場合に前記拡張領域の幅を小さく設定し、前記垂直エッジの前記撮像画像における水平方向座標が左右端部に近い場合に前記拡張領域の幅を大きく設定するものである。
The invention according to
請求項10記載の発明は、請求項8または9記載の物体検出装置であって、前記拡張領域設定部、および前記判定部は、複数の拡張領域の幅について並行して処理を行い、前記判定部による複数の拡張領域の幅についての判定結果から1つの判定結果を選択する判定結果選択部を備えるものである。 A tenth aspect of the present invention is the object detection device according to the eighth or ninth aspect, wherein the extension region setting unit and the determination unit perform processing in parallel on the widths of a plurality of extension regions, and perform the determination. A determination result selection unit that selects one determination result from the determination results of the widths of the plurality of extension regions by the unit.
請求項11記載の発明は、請求項1から10のうちいずれか1項記載の物体検出装置と、前記物体検出装置の検出結果に基づいて運転支援を行う運転支援部と、を備える運転支援装置である。
The invention according to claim 11 is a driving support device comprising: the object detection device according to any one of
請求項12記載の発明は、車両周辺を撮像する撮像部により撮像された撮像画像において、垂直方向に延在する垂直エッジを抽出し、前記抽出された垂直エッジを一端とし、前記垂直エッジから前記撮像画像の中心方向に向けて所定の幅を有する拡張領域を設定し、前記設定された拡張領域を用いて、前記垂直エッジが検出対象物の一部に該当するか否かを判定する、物体検出方法である。
The invention according to
請求項13記載の発明は、コンピュータに、車両周辺を撮像する撮像部により撮像された撮像画像において、垂直方向に延在する垂直エッジを抽出させ、前記抽出された垂直エッジを一端とし、前記垂直エッジから前記撮像画像の中心方向に向けて所定の幅を有する拡張領域を設定させ、前記設定された拡張領域を用いて、前記垂直エッジが検出対象物の一部に該当するか否かを判定させる、物体検出プログラムである。 The invention according to claim 13 causes a computer to extract a vertical edge extending in a vertical direction in a captured image captured by an imaging unit that captures the periphery of the vehicle, and uses the extracted vertical edge as one end. An extended area having a predetermined width is set from the edge toward the center of the captured image, and it is determined whether or not the vertical edge corresponds to a part of the detection object using the set extended area. This is an object detection program.
請求項1、12、13記載の発明によれば、車両周辺を撮像する撮像部により撮像された撮像画像において、垂直方向に延在する垂直エッジを抽出し、垂直エッジを一端とし、垂直エッジから撮像画像の中心方向に向けて所定の幅を有する拡張領域を設定し、拡張領域を用いて垂直エッジが検出対象物の一部に該当するか否かを判定することにより、より適切に検出対象物を検出することができる。
According to the invention described in
請求項2、3記載の発明によれば、時系列で撮像された複数の撮像画像における拡張領域同士の重なり具合、すなわち垂直エッジが現れた物体の撮像画像上における停滞具合に基づいて、垂直エッジが検出対象物の一部に該当するか否かを判定するため、更に適切に検出対象物を検出することができる。 According to the second and third aspects of the present invention, the vertical edge is determined based on the degree of overlap between the extended regions in the plurality of captured images captured in time series, that is, the degree of stagnation on the captured image of the object on which the vertical edge appears. Therefore, it is possible to detect the detection target more appropriately.
請求項4〜7記載の発明によれば、垂直エッジの撮像画像における水平方向の速度、すなわち垂直エッジが現れた物体の撮像画像上における停滞具合を示す値に基づいて、垂直エッジが検出対象物の一部に該当するか否かを判定することにより、更に適切に検出対象物を検出することができる。 According to the fourth to seventh aspects of the present invention, the vertical edge is detected based on the value indicating the horizontal speed in the captured image of the vertical edge, that is, the degree of stagnation on the captured image of the object on which the vertical edge appears. By determining whether or not it corresponds to a part of the detection object, it is possible to more appropriately detect the detection target.
請求項8、9記載の発明によれば、拡張領域の幅を動的に変更することにより、処理負荷の低減や誤検出の抑制と、物体への追従性の向上とを両立させることができる。 According to the eighth and ninth aspects of the invention, by dynamically changing the width of the extension region, it is possible to achieve both reduction in processing load and suppression of false detection and improvement in followability to an object. .
請求項10記載の発明によれば、複数の拡張領域の幅について並行して処理を行い、複数の拡張領域の幅についての判定結果から1つの判定結果を選択するため、演算処理の切り替わりに起因した判定結果のブレが生じるのを防止することができる。 According to the tenth aspect of the present invention, processing is performed in parallel for the widths of a plurality of extension areas, and one determination result is selected from the determination results for the widths of the plurality of extension areas. It is possible to prevent the determination result from being blurred.
請求項11記載の発明によれば、物体検出装置により適切に検出された検出対象物に基づいて、適切な運転支援を行うことができる。 According to the eleventh aspect of the present invention, it is possible to perform appropriate driving assistance based on the detection target appropriately detected by the object detection device.
以下、図面を参照し、本発明の物体検出装置、運転支援装置、物体検出方法、および物体検出プログラムの実施形態について説明する。
<第1実施形態>
図1は、第1実施形態に係る物体検出装置5を含む運転支援装置1の構成の一例を模式的に示す図である。運転支援装置1は、例えば、車両Mに搭載される装置であり、カメラ10と、レーダ装置20と、制御装置30とを備える。以下、運転支援装置1が搭載される車両を「自車両」と称する。
Hereinafter, embodiments of an object detection device, a driving support device, an object detection method, and an object detection program according to the present invention will be described with reference to the drawings.
<First Embodiment>
FIG. 1 is a diagram schematically illustrating an example of a configuration of a
カメラ10は、例えば、フロントウインドシールドの上部やルームミラーの裏面等に取り付けられている。カメラ10は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の固定撮像素子を利用したデジタルカメラである。カメラ10は、例えば、所定周期で車両の前方を繰り返し撮像し、撮像した画像のデータを制御装置30に出力する。
The
レーダ装置20は、例えば、車両Mのエンブレムの裏側や、バンパー、フロントグリルの周辺等に取り付けられる。レーダ装置20は、例えば、ミリ波を車両Mの前方に放射し、車両Mの前方の物体によって反射された反射波を受信することにより、少なくとも物体の位置(距離および方位角)を検出する。また、レーダ装置20は、物体との相対速度を検出可能なものであってよい。レーダ装置20は、例えば、FM‐CW(Frequency‐Modulated Continuous‐Wave)方式によって、物体の位置や速度を検出し、検出結果を制御装置30に出力する。
The
制御装置30は、例えば、CPU(Central Processing Unit)等のプロセッサ、ROM(Read Only Memory)やRAM(Random Access Memory)、HDD(Hard Disk Drive)、EEPROM(Electrically Erasable Programmable Read−Only Memory)、フラッシュメモリ等の記憶装置等が内部バスによって接続されたコンピュータ装置である。
The
図2は、第1実施形態における制御装置30を中心とした機能構成例を示す図である。制御装置30は、例えば、画像処理部40と、センサフュージョン処理部50と、運転支援部60とを備える。画像処理部40は、例えば、垂直エッジ抽出部42と、拡張領域設定部44と、判定部46とを備える。例えば、カメラ10と、レーダ装置20と、制御装置30のうち画像処理部40およびセンサフュージョン処理部50とを備えたものが、物体検出装置5に相当する。制御装置30の各機能部は、例えば、制御装置30のプロセッサがプログラムを実行することにより機能するソフトウェア機能部である。なお、これらの機能部のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)等のハードウェア機能部であってもよい。また、画像処理部40、センサフュージョン処理部50、および運転支援部60は、同じコンピュータ装置により実現されるものでなく、別体のコンピュータ装置により実現されてもよい。例えば、制御装置30は、画像処理部40およびセンサフュージョン処理部50として機能するコンピュータ装置と、運転支援部60として機能する別体のコンピュータ装置とを備えてもよい。
FIG. 2 is a diagram illustrating a functional configuration example centering on the
ここで、物体検出装置5の機能について概説する。図3は、物体検出装置5の機能を説明するための説明図である。物体検出装置5は、例えば側方から自車両Mに接近し、サイド領域AS内に少なくとも一部が存在する、車両や歩行者、自転車などの物体OB1を、まずカメラ10の撮像画像を解析することで検出して、検出対象物候補とする。そして、物体検出装置5は、検出対象物候補とされた物体OB1が中央領域AC内に進入すると、カメラ10の撮像画像解析結果と、レーダ装置20の出力との双方を加味して物体OB1の位置を検出するといった処理を行う(センサフュージョン)。以下、サイド領域AS内における物体OB1の検出処理を中心として説明する。
Here, the function of the
画像処理部40の垂直エッジ抽出部42は、カメラ10により撮像された撮像画像IMにおいて、略垂直方向に延在する垂直エッジを抽出する。「垂直方向」とは、例えば、撮像画像IMにおいて画素が縦方向に並ぶ方向と定義される(図4参照)。これに対し、「水平方向」を、例えば、撮像画像IMにおいて画素が横方向に並ぶ方向と定義する。また、「垂直方向」とは、撮像画像IMにおいて画素が縦方向に並ぶ方向に対してプラスマイナス5度程度以内の傾きを有する方向と定義されてもよい。垂直エッジ抽出部42は、例えば、撮像画像IMにおいて、水平方向に関する隣接画素との輝度差が所定値以上の画素を連ねた特徴線であって、上記略垂直方向に延在する特徴線を、垂直エッジとして抽出する。これに限らず、垂直エッジ抽出部42は、特に水平方向の輝度差が大きい画素を抽出するためのフィルタ等を用いて、垂直エッジを抽出してもよい。図4は、カメラ10により取得された撮像画像IMにおいて垂直エッジVE1〜VE3が抽出される様子を示す図である。撮像画像IMには、検出対象物である物体OB1の他、自動販売機OB2や電柱OB3、その他、ガードレールの柱など、様々な物体から垂直エッジが抽出されることになる。物体検出装置5は、以下に説明する処理によって、検出対象物候補となる物体OB1の垂直エッジに絞り込む処理を行う。
The vertical
拡張領域設定部44は、垂直エッジ抽出部42により抽出された垂直エッジVEを一端とし、垂直エッジVEから、撮像画像IMの水平方向に関する中心方向(一例として中心軸Cに向けて所定の幅を有する拡張領域AVEを設定する。図5は、撮像画像IMにおいて拡張領域AVE1〜AVE3が設定される様子を示す図である。所定の幅は、例えば5画素分というように固定値であってもよいし、後述する第2実施形態のように、可変値であってもよい。図示するように、拡張領域AVEは、撮像画像IMの中心軸Cよりも左側の部分では、垂直エッジVEから右側に向けて幅を持つように設定され、撮像画像IMの中心軸Cよりも右側の部分では、垂直エッジVEから左側に向けて幅を持つように設定される。なお、拡張領域AVEは、垂直エッジを含むものとする。
The extension
垂直エッジ抽出部42および拡張領域設定部44は、上記説明した処理を、カメラ10が繰り返し撮像した撮像画像IMの全てについて(あるいは間引き処理を行った後の一部の撮像画像IMについて)、繰り返し実行する。以下、時系列で繰り返し撮像される複数の撮像画像IMの一つ一つを、必要に応じて撮像フレームと称する。
The vertical
判定部46は、拡張領域設定部44により設定された拡張領域AVEを用いて、垂直エッジVEが検出対象物の一部に該当するか否かを判定する。そして、検出対象物の一部に該当すると判定した垂直エッジVEを、選択的にセンサフュージョン処理部50に出力する。
The
以下、判定部46による判定手法について説明する。図6は、複数の撮像フレームにおいて、一つ前の撮像フレームの拡張領域AVEと重なる拡張領域AVEを示す図である。図中、拡張領域AVE(t)は、撮像フレームtにおける拡張領域であり、拡張領域AVE(t+1)は、撮像フレームt+1における拡張領域である。判定部46は、一つ前の撮像フレームの拡張領域AVEとの間での重複領域内の画素について、画素同士の重なり継続時間(或いは重なり継続フレーム数)を表す指標値であるカウント値CTおよびその合計値(CT合計)を算出する。更に、判定部46は、時間的に隣接する撮像フレーム間(間引き処理が行われる場合は間引いた後で時間的に隣接する撮像フレーム間)において垂直エッジVEが水平方向に移動する速度を反映した指標値であるエッジ速度V(VE)を算出する。
Hereinafter, a determination method by the
図7〜図11は、撮像画像IMにおける垂直エッジVEと拡張領域AVEの水平方向座標の変化を例示し、それぞれについてカウント値CT、CT合計、およびエッジ速度V(VE)の推移を示した図である。なお、各図は、ある垂直方向座標を有する水平方向直線(例えば図6のLHなど)上の各画素に着目したものである。 7 to 11 exemplify changes in the horizontal coordinates of the vertical edge VE and the extended area AVE in the captured image IM, and are diagrams showing changes in the count value CT, the CT total, and the edge speed V (VE) for each. It is. Each drawing focuses on each pixel on a horizontal straight line (for example, LH in FIG. 6) having a certain vertical coordinate.
図7は、垂直エッジVEの水平方向座標が変化しない場合のカウント値CTおよびエッジ速度V(VE)の推移を示した図である。フレーム番号tにおいて、垂直エッジVEと拡張領域AVEが初めて設定されたものとする。この場合、判定部46は、水平方向座標k〜k+4についてカウント値CTを「1」に設定する。また、判定部46は、エッジ速度V(VE)を、例えば式(1)に基づいて算出する。初めて拡張領域AVEを追跡開始した時点では、エッジ速度V(VE)は無効値となる。なお、この手法に代えて、単に垂直エッジVEの水平方向座標の差分を求めてもよい。また、判定部46は、CT合計を「5」と算出する。
V(VE)=|(拡張領域AVEの幅)/(拡張領域AVEの左右端におけるカウント値CTの差分)| ‥(1)
FIG. 7 is a diagram illustrating transition of the count value CT and the edge speed V (VE) when the horizontal coordinate of the vertical edge VE does not change. It is assumed that the vertical edge VE and the extension area AVE are set for the first time at the frame number t. In this case, the
V (VE) = | (width of extension area AVE) / (difference in count value CT at the left and right ends of extension area AVE) | (1)
判定部46は、次のフレーム番号t+1において、水平方向座標k〜k+4についてカウント値CTを「2」にカウントアップし、エッジ速度V(VE)を無効値として算出する(拡張領域AVEの左右端におけるカウント値CTが共に「2」であり、分母がゼロとなるため)。また、判定部46は、CT合計を「10」と算出する。判定部46は、次のフレーム番号t+3において、水平方向座標k〜k+4についてカウント値CTを「3」にカウントアップし、エッジ速度V(VE)を無効値として算出する(同上)。また、判定部46は、CT合計を「15」と算出する。判定部46は、次のフレーム番号t+3において、水平方向座標k〜k+4についてカウント値CTを「4」にカウントアップし、エッジ速度V(VE)を無効値として算出する(同上)。また、判定部46は、CT合計を「20」と算出する。
The
判定部46は、このようにカウント値CTおよびその合計、並びにエッジ速度V(VE)を算出する中で、(1)CT合計が第1の設定値(例えば10)以上となった場合、或いは(2)エッジ速度V(VE)が第2の設定値(例えば2.5)以下となった場合に、当該拡張領域AVEの元となった垂直エッジVEを、検出対象物候補の一部であると判断し、センサフュージョン処理部50に出力する。これら(1)、(2)の条件を満たす物体は、撮像画像IMにおける水平方向の座標が余り変化しない物体である。このように条件を設定することで、自車両Mの前方を比較的高速で通り過ぎる物体(車両等)、および、道路端の固定物(自動販売機等)のように撮像画像IMの左右端に流れていく物体を、1つのロジックで適切に除外することができる。これらの除外される物体は、自車両に衝突する危険性が低く、後述する運転支援を行う必要性が低いものである。従って、判定部46の処理によって、不要な運転支援が行われるのを抑制することができる。
The
図7の例では、フレーム番号t+1において、CT合計が10以上となっているため、フレーム番号t+1の時点で、垂直エッジVEが検出対象物候補の一部であると判断される。
In the example of FIG. 7, since the CT total is 10 or more at frame number t + 1, it is determined that the vertical edge VE is part of the detection target candidate at the time of frame
なお、拡張領域AVEが一つ前の撮像フレームの拡張領域AVEと重ならなくなった場合、判定部46は、カウント値CT、CT合計、およびエッジ速度V(VE)をクリアし、新たな拡張領域AVEとしてウント値CT、CT合計、およびエッジ速度V(VE)の算出を開始する。
When the extension area AVE no longer overlaps with the extension area AVE of the previous imaging frame, the
図8は、垂直エッジVEの水平方向座標が1画素分ずつ変化する場合のカウント値CTおよびエッジ速度V(VE)の推移を示した図である。図8の例では、フレーム番号t+2において、CT合計が10以上となり、更に、エッジ速度V(VE)が2.5以下となっているため、フレーム番号t+2の時点で、垂直エッジVEが検出対象物候補の一部であると判断される。
FIG. 8 is a diagram showing transition of the count value CT and the edge speed V (VE) when the horizontal coordinate of the vertical edge VE changes by one pixel. In the example of FIG. 8, since the CT total is 10 or more and the edge speed V (VE) is 2.5 or less at the frame number t + 2, the vertical edge VE is detected at the time of the frame
図9は、垂直エッジVEの水平方向座標が2画素分ずつ変化する場合のカウント値CTおよびエッジ速度V(VE)の推移を示した図である。なお、本図以降、水平方向座標の図示を省略する。図9の例では、フレーム番号t+2において、エッジ速度V(VE)が2.5以下となっているため、フレーム番号t+2の時点で、垂直エッジVEが検出対象物候補の一部であると判断される。
FIG. 9 is a diagram illustrating changes in the count value CT and the edge speed V (VE) when the horizontal coordinate of the vertical edge VE changes by two pixels. In addition, illustration of a horizontal direction coordinate is abbreviate | omitted after this figure. In the example of FIG. 9, since the edge speed V (VE) is 2.5 or less at the frame number t + 2, it is determined that the vertical edge VE is a part of the detection target candidate at the time of the frame
図10は、垂直エッジVEの水平方向座標が3画素分ずつ変化する場合のカウント値CTおよびエッジ速度V(VE)の推移を示した図である。例えば、自車両Mの前方を比較的高速で通り過ぎる物体(車両等)は、このような傾向で垂直エッジVEが移動することが想定される。図10の例では、条件(1)、(2)のいずれも満たさないため、当該垂直エッジVEは除外されることになる。 FIG. 10 is a diagram illustrating transition of the count value CT and the edge speed V (VE) when the horizontal coordinate of the vertical edge VE changes by 3 pixels. For example, it is assumed that an object (such as a vehicle) that passes in front of the host vehicle M at a relatively high speed moves the vertical edge VE with such a tendency. In the example of FIG. 10, since neither of the conditions (1) and (2) is satisfied, the vertical edge VE is excluded.
図11は、垂直エッジVEの水平方向座標が右から左に5画素分ずつ変化する場合のカウント値CTおよびエッジ速度V(VE)の推移を示した図である。道路の左側に存在する固定物は、このような傾向で垂直エッジVEが移動することが多い。図11の例では、条件(1)、(2)のいずれも満たさないため、当該垂直エッジVEは除外されることになる。 FIG. 11 is a diagram showing the transition of the count value CT and the edge speed V (VE) when the horizontal coordinate of the vertical edge VE changes from right to left by five pixels. The fixed edge existing on the left side of the road often moves the vertical edge VE with such a tendency. In the example of FIG. 11, since neither of the conditions (1) and (2) is satisfied, the vertical edge VE is excluded.
なお、図7〜11では、垂直エッジVEが等速で撮像画像IM上を移動することを例示したが、垂直エッジVEの速度が変化する場合でも、本実施例の手法は有効性を失わない。 7 to 11 exemplify that the vertical edge VE moves on the captured image IM at a constant speed, but the method of the present embodiment does not lose its effectiveness even when the speed of the vertical edge VE changes. .
図12は、第1実施形態の画像処理部40により実行される処理の流れを示すフローチャートである。本フローチャートの処理は、例えば所定周期で繰り返し実行される。まず、画像処理部40は、カメラ10から撮像フレームを取得する(ステップS100)。次に、垂直エッジ抽出部42が、撮像フレームから垂直エッジVEを抽出する(ステップS102)。垂直エッジVEが抽出されなかった場合は、ステップS100に戻る。
FIG. 12 is a flowchart illustrating a flow of processing executed by the
垂直エッジVEが抽出された場合、拡張領域設定部44が拡張エッジAVEを設定する(ステップS106)。そして、判定部46が、カウント値CT、CT合計、およびエッジ速度V(VE)を算出する(ステップS108)。
When the vertical edge VE is extracted, the extension
次に、判定部46は、CT合計が第1の設定値以上であるか否かを判定する(ステップS110)。CT合計が第1の設定値未満である場合、判定部46は、エッジ速度V(VE)が第2の設定値以下であるか否かを判定する(ステップS112)。エッジ速度V(VE)が第2の設定値以下である場合、判定部46は、エッジ速度V(VE)が無効値であるか否かを判定する(ステップS114)。
Next, the
CT合計が第1の設定値以上である場合、または、エッジ速度V(VE)が第2の設定値以下であり且つ無効値でない場合、判定部46は、垂直エッジVEを検出対象物候補として出力し(ステップS116)、カウント値CTをクリアして本フローチャートの1ルーチンを終了する。それ以外の場合、判定部46は、垂直エッジVEが検出対象物候補でないと判断し(ステップS120)、本フローチャートの1ルーチンを終了する。
When the CT total is equal to or higher than the first set value, or when the edge speed V (VE) is equal to or lower than the second set value and is not an invalid value, the
センサフュージョン処理部50は、検出対象物候補とされた垂直エッジVEが図3における中央領域AC内に進入すると、カメラ10の撮像画像解析結果と、レーダ装置20の出力との双方を加味して物体の位置を検出するといった処理を行う。また、センサフュージョン処理部50は、カメラ10の撮像画像解析結果と、レーダ装置20の出力との双方に基づくクラスタリング処理等を行って、物標に基づく物体の同定処理等を行ってよい。
When the vertical edge VE determined as the detection target candidate enters the center area AC in FIG. 3, the sensor
そして、運転支援部60は、センサフュージョン処理部50により検出された物体の位置に基づいて、スピーカ70、電子制御式ブレーキ装置80、パワーステアリング装置90などの制御を行う。具体的には、運転支援部60は、注意喚起または警告を表す音声をスピーカ70に出力させたり、自動ブレーキ制御や自動操舵制御を行うように電子制御式ブレーキ装置80やパワーステアリング装置90に指示したりする。
Then, the driving
以上説明した第1実施形態の物体検出装置5によれば、車両周辺を撮像するカメラ10により撮像された撮像画像において、垂直方向に延在する垂直エッジVEを抽出し、垂直エッジを一端とし、垂直エッジから撮像画像の中心方向に向けて所定の幅を有する拡張領域AVEを設定し、拡張領域AVEを用いて垂直エッジVEが検出対象物の一部に該当するか否かを判定することにより、より適切に検出対象物を検出することができる。
According to the
また、第1実施形態の物体検出装置5によれば、垂直エッジが現れた物体の撮像画像上における停滞具合を表すCT合計やエッジ速度V(VE)に基づいて、垂直エッジVEが検出対象物の一部に該当するか否かを判定するため、更に適切に検出対象物を検出することができる。
Further, according to the
また、第1実施形態の物体検出装置5を利用した運転支援装置1によれば、物体検出装置5により適切に検出された検出対象物に基づいて、適切に運転支援を行うことができる。
Moreover, according to the driving
<第2実施形態>
以下、本発明の第2実施形態について説明する。第2実施形態の物体検出装置5は、画像処理部40の処理内容が第1実施形態と相違する。以下、係る相違点を中心に説明する。
Second Embodiment
Hereinafter, a second embodiment of the present invention will be described. The
図13は、第2実施形態に係る画像処理部40の機能構成例を示す図である。第2実施形態に係る画像処理部40は、垂直エッジ抽出部42と、拡張領域設定部44−1〜44−n(nは2以上の自然数)と、判定部46−1〜46−nと、判定結果選択部48とを備える。垂直エッジ抽出部42の機能は第1実施形態と同様であるため、説明を省略する。
FIG. 13 is a diagram illustrating a functional configuration example of the
第2実施形態に係る画像処理部40は、拡張領域設定部44−1〜44−nによって拡張領域AVEの幅を複数段用意し、自車両と物体との関係に応じて、どの幅の拡張領域AVEを採用するかを動的に変更する。拡張領域設定部44−1は、最も小さい幅(例えば2画素分)で拡張領域AVEを設定し、拡張領域設定部44−nは、最も大きい幅(例えばn+1画素分)で拡張領域AVEを設定する。そして、判定部46−1〜46〜nは、対応する拡張領域設定部44−1〜44−nによってそれぞれ設定された拡張領域AVEに対して、第1実施形態と同様の処理を行う。
The
ここで、拡張領域AVEの幅は、大きくすることで撮像画像上における物体への追従性が向上するが、処理負荷が増大すると共に誤検出も増加する性質を有している。このため、撮像画像における物体の挙動性に応じて動的に拡張領域AVEの幅を変更することが好ましい。 Here, increasing the width of the extended area AVE improves the followability to the object on the captured image, but has a property of increasing the processing load and increasing the false detection. For this reason, it is preferable to dynamically change the width of the extension area AVE according to the behavior of the object in the captured image.
より具体的には、自車両Mと物体との距離が遠い場合、または、物体が撮像画像の水平方向に関する中央部に存在する場合には、物体の撮像画像における横方向の速度(≒エッジ速度V(VE))が遅くなる傾向がある。この場合、拡張領域AVEの幅を小さくすることで、処理負荷を低減すると共に誤検出を抑制することができる。この逆に、自車両Mと物体との距離が近い場合、または、物体が撮像画像の水平方向に関する端部に存在する場合には、物体の撮像画像における横方向の速度が速くなる傾向がある。この場合、拡張領域AVEの幅を大きくすることで、物体への追従性を向上させることができる。 More specifically, when the distance between the host vehicle M and the object is long, or when the object is present in the central portion in the horizontal direction of the captured image, the lateral speed (≈edge speed) in the captured image of the object. V (VE)) tends to be slow. In this case, by reducing the width of the extension area AVE, the processing load can be reduced and erroneous detection can be suppressed. On the other hand, when the distance between the host vehicle M and the object is short, or when the object is present at the end in the horizontal direction of the captured image, the lateral speed of the captured image of the object tends to increase. . In this case, the followability to the object can be improved by increasing the width of the extension area AVE.
判定結果選択部48は、例えば、自車両と物体の距離、および撮像画像における垂直エッジVEの水平方向座標に基づいて、判定部46−1〜46〜nによりそれぞれなされた判定結果から、1つの判定結果を選択する(すなわち処理に用いられる拡張領域AVEの幅を選択する)。判定結果選択部48は、例えば、図14に示すマップを用いて拡張領域AVEの幅を選択する。図14は、判定結果選択部48が拡張領域AVEの幅を選択する際に用いるマップの一例を示す図である。なお、自車両と物体との距離については、垂直エッジVEの撮像画像上の位置から導出してもよいし、レーダ装置20の出力を用いて把握してもよい。
Based on the determination results made by the determination units 46-1 to 46-n based on the distance between the host vehicle and the object and the horizontal coordinate of the vertical edge VE in the captured image, for example, The determination result is selected (that is, the width of the extension area AVE used for processing is selected). The determination
ここで、複数の幅の拡張領域AVEのそれぞれについて第1実施形態と同様の演算を行うのではなく、先に拡張領域の幅を選択してから判定部46が処理を行うことが考えられる。しかしながら、この場合、ある撮像フレームについて拡張領域の幅をkとして処理をした後、次の撮像フレームについて拡張領域の幅をk+1として処理をするというように、演算処理の切り替わりが生じるため、演算処理の切り替わりに起因した判定結果のブレが生じる可能性がある。これに対し、本実施形態のように、複数の幅の拡張領域AVEのそれぞれについて第1実施形態と同様の演算を行っておき、判定結果のみを切り替えることで、演算処理の切り替わりに起因した判定結果のブレが生じるのを防止することができる。なお、このような判定結果のブレが生じないような処理態様であれば、先に拡張領域の幅を選択してから判定部46が処理を行っても構わない。
Here, it is conceivable that the
以上説明した第2実施形態の物体検出装置5によれば、第1実施形態の効果に加えて、拡張領域AVEの幅を動的に変更することにより、処理負荷の低減や誤検出の抑制と、物体への追従性の向上とを両立させることができる。
According to the
また、第2実施形態の物体検出装置5によれば、複数の拡張領域AVEの幅について並行して処理を行い、複数の拡張領域AVEの幅についての判定結果から1つの判定結果を選択するため、演算処理の切り替わりに起因した判定結果のブレが生じるのを防止することができる。
Further, according to the
以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。 As mentioned above, although the form for implementing this invention was demonstrated using embodiment, this invention is not limited to such embodiment at all, In the range which does not deviate from the summary of this invention, various deformation | transformation and substitution Can be added.
例えば、物体検出装置5は、レーダ装置20を備えないものとしてもよい。この場合、検出対象物候補とされた物体OB1が中央領域AC内に進入すると、カメラ10の撮像画像解析によって物体OB1の位置を最終的に検出してよい。この場合、「センサフュージョン処理部50」に代えて、「第2画像処理部」といった機能部を備えてよい。第2画像処理部の機能に特段の制限はなく、第2画像処理部は、例えばパターンマッチング処理等を行って物体OB1の位置を検出する。
For example, the
また、レーダ装置20を備えない場合、物体検出装置5は、判定部46により検出対象物の一部に該当すると判定された垂直エッジVEの画像上の位置(特に垂直エッジVEの下端の画像上の位置)から、直接的に物体OB1の位置を検出してもよい。
When the
1 運転支援装置
5 物体検出装置
10 カメラ(撮像部)
20 レーダ装置
30 制御装置
40 画像処理部
42 垂直エッジ抽出部
44 拡張領域設定部
46 判定部
50 センサフュージョン処理部
60 運転支援部
M 車両
DESCRIPTION OF
DESCRIPTION OF
Claims (13)
前記垂直エッジ抽出部により抽出された垂直エッジを一端とし、前記垂直エッジから前記撮像画像の中心方向に向けて所定の幅を有する拡張領域を設定する拡張領域設定部と、
前記拡張領域設定部により設定された拡張領域を用いて、前記垂直エッジが検出対象物の一部に該当するか否かを判定する判定部と、
を備える物体検出装置。 A vertical edge extraction unit that extracts a vertical edge extending in a vertical direction in a captured image captured by an imaging unit that captures the periphery of the vehicle;
An extension region setting unit that sets the extension region having a predetermined width from the vertical edge toward the center of the captured image, with the vertical edge extracted by the vertical edge extraction unit as one end;
A determination unit that determines whether or not the vertical edge corresponds to a part of the detection object using the extension region set by the extension region setting unit;
An object detection apparatus comprising:
請求項1記載の物体検出装置。 The determination unit determines whether or not the vertical edge corresponds to a part of the detection target based on the overlapping state of the extension regions in a plurality of captured images captured in time series.
The object detection apparatus according to claim 1.
請求項2記載の物体検出装置。 The determination unit determines that the vertical edge corresponds to a part of the detection target when a plurality of captured images captured in time series includes a long overlap duration of pixels included in the extension region and overlapping each other. To
The object detection apparatus according to claim 2.
請求項1から3のうちいずれか1項記載の物体検出装置。 The determination unit determines whether or not the vertical edge corresponds to a part of the detection target based on a horizontal speed of the captured image of the vertical edge.
The object detection device according to claim 1.
請求項4記載の物体検出装置。 The determination unit determines that the vertical edge corresponds to a part of the detection target when a horizontal speed in the captured image of the vertical edge is small.
The object detection apparatus according to claim 4.
請求項4または5記載の物体検出装置。 The determination unit calculates overlap durations of pixels included in the extension region and overlapping each other in a plurality of captured images taken in time series, and the overlap durations of pixels at the left and right ends of the extension region are calculated. Calculating an index value having a difference as a denominator, and treating the calculated index value as a horizontal speed in the captured image of the vertical edge;
The object detection apparatus according to claim 4 or 5.
請求項6記載の物体検出装置。 The determination unit determines that the vertical edge corresponds to a part of the detection target even when the horizontal value of the vertical edge in the captured image is small when the index value becomes an invalid value. do not do,
The object detection apparatus according to claim 6.
請求項1から7のうちいずれか1項記載の物体検出装置。 When the distance between the vehicle and the detection object is long, the width of the expansion area is set small, and when the distance between the vehicle and the detection object is short, the width of the expansion area is set large.
The object detection device according to claim 1.
請求項1から8のうちいずれか1項記載の物体検出装置。 When the horizontal coordinate in the captured image of the vertical edge is close to the center portion, the width of the extension region is set small, and when the horizontal coordinate in the captured image of the vertical edge is close to the left and right end portions, the extension region is set. Set the width of
The object detection device according to claim 1.
前記判定部による複数の拡張領域の幅についての判定結果から1つの判定結果を選択する判定結果選択部を備える、
請求項8または9記載の物体検出装置。 The extension area setting unit and the determination unit perform processing in parallel for the width of a plurality of extension areas,
A determination result selection unit for selecting one determination result from the determination results for the widths of the plurality of extension regions by the determination unit;
The object detection apparatus according to claim 8 or 9.
前記物体検出装置の検出結果に基づいて運転支援を行う運転支援部と、
を備える運転支援装置。 The object detection device according to any one of claims 1 to 10,
A driving support unit that performs driving support based on the detection result of the object detection device;
A driving support apparatus comprising:
前記抽出された垂直エッジを一端とし、前記垂直エッジから前記撮像画像の中心方向に向けて所定の幅を有する拡張領域を設定し、
前記設定された拡張領域を用いて、前記垂直エッジが検出対象物の一部に該当するか否かを判定する、
物体検出方法。 In the captured image captured by the imaging unit that captures the periphery of the vehicle, a vertical edge extending in the vertical direction is extracted,
With the extracted vertical edge as one end, an extended region having a predetermined width from the vertical edge toward the center of the captured image is set,
Determining whether the vertical edge corresponds to a part of the detection object using the set extension region;
Object detection method.
車両周辺を撮像する撮像部により撮像された撮像画像において、垂直方向に延在する垂直エッジを抽出させ、
前記抽出された垂直エッジを一端とし、前記垂直エッジから前記撮像画像の中心方向に向けて所定の幅を有する拡張領域を設定させ、
前記設定された拡張領域を用いて、前記垂直エッジが検出対象物の一部に該当するか否かを判定させる、
物体検出プログラム。 On the computer,
In the captured image captured by the image capturing unit that captures the periphery of the vehicle, the vertical edge extending in the vertical direction is extracted,
With the extracted vertical edge as one end, an extension region having a predetermined width is set from the vertical edge toward the center of the captured image,
Using the set extension region, it is determined whether the vertical edge corresponds to a part of the detection object,
Object detection program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014133937A JP2016012264A (en) | 2014-06-30 | 2014-06-30 | Article detection device, drive support apparatus, article detection method, and article detection program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014133937A JP2016012264A (en) | 2014-06-30 | 2014-06-30 | Article detection device, drive support apparatus, article detection method, and article detection program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016012264A true JP2016012264A (en) | 2016-01-21 |
Family
ID=55228936
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014133937A Pending JP2016012264A (en) | 2014-06-30 | 2014-06-30 | Article detection device, drive support apparatus, article detection method, and article detection program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016012264A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021229866A1 (en) * | 2020-05-14 | 2021-11-18 | 日立Astemo株式会社 | Image processing device |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006088940A (en) * | 2004-09-24 | 2006-04-06 | Nissan Motor Co Ltd | Collision warning device for vehicle and collision warning method for vehicle |
JP2009104226A (en) * | 2007-10-19 | 2009-05-14 | Nissan Motor Co Ltd | Obstruction determination apparatus and method, and vehicle equipped with obstruction determination apparatus |
WO2013191078A1 (en) * | 2012-06-19 | 2013-12-27 | 市光工業株式会社 | Object detection device for area around vehicle |
-
2014
- 2014-06-30 JP JP2014133937A patent/JP2016012264A/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006088940A (en) * | 2004-09-24 | 2006-04-06 | Nissan Motor Co Ltd | Collision warning device for vehicle and collision warning method for vehicle |
JP2009104226A (en) * | 2007-10-19 | 2009-05-14 | Nissan Motor Co Ltd | Obstruction determination apparatus and method, and vehicle equipped with obstruction determination apparatus |
WO2013191078A1 (en) * | 2012-06-19 | 2013-12-27 | 市光工業株式会社 | Object detection device for area around vehicle |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021229866A1 (en) * | 2020-05-14 | 2021-11-18 | 日立Astemo株式会社 | Image processing device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5407898B2 (en) | Object detection apparatus and program | |
JP6163453B2 (en) | Object detection device, driving support device, object detection method, and object detection program | |
JP3630100B2 (en) | Lane detection device | |
JP4622001B2 (en) | Road lane marking detection apparatus and road lane marking detection method | |
JP5012718B2 (en) | Image processing device | |
CN107750213B (en) | Front vehicle collision warning device and warning method | |
JP5023872B2 (en) | Image display control device and image display control system | |
JP2008168811A (en) | Traffic lane recognition device, vehicle, traffic lane recognition method, and traffic lane recognition program | |
JP2006268097A (en) | On-vehicle object detecting device, and object detecting method | |
JP6139465B2 (en) | Object detection device, driving support device, object detection method, and object detection program | |
JP4985306B2 (en) | Obstacle determination device and method, and vehicle equipped with an obstacle determination device | |
CN107004250B (en) | Image generation device and image generation method | |
JP2011048520A (en) | Device and method for monitoring vehicle periphery | |
JP3656056B2 (en) | Interrupting vehicle detection device and method | |
JP6069938B2 (en) | Pop-up detection device | |
EP3410345B1 (en) | Information processing apparatus and non-transitory recording medium storing thereon a computer program | |
JP2012164275A (en) | Image recognition apparatus | |
JP3868915B2 (en) | Forward monitoring apparatus and method | |
JP2013142972A (en) | Travel path recognition device | |
JP5189556B2 (en) | Lane detection device | |
JP2016012264A (en) | Article detection device, drive support apparatus, article detection method, and article detection program | |
JP4788399B2 (en) | Pedestrian detection method, apparatus, and program | |
JP5900021B2 (en) | Pop-up detection device | |
JP2007058282A (en) | Image recognition processor | |
JP4075879B2 (en) | Vehicle collision warning device and vehicle collision warning method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20161129 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20171010 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20171121 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20180529 |