JP2016012264A - Article detection device, drive support apparatus, article detection method, and article detection program - Google Patents

Article detection device, drive support apparatus, article detection method, and article detection program Download PDF

Info

Publication number
JP2016012264A
JP2016012264A JP2014133937A JP2014133937A JP2016012264A JP 2016012264 A JP2016012264 A JP 2016012264A JP 2014133937 A JP2014133937 A JP 2014133937A JP 2014133937 A JP2014133937 A JP 2014133937A JP 2016012264 A JP2016012264 A JP 2016012264A
Authority
JP
Japan
Prior art keywords
vertical edge
captured image
object detection
captured
extension region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014133937A
Other languages
Japanese (ja)
Inventor
啓貴 木嶋
Hirotaka Kijima
啓貴 木嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2014133937A priority Critical patent/JP2016012264A/en
Publication of JP2016012264A publication Critical patent/JP2016012264A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an article detection device, an article detection method, and an article detection program, which enable more appropriate detection of a detection target article.SOLUTION: An article detection device includes: a vertical edge extraction part for extracting a vertical edge extending in a vertical direction in a pickup image picked up by an imaging part used for imaging the surroundings of a vehicle; an extended-area setup part for setting an extended area that has, as an edge, a vertical edge extracted by the vertical edge extraction part and a given width from the vertical edge toward a center direction of the pickup image; and a determination part for determining whether the vertical edge is consistent with a portion of a detection target article by using the extended area set by the extended-area setup part.

Description

本発明は、物体検出装置、運転支援装置、物体検出方法、および物体検出プログラムに関する。   The present invention relates to an object detection device, a driving support device, an object detection method, and an object detection program.

従来、自車両の走行車線内における車幅方向の位置、及び先行車両の前記自車両に対する相対的な関係の少なくとも一方から、自車両の走行状態が適切であると判定される場合に先行車両を除く他車両との衝突可能性の判定を行う衝突可能性判定装置であって、自車両前方に存在する他車両を検出する他車両検出手段と、他車両検出手段によって検出される先行車両を除く他車両の自車両に対する相対的な位置関係が所定時間連続して同じ位置関係にあるか否かを判定する相対位置判定手段と、相対位置判定手段の判定結果に基づいて、自車両と他車両との衝突可能性を判定する衝突可能性判定手段とを備えることを特徴とする衝突可能性判定装置が知られている(例えば、特許文献1参照)。   Conventionally, when the traveling state of the host vehicle is determined to be appropriate from at least one of the position in the vehicle width direction in the traveling lane of the host vehicle and the relative relationship of the preceding vehicle with the host vehicle, A collision possibility determination device for determining the possibility of collision with another vehicle excluding other vehicle detection means for detecting another vehicle existing ahead of the host vehicle and a preceding vehicle detected by the other vehicle detection means Relative position determination means for determining whether or not the relative positional relationship of the other vehicle to the own vehicle is the same for a predetermined time continuously, and based on the determination result of the relative position determination means, the own vehicle and the other vehicle There is known a collision possibility determination device including a collision possibility determination unit that determines the possibility of collision with (see, for example, Patent Document 1).

特開2005−135025号公報JP 2005-135025 A

しかしながら、現実には、他車両の自車両に対する相対的な位置関係が所定時間連続して同じ位置関係に無い場合であっても、当該他車両を衝突対象物として監視する必要性のある場面が生じ得る。このため、従来の技術では、本来検出すべき衝突対象物の検出漏れが生じる場合がある。
本発明は、このような事情を考慮してなされたものであり、より適切に検出対象物を検出することができる物体検出装置、物体検出方法、および物体検出プログラムを提供することを目的の一つとする。
However, in reality, there is a scene where it is necessary to monitor the other vehicle as a collision target even when the relative positional relationship of the other vehicle with respect to the host vehicle is not the same positional relationship for a predetermined time. Can occur. For this reason, in the conventional technique, there is a case where the detection of the collision target that should be detected originally occurs.
The present invention has been made in consideration of such circumstances, and an object of the present invention is to provide an object detection device, an object detection method, and an object detection program that can detect a detection target more appropriately. I will.

請求項1記載の発明は、車両(M)周辺を撮像する撮像部(10)により撮像された撮像画像において、垂直方向に延在する垂直エッジ(VE)を抽出する垂直エッジ抽出部(42)と、前記垂直エッジ抽出部により抽出された垂直エッジを一端とし、前記垂直エッジから前記撮像画像の中心方向に向けて所定の幅を有する拡張領域(AVE)を設定する拡張領域設定部(44)と、前記拡張領域設定部により設定された拡張領域を用いて、前記垂直エッジが検出対象物の一部に該当するか否かを判定する判定部(46)と、を備える物体検出装置である。   According to the first aspect of the present invention, a vertical edge extraction unit (42) for extracting a vertical edge (VE) extending in the vertical direction in a captured image captured by the imaging unit (10) that captures the periphery of the vehicle (M). And an extended area setting unit (44) for setting an extended area (AVE) having a predetermined width from the vertical edge toward the center of the captured image, with the vertical edge extracted by the vertical edge extracting unit as one end And a determination unit (46) for determining whether or not the vertical edge corresponds to a part of the detection target using the extension region set by the extension region setting unit. .

請求項2記載の発明は、請求項1記載の物体検出装置であって、前記判定部は、時系列で撮像された複数の撮像画像における前記拡張領域同士の重なり具合に基づいて、前記垂直エッジが検出対象物の一部に該当するか否かを判定するものである。   The invention according to claim 2 is the object detection device according to claim 1, wherein the determination unit is configured to perform the vertical edge based on a degree of overlap between the extended regions in a plurality of captured images captured in time series. Is determined to correspond to a part of the detection object.

請求項3記載の発明は、請求項2記載の物体検出装置であって、前記判定部は、時系列で撮像された複数の撮像画像において、前記拡張領域に含まれると共に互いに重なる画素の重なり継続時間(CT)が長い場合に、前記垂直エッジが検出対象物の一部に該当すると判定するものである。   A third aspect of the present invention is the object detection device according to the second aspect, wherein the determination unit continues overlapping pixels that are included in the extended region and overlap each other in a plurality of captured images captured in time series. When the time (CT) is long, it is determined that the vertical edge corresponds to a part of the detection target.

請求項4記載の発明は、請求項1から3のうちいずれか1項記載の物体検出装置であって、前記判定部は、前記垂直エッジの前記撮像画像における水平方向の速度に基づいて、前記垂直エッジが検出対象物の一部に該当するか否かを判定するものである。   Invention of Claim 4 is an object detection apparatus of any one of Claim 1 to 3, Comprising: The said determination part is based on the speed of the horizontal direction in the said captured image of the said vertical edge, It is determined whether or not the vertical edge corresponds to a part of the detection target.

請求項5記載の発明は、請求項4記載の物体検出装置であって、前記判定部は、前記垂直エッジの前記撮像画像における水平方向の速度が小さい場合に、前記垂直エッジが検出対象物の一部に該当すると判定するものである。   The invention according to claim 5 is the object detection device according to claim 4, wherein the determination unit is configured such that the vertical edge is a detection target when the horizontal speed of the captured image of the vertical edge is small. It is determined that it corresponds to a part.

請求項6記載の発明は、請求項4または5記載の物体検出装置であって、前記判定部は、時系列で撮像された複数の撮像画像において、前記拡張領域に含まれると共に互いに重なる画素の重なり継続時間を算出すると共に、前記拡張領域の左右端の画素における前記重なり継続時間の差分を分母とする指標値(V(VE))を算出し、前記算出した指標値を前記垂直エッジの前記撮像画像における水平方向の速度として扱うものである。   A sixth aspect of the present invention is the object detection device according to the fourth or fifth aspect, wherein the determination unit includes pixels that are included in the extended region and overlap each other in a plurality of captured images captured in time series. An overlap duration is calculated, and an index value (V (VE)) using a difference between the overlap durations in the left and right end pixels of the extension region as a denominator is calculated, and the calculated index value is calculated as the vertical edge of the vertical edge. This is handled as the horizontal speed in the captured image.

請求項7記載の発明は、請求項6記載の物体検出装置であって、前記判定部は、前記指標値が無効値となった場合、前記垂直エッジの前記撮像画像における水平方向の速度が小さい場合であっても、前記垂直エッジが検出対象物の一部に該当すると判定しないものである。   The invention according to claim 7 is the object detection device according to claim 6, wherein the determination unit has a small horizontal speed in the captured image of the vertical edge when the index value becomes an invalid value. Even in this case, it is not determined that the vertical edge corresponds to a part of the detection target.

請求項8記載の発明は、請求項1から7のうちいずれか1項記載の物体検出装置であって、前記車両と前記検出対象物との距離が長い場合に前記拡張領域の幅を小さく設定し、前記車両と前記検出対象物との距離が短い場合に前記拡張領域の幅を大きく設定するものである。   The invention according to claim 8 is the object detection device according to any one of claims 1 to 7, wherein the width of the extension region is set to be small when the distance between the vehicle and the detection target is long. When the distance between the vehicle and the detection object is short, the width of the extension area is set large.

請求項9記載の発明は、1から8のうちいずれか1項記載の物体検出装置であって、前記垂直エッジの前記撮像画像における水平方向座標が中央部に近い場合に前記拡張領域の幅を小さく設定し、前記垂直エッジの前記撮像画像における水平方向座標が左右端部に近い場合に前記拡張領域の幅を大きく設定するものである。   The invention according to claim 9 is the object detection device according to any one of 1 to 8, wherein when the horizontal coordinate in the captured image of the vertical edge is close to a central portion, the width of the extension region is set. When the horizontal coordinate in the captured image of the vertical edge is close to the left and right ends, the width of the extension area is set large.

請求項10記載の発明は、請求項8または9記載の物体検出装置であって、前記拡張領域設定部、および前記判定部は、複数の拡張領域の幅について並行して処理を行い、前記判定部による複数の拡張領域の幅についての判定結果から1つの判定結果を選択する判定結果選択部を備えるものである。   A tenth aspect of the present invention is the object detection device according to the eighth or ninth aspect, wherein the extension region setting unit and the determination unit perform processing in parallel on the widths of a plurality of extension regions, and perform the determination. A determination result selection unit that selects one determination result from the determination results of the widths of the plurality of extension regions by the unit.

請求項11記載の発明は、請求項1から10のうちいずれか1項記載の物体検出装置と、前記物体検出装置の検出結果に基づいて運転支援を行う運転支援部と、を備える運転支援装置である。   The invention according to claim 11 is a driving support device comprising: the object detection device according to any one of claims 1 to 10; and a driving support unit that performs driving support based on a detection result of the object detection device. It is.

請求項12記載の発明は、車両周辺を撮像する撮像部により撮像された撮像画像において、垂直方向に延在する垂直エッジを抽出し、前記抽出された垂直エッジを一端とし、前記垂直エッジから前記撮像画像の中心方向に向けて所定の幅を有する拡張領域を設定し、前記設定された拡張領域を用いて、前記垂直エッジが検出対象物の一部に該当するか否かを判定する、物体検出方法である。   The invention according to claim 12 is to extract a vertical edge extending in a vertical direction from a captured image captured by an imaging unit that captures the periphery of the vehicle, and using the extracted vertical edge as one end, An object that sets an extension region having a predetermined width toward the center of the captured image, and determines whether or not the vertical edge corresponds to a part of the detection target using the set extension region. It is a detection method.

請求項13記載の発明は、コンピュータに、車両周辺を撮像する撮像部により撮像された撮像画像において、垂直方向に延在する垂直エッジを抽出させ、前記抽出された垂直エッジを一端とし、前記垂直エッジから前記撮像画像の中心方向に向けて所定の幅を有する拡張領域を設定させ、前記設定された拡張領域を用いて、前記垂直エッジが検出対象物の一部に該当するか否かを判定させる、物体検出プログラムである。   The invention according to claim 13 causes a computer to extract a vertical edge extending in a vertical direction in a captured image captured by an imaging unit that captures the periphery of the vehicle, and uses the extracted vertical edge as one end. An extended area having a predetermined width is set from the edge toward the center of the captured image, and it is determined whether or not the vertical edge corresponds to a part of the detection object using the set extended area. This is an object detection program.

請求項1、12、13記載の発明によれば、車両周辺を撮像する撮像部により撮像された撮像画像において、垂直方向に延在する垂直エッジを抽出し、垂直エッジを一端とし、垂直エッジから撮像画像の中心方向に向けて所定の幅を有する拡張領域を設定し、拡張領域を用いて垂直エッジが検出対象物の一部に該当するか否かを判定することにより、より適切に検出対象物を検出することができる。   According to the invention described in claims 1, 12, and 13, in the captured image captured by the imaging unit that captures the periphery of the vehicle, the vertical edge extending in the vertical direction is extracted, the vertical edge is one end, and from the vertical edge By setting an extended area with a predetermined width toward the center of the captured image and determining whether the vertical edge corresponds to a part of the detection target using the extended area, the detection target is more appropriately detected An object can be detected.

請求項2、3記載の発明によれば、時系列で撮像された複数の撮像画像における拡張領域同士の重なり具合、すなわち垂直エッジが現れた物体の撮像画像上における停滞具合に基づいて、垂直エッジが検出対象物の一部に該当するか否かを判定するため、更に適切に検出対象物を検出することができる。   According to the second and third aspects of the present invention, the vertical edge is determined based on the degree of overlap between the extended regions in the plurality of captured images captured in time series, that is, the degree of stagnation on the captured image of the object on which the vertical edge appears. Therefore, it is possible to detect the detection target more appropriately.

請求項4〜7記載の発明によれば、垂直エッジの撮像画像における水平方向の速度、すなわち垂直エッジが現れた物体の撮像画像上における停滞具合を示す値に基づいて、垂直エッジが検出対象物の一部に該当するか否かを判定することにより、更に適切に検出対象物を検出することができる。   According to the fourth to seventh aspects of the present invention, the vertical edge is detected based on the value indicating the horizontal speed in the captured image of the vertical edge, that is, the degree of stagnation on the captured image of the object on which the vertical edge appears. By determining whether or not it corresponds to a part of the detection object, it is possible to more appropriately detect the detection target.

請求項8、9記載の発明によれば、拡張領域の幅を動的に変更することにより、処理負荷の低減や誤検出の抑制と、物体への追従性の向上とを両立させることができる。   According to the eighth and ninth aspects of the invention, by dynamically changing the width of the extension region, it is possible to achieve both reduction in processing load and suppression of false detection and improvement in followability to an object. .

請求項10記載の発明によれば、複数の拡張領域の幅について並行して処理を行い、複数の拡張領域の幅についての判定結果から1つの判定結果を選択するため、演算処理の切り替わりに起因した判定結果のブレが生じるのを防止することができる。   According to the tenth aspect of the present invention, processing is performed in parallel for the widths of a plurality of extension areas, and one determination result is selected from the determination results for the widths of the plurality of extension areas. It is possible to prevent the determination result from being blurred.

請求項11記載の発明によれば、物体検出装置により適切に検出された検出対象物に基づいて、適切な運転支援を行うことができる。   According to the eleventh aspect of the present invention, it is possible to perform appropriate driving assistance based on the detection target appropriately detected by the object detection device.

第1実施形態に係る物体検出装置5を含む運転支援装置1の構成の一例を模式的に示す図である。It is a figure which shows typically an example of a structure of the driving assistance apparatus 1 containing the object detection apparatus 5 which concerns on 1st Embodiment. 第1実施形態における制御装置30を中心とした機能構成例を示す図である。It is a figure which shows the function structural example centering on the control apparatus 30 in 1st Embodiment. 物体検出装置5の機能を説明するための説明図である。It is explanatory drawing for demonstrating the function of the object detection apparatus. カメラ10により取得された撮像画像IMにおいて垂直エッジVE1〜VE3が抽出される様子を示す図である。It is a figure which shows a mode that the vertical edges VE1-VE3 are extracted in the captured image IM acquired with the camera 10. FIG. 撮像画像IMにおいて拡張領域AVE1〜AVE3が設定される様子を示す図である。It is a figure which shows a mode that the expansion area | regions AVE1-AVE3 are set in the captured image IM. 複数の撮像フレームにおいて、一つ前の撮像フレームの拡張領域AVEと重なる拡張領域AVEを示す図である。It is a figure which shows extension field AVE which overlaps with extension field AVE of the last image pick-up frame in a plurality of image pick-up frames. 垂直エッジVEの水平方向座標が変化しない場合のカウント値CTおよびエッジ速度V(VE)の推移を示した図である。It is the figure which showed transition of count value CT and edge speed V (VE) when the horizontal direction coordinate of the vertical edge VE does not change. 垂直エッジVEの水平方向座標が1画素分ずつ変化する場合のカウント値CTおよびエッジ速度V(VE)の推移を示した図である。It is the figure which showed transition of count value CT and edge speed V (VE) when the horizontal direction coordinate of the vertical edge VE changes for every pixel. 垂直エッジVEの水平方向座標が2画素分ずつ変化する場合のカウント値CTおよびエッジ速度V(VE)の推移を示した図である。It is the figure which showed transition of count value CT and edge speed V (VE) when the horizontal direction coordinate of the vertical edge VE changes for every 2 pixels. 垂直エッジVEの水平方向座標が3画素分ずつ変化する場合のカウント値CTおよびエッジ速度V(VE)の推移を示した図である。It is the figure which showed transition of count value CT and edge velocity V (VE) when the horizontal direction coordinate of the vertical edge VE changes for every 3 pixels. 垂直エッジVEの水平方向座標が右から左に5画素分ずつ変化する場合のカウント値CTおよびエッジ速度V(VE)の推移を示した図である。It is the figure which showed transition of count value CT and edge speed V (VE) when the horizontal direction coordinate of the vertical edge VE changes for every 5 pixels from right to left. 第1実施形態の画像処理部40により実行される処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the process performed by the image process part 40 of 1st Embodiment. 第2実施形態に係る画像処理部40の機能構成例を示す図である。It is a figure which shows the function structural example of the image process part 40 which concerns on 2nd Embodiment. 判定結果選択部48が拡張領域AVEの幅を選択する際に用いるマップの一例を示す図である。It is a figure which shows an example of the map used when the determination result selection part 48 selects the width | variety of the extended area AVE.

以下、図面を参照し、本発明の物体検出装置、運転支援装置、物体検出方法、および物体検出プログラムの実施形態について説明する。
<第1実施形態>
図1は、第1実施形態に係る物体検出装置5を含む運転支援装置1の構成の一例を模式的に示す図である。運転支援装置1は、例えば、車両Mに搭載される装置であり、カメラ10と、レーダ装置20と、制御装置30とを備える。以下、運転支援装置1が搭載される車両を「自車両」と称する。
Hereinafter, embodiments of an object detection device, a driving support device, an object detection method, and an object detection program according to the present invention will be described with reference to the drawings.
<First Embodiment>
FIG. 1 is a diagram schematically illustrating an example of a configuration of a driving support device 1 including an object detection device 5 according to the first embodiment. The driving support device 1 is a device mounted on the vehicle M, for example, and includes a camera 10, a radar device 20, and a control device 30. Hereinafter, the vehicle on which the driving support device 1 is mounted is referred to as “own vehicle”.

カメラ10は、例えば、フロントウインドシールドの上部やルームミラーの裏面等に取り付けられている。カメラ10は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の固定撮像素子を利用したデジタルカメラである。カメラ10は、例えば、所定周期で車両の前方を繰り返し撮像し、撮像した画像のデータを制御装置30に出力する。   The camera 10 is attached to the upper part of a front windshield, the back surface of a room mirror, etc., for example. The camera 10 is a digital camera using a fixed imaging element such as a charge coupled device (CCD) or a complementary metal oxide semiconductor (CMOS), for example. For example, the camera 10 repeatedly captures an image of the front of the vehicle at a predetermined cycle and outputs data of the captured image to the control device 30.

レーダ装置20は、例えば、車両Mのエンブレムの裏側や、バンパー、フロントグリルの周辺等に取り付けられる。レーダ装置20は、例えば、ミリ波を車両Mの前方に放射し、車両Mの前方の物体によって反射された反射波を受信することにより、少なくとも物体の位置(距離および方位角)を検出する。また、レーダ装置20は、物体との相対速度を検出可能なものであってよい。レーダ装置20は、例えば、FM‐CW(Frequency‐Modulated Continuous‐Wave)方式によって、物体の位置や速度を検出し、検出結果を制御装置30に出力する。   The radar device 20 is attached to, for example, the back side of the emblem of the vehicle M, the bumper, the periphery of the front grille, and the like. The radar apparatus 20 detects, for example, at least the position (distance and azimuth angle) of an object by emitting a millimeter wave in front of the vehicle M and receiving a reflected wave reflected by an object in front of the vehicle M. The radar apparatus 20 may be capable of detecting a relative speed with respect to an object. The radar apparatus 20 detects the position and speed of an object by, for example, FM-CW (Frequency-Modulated Continuous-Wave) method, and outputs the detection result to the control apparatus 30.

制御装置30は、例えば、CPU(Central Processing Unit)等のプロセッサ、ROM(Read Only Memory)やRAM(Random Access Memory)、HDD(Hard Disk Drive)、EEPROM(Electrically Erasable Programmable Read−Only Memory)、フラッシュメモリ等の記憶装置等が内部バスによって接続されたコンピュータ装置である。   The control device 30 includes, for example, a processor such as a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), a HDD (Hard Disk Drive), an EEPROM (Electrically Erasable Programmable Read-Only Memory), a flash, and the like. A computer device in which a storage device such as a memory is connected via an internal bus.

図2は、第1実施形態における制御装置30を中心とした機能構成例を示す図である。制御装置30は、例えば、画像処理部40と、センサフュージョン処理部50と、運転支援部60とを備える。画像処理部40は、例えば、垂直エッジ抽出部42と、拡張領域設定部44と、判定部46とを備える。例えば、カメラ10と、レーダ装置20と、制御装置30のうち画像処理部40およびセンサフュージョン処理部50とを備えたものが、物体検出装置5に相当する。制御装置30の各機能部は、例えば、制御装置30のプロセッサがプログラムを実行することにより機能するソフトウェア機能部である。なお、これらの機能部のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)等のハードウェア機能部であってもよい。また、画像処理部40、センサフュージョン処理部50、および運転支援部60は、同じコンピュータ装置により実現されるものでなく、別体のコンピュータ装置により実現されてもよい。例えば、制御装置30は、画像処理部40およびセンサフュージョン処理部50として機能するコンピュータ装置と、運転支援部60として機能する別体のコンピュータ装置とを備えてもよい。   FIG. 2 is a diagram illustrating a functional configuration example centering on the control device 30 according to the first embodiment. The control device 30 includes, for example, an image processing unit 40, a sensor fusion processing unit 50, and a driving support unit 60. The image processing unit 40 includes, for example, a vertical edge extraction unit 42, an extended area setting unit 44, and a determination unit 46. For example, the camera 10, the radar device 20, and the control device 30 including the image processing unit 40 and the sensor fusion processing unit 50 correspond to the object detection device 5. Each functional unit of the control device 30 is, for example, a software functional unit that functions when the processor of the control device 30 executes a program. Note that some or all of these functional units may be hardware functional units such as LSI (Large Scale Integration) and ASIC (Application Specific Integrated Circuit). Further, the image processing unit 40, the sensor fusion processing unit 50, and the driving support unit 60 are not realized by the same computer device, but may be realized by separate computer devices. For example, the control device 30 may include a computer device that functions as the image processing unit 40 and the sensor fusion processing unit 50 and a separate computer device that functions as the driving support unit 60.

ここで、物体検出装置5の機能について概説する。図3は、物体検出装置5の機能を説明するための説明図である。物体検出装置5は、例えば側方から自車両Mに接近し、サイド領域AS内に少なくとも一部が存在する、車両や歩行者、自転車などの物体OB1を、まずカメラ10の撮像画像を解析することで検出して、検出対象物候補とする。そして、物体検出装置5は、検出対象物候補とされた物体OB1が中央領域AC内に進入すると、カメラ10の撮像画像解析結果と、レーダ装置20の出力との双方を加味して物体OB1の位置を検出するといった処理を行う(センサフュージョン)。以下、サイド領域AS内における物体OB1の検出処理を中心として説明する。   Here, the function of the object detection device 5 will be outlined. FIG. 3 is an explanatory diagram for explaining the function of the object detection device 5. For example, the object detection device 5 first approaches an object OB1 such as a vehicle, a pedestrian, or a bicycle that approaches the host vehicle M from the side and has at least a part in the side area AS, and first analyzes an image captured by the camera 10. It is detected as a detection object candidate. Then, when the object OB1 that is a detection target candidate enters the center area AC, the object detection device 5 takes into account both the captured image analysis result of the camera 10 and the output of the radar device 20 to determine the object OB1. Processing such as detecting the position is performed (sensor fusion). Hereinafter, the detection process of the object OB1 in the side area AS will be mainly described.

画像処理部40の垂直エッジ抽出部42は、カメラ10により撮像された撮像画像IMにおいて、略垂直方向に延在する垂直エッジを抽出する。「垂直方向」とは、例えば、撮像画像IMにおいて画素が縦方向に並ぶ方向と定義される(図4参照)。これに対し、「水平方向」を、例えば、撮像画像IMにおいて画素が横方向に並ぶ方向と定義する。また、「垂直方向」とは、撮像画像IMにおいて画素が縦方向に並ぶ方向に対してプラスマイナス5度程度以内の傾きを有する方向と定義されてもよい。垂直エッジ抽出部42は、例えば、撮像画像IMにおいて、水平方向に関する隣接画素との輝度差が所定値以上の画素を連ねた特徴線であって、上記略垂直方向に延在する特徴線を、垂直エッジとして抽出する。これに限らず、垂直エッジ抽出部42は、特に水平方向の輝度差が大きい画素を抽出するためのフィルタ等を用いて、垂直エッジを抽出してもよい。図4は、カメラ10により取得された撮像画像IMにおいて垂直エッジVE1〜VE3が抽出される様子を示す図である。撮像画像IMには、検出対象物である物体OB1の他、自動販売機OB2や電柱OB3、その他、ガードレールの柱など、様々な物体から垂直エッジが抽出されることになる。物体検出装置5は、以下に説明する処理によって、検出対象物候補となる物体OB1の垂直エッジに絞り込む処理を行う。   The vertical edge extraction unit 42 of the image processing unit 40 extracts a vertical edge extending in a substantially vertical direction in the captured image IM captured by the camera 10. The “vertical direction” is defined, for example, as a direction in which pixels are arranged in the vertical direction in the captured image IM (see FIG. 4). On the other hand, the “horizontal direction” is defined as a direction in which pixels are arranged in the horizontal direction in the captured image IM, for example. Further, the “vertical direction” may be defined as a direction having an inclination within about plus or minus 5 degrees with respect to a direction in which pixels are arranged in the vertical direction in the captured image IM. For example, in the captured image IM, the vertical edge extraction unit 42 is a feature line in which pixels having a luminance difference with a neighboring pixel in the horizontal direction are connected to a predetermined value or more, and the feature line extending in the substantially vertical direction is Extract as vertical edges. Not limited to this, the vertical edge extraction unit 42 may extract a vertical edge using a filter or the like for extracting a pixel having a particularly large luminance difference in the horizontal direction. FIG. 4 is a diagram illustrating how the vertical edges VE <b> 1 to VE <b> 3 are extracted from the captured image IM acquired by the camera 10. In the captured image IM, vertical edges are extracted from various objects such as the vending machine OB2, the utility pole OB3, and other guardrail pillars in addition to the object OB1 that is the detection target. The object detection device 5 performs a process of narrowing down to the vertical edge of the object OB1 that is a detection target candidate by the process described below.

拡張領域設定部44は、垂直エッジ抽出部42により抽出された垂直エッジVEを一端とし、垂直エッジVEから、撮像画像IMの水平方向に関する中心方向(一例として中心軸Cに向けて所定の幅を有する拡張領域AVEを設定する。図5は、撮像画像IMにおいて拡張領域AVE1〜AVE3が設定される様子を示す図である。所定の幅は、例えば5画素分というように固定値であってもよいし、後述する第2実施形態のように、可変値であってもよい。図示するように、拡張領域AVEは、撮像画像IMの中心軸Cよりも左側の部分では、垂直エッジVEから右側に向けて幅を持つように設定され、撮像画像IMの中心軸Cよりも右側の部分では、垂直エッジVEから左側に向けて幅を持つように設定される。なお、拡張領域AVEは、垂直エッジを含むものとする。   The extension region setting unit 44 uses the vertical edge VE extracted by the vertical edge extraction unit 42 as one end, and sets a predetermined width from the vertical edge VE to the center direction (as an example, toward the center axis C) in the horizontal direction of the captured image IM. 5 is a diagram showing a state in which the extended areas AVE1 to AVE3 are set in the captured image IM, even if the predetermined width is a fixed value such as 5 pixels, for example. Alternatively, it may be a variable value as in the second embodiment to be described later, as shown in the drawing, the extension region AVE is on the right side of the vertical edge VE in the portion on the left side of the center axis C of the captured image IM. And is set so as to have a width from the vertical edge VE toward the left side in the portion on the right side of the center axis C of the captured image IM. It is intended to include a vertical edge.

垂直エッジ抽出部42および拡張領域設定部44は、上記説明した処理を、カメラ10が繰り返し撮像した撮像画像IMの全てについて(あるいは間引き処理を行った後の一部の撮像画像IMについて)、繰り返し実行する。以下、時系列で繰り返し撮像される複数の撮像画像IMの一つ一つを、必要に応じて撮像フレームと称する。   The vertical edge extraction unit 42 and the extended region setting unit 44 repeat the above-described processing for all of the captured images IM repeatedly captured by the camera 10 (or for some captured images IM after the thinning process is performed). Run. Hereinafter, each of the plurality of captured images IM captured repeatedly in time series is referred to as an imaging frame as necessary.

判定部46は、拡張領域設定部44により設定された拡張領域AVEを用いて、垂直エッジVEが検出対象物の一部に該当するか否かを判定する。そして、検出対象物の一部に該当すると判定した垂直エッジVEを、選択的にセンサフュージョン処理部50に出力する。   The determination unit 46 determines whether or not the vertical edge VE corresponds to a part of the detection target using the extension region AVE set by the extension region setting unit 44. Then, the vertical edge VE determined to correspond to a part of the detection target is selectively output to the sensor fusion processing unit 50.

以下、判定部46による判定手法について説明する。図6は、複数の撮像フレームにおいて、一つ前の撮像フレームの拡張領域AVEと重なる拡張領域AVEを示す図である。図中、拡張領域AVE(t)は、撮像フレームtにおける拡張領域であり、拡張領域AVE(t+1)は、撮像フレームt+1における拡張領域である。判定部46は、一つ前の撮像フレームの拡張領域AVEとの間での重複領域内の画素について、画素同士の重なり継続時間(或いは重なり継続フレーム数)を表す指標値であるカウント値CTおよびその合計値(CT合計)を算出する。更に、判定部46は、時間的に隣接する撮像フレーム間(間引き処理が行われる場合は間引いた後で時間的に隣接する撮像フレーム間)において垂直エッジVEが水平方向に移動する速度を反映した指標値であるエッジ速度V(VE)を算出する。   Hereinafter, a determination method by the determination unit 46 will be described. FIG. 6 is a diagram illustrating an extension area AVE that overlaps the extension area AVE of the immediately preceding imaging frame in a plurality of imaging frames. In the drawing, the extension area AVE (t) is an extension area in the imaging frame t, and the extension area AVE (t + 1) is an extension area in the imaging frame t + 1. The determination unit 46 counts a count value CT, which is an index value representing an overlap duration (or the number of overlap duration frames) between pixels, for pixels in the overlap region with the extended region AVE of the previous imaging frame. The total value (CT total) is calculated. Further, the determination unit 46 reflects the speed at which the vertical edge VE moves in the horizontal direction between temporally adjacent imaging frames (between temporally adjacent imaging frames after thinning if thinning processing is performed). An edge speed V (VE) that is an index value is calculated.

図7〜図11は、撮像画像IMにおける垂直エッジVEと拡張領域AVEの水平方向座標の変化を例示し、それぞれについてカウント値CT、CT合計、およびエッジ速度V(VE)の推移を示した図である。なお、各図は、ある垂直方向座標を有する水平方向直線(例えば図6のLHなど)上の各画素に着目したものである。   7 to 11 exemplify changes in the horizontal coordinates of the vertical edge VE and the extended area AVE in the captured image IM, and are diagrams showing changes in the count value CT, the CT total, and the edge speed V (VE) for each. It is. Each drawing focuses on each pixel on a horizontal straight line (for example, LH in FIG. 6) having a certain vertical coordinate.

図7は、垂直エッジVEの水平方向座標が変化しない場合のカウント値CTおよびエッジ速度V(VE)の推移を示した図である。フレーム番号tにおいて、垂直エッジVEと拡張領域AVEが初めて設定されたものとする。この場合、判定部46は、水平方向座標k〜k+4についてカウント値CTを「1」に設定する。また、判定部46は、エッジ速度V(VE)を、例えば式(1)に基づいて算出する。初めて拡張領域AVEを追跡開始した時点では、エッジ速度V(VE)は無効値となる。なお、この手法に代えて、単に垂直エッジVEの水平方向座標の差分を求めてもよい。また、判定部46は、CT合計を「5」と算出する。
V(VE)=|(拡張領域AVEの幅)/(拡張領域AVEの左右端におけるカウント値CTの差分)| ‥(1)
FIG. 7 is a diagram illustrating transition of the count value CT and the edge speed V (VE) when the horizontal coordinate of the vertical edge VE does not change. It is assumed that the vertical edge VE and the extension area AVE are set for the first time at the frame number t. In this case, the determination unit 46 sets the count value CT to “1” for the horizontal direction coordinates k to k + 4. Moreover, the determination part 46 calculates edge speed V (VE) based on Formula (1), for example. When the tracking of the extended area AVE is started for the first time, the edge velocity V (VE) becomes an invalid value. Instead of this method, the difference in the horizontal coordinate of the vertical edge VE may be simply obtained. Further, the determination unit 46 calculates the CT total as “5”.
V (VE) = | (width of extension area AVE) / (difference in count value CT at the left and right ends of extension area AVE) | (1)

判定部46は、次のフレーム番号t+1において、水平方向座標k〜k+4についてカウント値CTを「2」にカウントアップし、エッジ速度V(VE)を無効値として算出する(拡張領域AVEの左右端におけるカウント値CTが共に「2」であり、分母がゼロとなるため)。また、判定部46は、CT合計を「10」と算出する。判定部46は、次のフレーム番号t+3において、水平方向座標k〜k+4についてカウント値CTを「3」にカウントアップし、エッジ速度V(VE)を無効値として算出する(同上)。また、判定部46は、CT合計を「15」と算出する。判定部46は、次のフレーム番号t+3において、水平方向座標k〜k+4についてカウント値CTを「4」にカウントアップし、エッジ速度V(VE)を無効値として算出する(同上)。また、判定部46は、CT合計を「20」と算出する。   The determination unit 46 counts up the count value CT to “2” for the horizontal coordinates k to k + 4 at the next frame number t + 1, and calculates the edge velocity V (VE) as an invalid value (the left and right ends of the extension region AVE). Because the count value CT of both is “2” and the denominator is zero). Further, the determination unit 46 calculates the CT total as “10”. The determination unit 46 counts up the count value CT to “3” for the horizontal coordinates k to k + 4 at the next frame number t + 3, and calculates the edge velocity V (VE) as an invalid value (same as above). Further, the determination unit 46 calculates the CT total as “15”. The determination unit 46 counts up the count value CT to “4” for the horizontal coordinates k to k + 4 at the next frame number t + 3, and calculates the edge velocity V (VE) as an invalid value (same as above). In addition, the determination unit 46 calculates the CT total as “20”.

判定部46は、このようにカウント値CTおよびその合計、並びにエッジ速度V(VE)を算出する中で、(1)CT合計が第1の設定値(例えば10)以上となった場合、或いは(2)エッジ速度V(VE)が第2の設定値(例えば2.5)以下となった場合に、当該拡張領域AVEの元となった垂直エッジVEを、検出対象物候補の一部であると判断し、センサフュージョン処理部50に出力する。これら(1)、(2)の条件を満たす物体は、撮像画像IMにおける水平方向の座標が余り変化しない物体である。このように条件を設定することで、自車両Mの前方を比較的高速で通り過ぎる物体(車両等)、および、道路端の固定物(自動販売機等)のように撮像画像IMの左右端に流れていく物体を、1つのロジックで適切に除外することができる。これらの除外される物体は、自車両に衝突する危険性が低く、後述する運転支援を行う必要性が低いものである。従って、判定部46の処理によって、不要な運転支援が行われるのを抑制することができる。   The determination unit 46 calculates the count value CT and the sum thereof, and the edge velocity V (VE) in this way. (1) When the CT sum becomes equal to or greater than a first set value (for example, 10), or (2) When the edge speed V (VE) is equal to or lower than a second set value (for example, 2.5), the vertical edge VE that is the origin of the extended area AVE is selected as a part of the detection target candidates. It is determined that it is present, and is output to the sensor fusion processing unit 50. An object that satisfies these conditions (1) and (2) is an object whose horizontal coordinates in the captured image IM do not change much. By setting the conditions in this way, the left and right ends of the captured image IM are like objects (vehicles, etc.) that pass in front of the host vehicle M at a relatively high speed and fixed objects (vending machines, etc.) at the road ends. A flowing object can be appropriately excluded with one logic. These excluded objects have a low risk of colliding with the host vehicle, and have a low necessity for performing driving assistance described later. Therefore, unnecessary driving assistance can be suppressed by the processing of the determination unit 46.

図7の例では、フレーム番号t+1において、CT合計が10以上となっているため、フレーム番号t+1の時点で、垂直エッジVEが検出対象物候補の一部であると判断される。   In the example of FIG. 7, since the CT total is 10 or more at frame number t + 1, it is determined that the vertical edge VE is part of the detection target candidate at the time of frame number t + 1.

なお、拡張領域AVEが一つ前の撮像フレームの拡張領域AVEと重ならなくなった場合、判定部46は、カウント値CT、CT合計、およびエッジ速度V(VE)をクリアし、新たな拡張領域AVEとしてウント値CT、CT合計、およびエッジ速度V(VE)の算出を開始する。   When the extension area AVE no longer overlaps with the extension area AVE of the previous imaging frame, the determination unit 46 clears the count value CT, the CT total, and the edge speed V (VE), and creates a new extension area. As AVE, calculation of the count value CT, the CT total, and the edge speed V (VE) is started.

図8は、垂直エッジVEの水平方向座標が1画素分ずつ変化する場合のカウント値CTおよびエッジ速度V(VE)の推移を示した図である。図8の例では、フレーム番号t+2において、CT合計が10以上となり、更に、エッジ速度V(VE)が2.5以下となっているため、フレーム番号t+2の時点で、垂直エッジVEが検出対象物候補の一部であると判断される。   FIG. 8 is a diagram showing transition of the count value CT and the edge speed V (VE) when the horizontal coordinate of the vertical edge VE changes by one pixel. In the example of FIG. 8, since the CT total is 10 or more and the edge speed V (VE) is 2.5 or less at the frame number t + 2, the vertical edge VE is detected at the time of the frame number t + 2. It is determined that it is a part of the candidate object.

図9は、垂直エッジVEの水平方向座標が2画素分ずつ変化する場合のカウント値CTおよびエッジ速度V(VE)の推移を示した図である。なお、本図以降、水平方向座標の図示を省略する。図9の例では、フレーム番号t+2において、エッジ速度V(VE)が2.5以下となっているため、フレーム番号t+2の時点で、垂直エッジVEが検出対象物候補の一部であると判断される。   FIG. 9 is a diagram illustrating changes in the count value CT and the edge speed V (VE) when the horizontal coordinate of the vertical edge VE changes by two pixels. In addition, illustration of a horizontal direction coordinate is abbreviate | omitted after this figure. In the example of FIG. 9, since the edge speed V (VE) is 2.5 or less at the frame number t + 2, it is determined that the vertical edge VE is a part of the detection target candidate at the time of the frame number t + 2. Is done.

図10は、垂直エッジVEの水平方向座標が3画素分ずつ変化する場合のカウント値CTおよびエッジ速度V(VE)の推移を示した図である。例えば、自車両Mの前方を比較的高速で通り過ぎる物体(車両等)は、このような傾向で垂直エッジVEが移動することが想定される。図10の例では、条件(1)、(2)のいずれも満たさないため、当該垂直エッジVEは除外されることになる。   FIG. 10 is a diagram illustrating transition of the count value CT and the edge speed V (VE) when the horizontal coordinate of the vertical edge VE changes by 3 pixels. For example, it is assumed that an object (such as a vehicle) that passes in front of the host vehicle M at a relatively high speed moves the vertical edge VE with such a tendency. In the example of FIG. 10, since neither of the conditions (1) and (2) is satisfied, the vertical edge VE is excluded.

図11は、垂直エッジVEの水平方向座標が右から左に5画素分ずつ変化する場合のカウント値CTおよびエッジ速度V(VE)の推移を示した図である。道路の左側に存在する固定物は、このような傾向で垂直エッジVEが移動することが多い。図11の例では、条件(1)、(2)のいずれも満たさないため、当該垂直エッジVEは除外されることになる。   FIG. 11 is a diagram showing the transition of the count value CT and the edge speed V (VE) when the horizontal coordinate of the vertical edge VE changes from right to left by five pixels. The fixed edge existing on the left side of the road often moves the vertical edge VE with such a tendency. In the example of FIG. 11, since neither of the conditions (1) and (2) is satisfied, the vertical edge VE is excluded.

なお、図7〜11では、垂直エッジVEが等速で撮像画像IM上を移動することを例示したが、垂直エッジVEの速度が変化する場合でも、本実施例の手法は有効性を失わない。   7 to 11 exemplify that the vertical edge VE moves on the captured image IM at a constant speed, but the method of the present embodiment does not lose its effectiveness even when the speed of the vertical edge VE changes. .

図12は、第1実施形態の画像処理部40により実行される処理の流れを示すフローチャートである。本フローチャートの処理は、例えば所定周期で繰り返し実行される。まず、画像処理部40は、カメラ10から撮像フレームを取得する(ステップS100)。次に、垂直エッジ抽出部42が、撮像フレームから垂直エッジVEを抽出する(ステップS102)。垂直エッジVEが抽出されなかった場合は、ステップS100に戻る。   FIG. 12 is a flowchart illustrating a flow of processing executed by the image processing unit 40 according to the first embodiment. The processing of this flowchart is repeatedly executed at a predetermined cycle, for example. First, the image processing unit 40 acquires an imaging frame from the camera 10 (step S100). Next, the vertical edge extraction unit 42 extracts the vertical edge VE from the imaging frame (step S102). If the vertical edge VE is not extracted, the process returns to step S100.

垂直エッジVEが抽出された場合、拡張領域設定部44が拡張エッジAVEを設定する(ステップS106)。そして、判定部46が、カウント値CT、CT合計、およびエッジ速度V(VE)を算出する(ステップS108)。   When the vertical edge VE is extracted, the extension area setting unit 44 sets the extension edge AVE (step S106). Then, the determination unit 46 calculates the count value CT, the CT total, and the edge speed V (VE) (step S108).

次に、判定部46は、CT合計が第1の設定値以上であるか否かを判定する(ステップS110)。CT合計が第1の設定値未満である場合、判定部46は、エッジ速度V(VE)が第2の設定値以下であるか否かを判定する(ステップS112)。エッジ速度V(VE)が第2の設定値以下である場合、判定部46は、エッジ速度V(VE)が無効値であるか否かを判定する(ステップS114)。   Next, the determination unit 46 determines whether or not the CT total is greater than or equal to the first set value (step S110). When the CT total is less than the first set value, the determination unit 46 determines whether or not the edge speed V (VE) is equal to or lower than the second set value (step S112). When the edge speed V (VE) is equal to or lower than the second set value, the determination unit 46 determines whether or not the edge speed V (VE) is an invalid value (step S114).

CT合計が第1の設定値以上である場合、または、エッジ速度V(VE)が第2の設定値以下であり且つ無効値でない場合、判定部46は、垂直エッジVEを検出対象物候補として出力し(ステップS116)、カウント値CTをクリアして本フローチャートの1ルーチンを終了する。それ以外の場合、判定部46は、垂直エッジVEが検出対象物候補でないと判断し(ステップS120)、本フローチャートの1ルーチンを終了する。   When the CT total is equal to or higher than the first set value, or when the edge speed V (VE) is equal to or lower than the second set value and is not an invalid value, the determination unit 46 sets the vertical edge VE as a detection target candidate. (Step S116), the count value CT is cleared, and one routine of this flowchart is terminated. Otherwise, the determination unit 46 determines that the vertical edge VE is not a detection target candidate (step S120), and ends one routine of this flowchart.

センサフュージョン処理部50は、検出対象物候補とされた垂直エッジVEが図3における中央領域AC内に進入すると、カメラ10の撮像画像解析結果と、レーダ装置20の出力との双方を加味して物体の位置を検出するといった処理を行う。また、センサフュージョン処理部50は、カメラ10の撮像画像解析結果と、レーダ装置20の出力との双方に基づくクラスタリング処理等を行って、物標に基づく物体の同定処理等を行ってよい。   When the vertical edge VE determined as the detection target candidate enters the center area AC in FIG. 3, the sensor fusion processing unit 50 takes into account both the captured image analysis result of the camera 10 and the output of the radar apparatus 20. Processing such as detecting the position of the object is performed. The sensor fusion processing unit 50 may perform clustering processing based on both the captured image analysis result of the camera 10 and the output of the radar apparatus 20 to perform object identification processing based on the target.

そして、運転支援部60は、センサフュージョン処理部50により検出された物体の位置に基づいて、スピーカ70、電子制御式ブレーキ装置80、パワーステアリング装置90などの制御を行う。具体的には、運転支援部60は、注意喚起または警告を表す音声をスピーカ70に出力させたり、自動ブレーキ制御や自動操舵制御を行うように電子制御式ブレーキ装置80やパワーステアリング装置90に指示したりする。   Then, the driving support unit 60 controls the speaker 70, the electronically controlled brake device 80, the power steering device 90, and the like based on the position of the object detected by the sensor fusion processing unit 50. Specifically, the driving support unit 60 instructs the electronically controlled brake device 80 and the power steering device 90 to output a sound representing a warning or warning to the speaker 70 or to perform automatic brake control or automatic steering control. To do.

以上説明した第1実施形態の物体検出装置5によれば、車両周辺を撮像するカメラ10により撮像された撮像画像において、垂直方向に延在する垂直エッジVEを抽出し、垂直エッジを一端とし、垂直エッジから撮像画像の中心方向に向けて所定の幅を有する拡張領域AVEを設定し、拡張領域AVEを用いて垂直エッジVEが検出対象物の一部に該当するか否かを判定することにより、より適切に検出対象物を検出することができる。   According to the object detection device 5 of the first embodiment described above, the vertical edge VE extending in the vertical direction is extracted from the captured image captured by the camera 10 that captures the periphery of the vehicle, and the vertical edge is one end. By setting an extension area AVE having a predetermined width from the vertical edge toward the center of the captured image, and determining whether the vertical edge VE corresponds to a part of the detection object using the extension area AVE The detection object can be detected more appropriately.

また、第1実施形態の物体検出装置5によれば、垂直エッジが現れた物体の撮像画像上における停滞具合を表すCT合計やエッジ速度V(VE)に基づいて、垂直エッジVEが検出対象物の一部に該当するか否かを判定するため、更に適切に検出対象物を検出することができる。   Further, according to the object detection device 5 of the first embodiment, the vertical edge VE is detected based on the CT total representing the degree of stagnation on the captured image of the object on which the vertical edge appears and the edge speed V (VE). Therefore, it is possible to detect the detection target more appropriately.

また、第1実施形態の物体検出装置5を利用した運転支援装置1によれば、物体検出装置5により適切に検出された検出対象物に基づいて、適切に運転支援を行うことができる。   Moreover, according to the driving assistance apparatus 1 using the object detection apparatus 5 of the first embodiment, driving assistance can be appropriately performed based on the detection target appropriately detected by the object detection apparatus 5.

<第2実施形態>
以下、本発明の第2実施形態について説明する。第2実施形態の物体検出装置5は、画像処理部40の処理内容が第1実施形態と相違する。以下、係る相違点を中心に説明する。
Second Embodiment
Hereinafter, a second embodiment of the present invention will be described. The object detection device 5 of the second embodiment differs from the first embodiment in the processing content of the image processing unit 40. Hereinafter, the difference will be mainly described.

図13は、第2実施形態に係る画像処理部40の機能構成例を示す図である。第2実施形態に係る画像処理部40は、垂直エッジ抽出部42と、拡張領域設定部44−1〜44−n(nは2以上の自然数)と、判定部46−1〜46−nと、判定結果選択部48とを備える。垂直エッジ抽出部42の機能は第1実施形態と同様であるため、説明を省略する。   FIG. 13 is a diagram illustrating a functional configuration example of the image processing unit 40 according to the second embodiment. The image processing unit 40 according to the second embodiment includes a vertical edge extraction unit 42, extended region setting units 44-1 to 44-n (n is a natural number of 2 or more), determination units 46-1 to 46-n, The determination result selection unit 48 is provided. Since the function of the vertical edge extraction unit 42 is the same as that of the first embodiment, description thereof is omitted.

第2実施形態に係る画像処理部40は、拡張領域設定部44−1〜44−nによって拡張領域AVEの幅を複数段用意し、自車両と物体との関係に応じて、どの幅の拡張領域AVEを採用するかを動的に変更する。拡張領域設定部44−1は、最も小さい幅(例えば2画素分)で拡張領域AVEを設定し、拡張領域設定部44−nは、最も大きい幅(例えばn+1画素分)で拡張領域AVEを設定する。そして、判定部46−1〜46〜nは、対応する拡張領域設定部44−1〜44−nによってそれぞれ設定された拡張領域AVEに対して、第1実施形態と同様の処理を行う。   The image processing unit 40 according to the second embodiment prepares a plurality of widths of the extension region AVE by the extension region setting units 44-1 to 44-n, and expands the width of the extension region AVE according to the relationship between the host vehicle and the object. Whether to adopt the area AVE is dynamically changed. The extension area setting unit 44-1 sets the extension area AVE with the smallest width (for example, two pixels), and the extension area setting unit 44-n sets the extension area AVE with the largest width (for example, n + 1 pixels). Set. Then, the determination units 46-1 to 46-n perform the same processing as that of the first embodiment on the extension areas AVE set by the corresponding extension area setting units 44-1 to 44-n, respectively.

ここで、拡張領域AVEの幅は、大きくすることで撮像画像上における物体への追従性が向上するが、処理負荷が増大すると共に誤検出も増加する性質を有している。このため、撮像画像における物体の挙動性に応じて動的に拡張領域AVEの幅を変更することが好ましい。   Here, increasing the width of the extended area AVE improves the followability to the object on the captured image, but has a property of increasing the processing load and increasing the false detection. For this reason, it is preferable to dynamically change the width of the extension area AVE according to the behavior of the object in the captured image.

より具体的には、自車両Mと物体との距離が遠い場合、または、物体が撮像画像の水平方向に関する中央部に存在する場合には、物体の撮像画像における横方向の速度(≒エッジ速度V(VE))が遅くなる傾向がある。この場合、拡張領域AVEの幅を小さくすることで、処理負荷を低減すると共に誤検出を抑制することができる。この逆に、自車両Mと物体との距離が近い場合、または、物体が撮像画像の水平方向に関する端部に存在する場合には、物体の撮像画像における横方向の速度が速くなる傾向がある。この場合、拡張領域AVEの幅を大きくすることで、物体への追従性を向上させることができる。   More specifically, when the distance between the host vehicle M and the object is long, or when the object is present in the central portion in the horizontal direction of the captured image, the lateral speed (≈edge speed) in the captured image of the object. V (VE)) tends to be slow. In this case, by reducing the width of the extension area AVE, the processing load can be reduced and erroneous detection can be suppressed. On the other hand, when the distance between the host vehicle M and the object is short, or when the object is present at the end in the horizontal direction of the captured image, the lateral speed of the captured image of the object tends to increase. . In this case, the followability to the object can be improved by increasing the width of the extension area AVE.

判定結果選択部48は、例えば、自車両と物体の距離、および撮像画像における垂直エッジVEの水平方向座標に基づいて、判定部46−1〜46〜nによりそれぞれなされた判定結果から、1つの判定結果を選択する(すなわち処理に用いられる拡張領域AVEの幅を選択する)。判定結果選択部48は、例えば、図14に示すマップを用いて拡張領域AVEの幅を選択する。図14は、判定結果選択部48が拡張領域AVEの幅を選択する際に用いるマップの一例を示す図である。なお、自車両と物体との距離については、垂直エッジVEの撮像画像上の位置から導出してもよいし、レーダ装置20の出力を用いて把握してもよい。   Based on the determination results made by the determination units 46-1 to 46-n based on the distance between the host vehicle and the object and the horizontal coordinate of the vertical edge VE in the captured image, for example, The determination result is selected (that is, the width of the extension area AVE used for processing is selected). The determination result selection unit 48 selects the width of the extension area AVE using, for example, the map shown in FIG. FIG. 14 is a diagram illustrating an example of a map used when the determination result selection unit 48 selects the width of the extension area AVE. The distance between the host vehicle and the object may be derived from the position on the captured image of the vertical edge VE, or may be grasped using the output of the radar device 20.

ここで、複数の幅の拡張領域AVEのそれぞれについて第1実施形態と同様の演算を行うのではなく、先に拡張領域の幅を選択してから判定部46が処理を行うことが考えられる。しかしながら、この場合、ある撮像フレームについて拡張領域の幅をkとして処理をした後、次の撮像フレームについて拡張領域の幅をk+1として処理をするというように、演算処理の切り替わりが生じるため、演算処理の切り替わりに起因した判定結果のブレが生じる可能性がある。これに対し、本実施形態のように、複数の幅の拡張領域AVEのそれぞれについて第1実施形態と同様の演算を行っておき、判定結果のみを切り替えることで、演算処理の切り替わりに起因した判定結果のブレが生じるのを防止することができる。なお、このような判定結果のブレが生じないような処理態様であれば、先に拡張領域の幅を選択してから判定部46が処理を行っても構わない。   Here, it is conceivable that the determination unit 46 performs the processing after selecting the width of the extension area first, instead of performing the same calculation as that of the first embodiment for each of the extension areas AVE having a plurality of widths. However, in this case, since the processing of the certain imaging frame is processed with k as the extension area width and then the processing of the next imaging frame is performed with the width of the expansion area as k + 1, the arithmetic processing is switched. There is a possibility that the judgment result may be blurred due to the switching of the. On the other hand, as in this embodiment, the same calculation as in the first embodiment is performed for each of a plurality of width extension areas AVE, and only the determination result is switched, so that the determination caused by the switching of the calculation processing is performed. It is possible to prevent blurring of the result. Note that the determination unit 46 may perform the processing after selecting the width of the extended region first as long as the processing mode does not cause such a blurring of the determination result.

以上説明した第2実施形態の物体検出装置5によれば、第1実施形態の効果に加えて、拡張領域AVEの幅を動的に変更することにより、処理負荷の低減や誤検出の抑制と、物体への追従性の向上とを両立させることができる。   According to the object detection device 5 of the second embodiment described above, in addition to the effects of the first embodiment, by dynamically changing the width of the extension area AVE, the processing load can be reduced and erroneous detection can be suppressed. It is possible to achieve both improvement in the followability to the object.

また、第2実施形態の物体検出装置5によれば、複数の拡張領域AVEの幅について並行して処理を行い、複数の拡張領域AVEの幅についての判定結果から1つの判定結果を選択するため、演算処理の切り替わりに起因した判定結果のブレが生じるのを防止することができる。   Further, according to the object detection device 5 of the second embodiment, processing is performed in parallel for the widths of the plurality of extension areas AVE, and one determination result is selected from the determination results for the widths of the plurality of extension areas AVE. Thus, it is possible to prevent the determination result from being blurred due to the switching of the arithmetic processing.

以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。   As mentioned above, although the form for implementing this invention was demonstrated using embodiment, this invention is not limited to such embodiment at all, In the range which does not deviate from the summary of this invention, various deformation | transformation and substitution Can be added.

例えば、物体検出装置5は、レーダ装置20を備えないものとしてもよい。この場合、検出対象物候補とされた物体OB1が中央領域AC内に進入すると、カメラ10の撮像画像解析によって物体OB1の位置を最終的に検出してよい。この場合、「センサフュージョン処理部50」に代えて、「第2画像処理部」といった機能部を備えてよい。第2画像処理部の機能に特段の制限はなく、第2画像処理部は、例えばパターンマッチング処理等を行って物体OB1の位置を検出する。   For example, the object detection device 5 may not include the radar device 20. In this case, when the object OB1 that is a detection target candidate enters the center area AC, the position of the object OB1 may be finally detected by the captured image analysis of the camera 10. In this case, a functional unit such as a “second image processing unit” may be provided instead of the “sensor fusion processing unit 50”. There is no particular limitation on the function of the second image processing unit, and the second image processing unit detects the position of the object OB1 by performing, for example, pattern matching processing or the like.

また、レーダ装置20を備えない場合、物体検出装置5は、判定部46により検出対象物の一部に該当すると判定された垂直エッジVEの画像上の位置(特に垂直エッジVEの下端の画像上の位置)から、直接的に物体OB1の位置を検出してもよい。   When the radar device 20 is not provided, the object detection device 5 has a position on the image of the vertical edge VE determined by the determination unit 46 as being a part of the detection target (particularly on the image at the lower end of the vertical edge VE). The position of the object OB1 may be directly detected from

1 運転支援装置
5 物体検出装置
10 カメラ(撮像部)
20 レーダ装置
30 制御装置
40 画像処理部
42 垂直エッジ抽出部
44 拡張領域設定部
46 判定部
50 センサフュージョン処理部
60 運転支援部
M 車両
DESCRIPTION OF SYMBOLS 1 Driving assistance apparatus 5 Object detection apparatus 10 Camera (imaging part)
DESCRIPTION OF SYMBOLS 20 Radar apparatus 30 Control apparatus 40 Image processing part 42 Vertical edge extraction part 44 Expansion area setting part 46 Determination part 50 Sensor fusion processing part 60 Driving support part M Vehicle

Claims (13)

車両周辺を撮像する撮像部により撮像された撮像画像において、垂直方向に延在する垂直エッジを抽出する垂直エッジ抽出部と、
前記垂直エッジ抽出部により抽出された垂直エッジを一端とし、前記垂直エッジから前記撮像画像の中心方向に向けて所定の幅を有する拡張領域を設定する拡張領域設定部と、
前記拡張領域設定部により設定された拡張領域を用いて、前記垂直エッジが検出対象物の一部に該当するか否かを判定する判定部と、
を備える物体検出装置。
A vertical edge extraction unit that extracts a vertical edge extending in a vertical direction in a captured image captured by an imaging unit that captures the periphery of the vehicle;
An extension region setting unit that sets the extension region having a predetermined width from the vertical edge toward the center of the captured image, with the vertical edge extracted by the vertical edge extraction unit as one end;
A determination unit that determines whether or not the vertical edge corresponds to a part of the detection object using the extension region set by the extension region setting unit;
An object detection apparatus comprising:
前記判定部は、時系列で撮像された複数の撮像画像における前記拡張領域同士の重なり具合に基づいて、前記垂直エッジが検出対象物の一部に該当するか否かを判定する、
請求項1記載の物体検出装置。
The determination unit determines whether or not the vertical edge corresponds to a part of the detection target based on the overlapping state of the extension regions in a plurality of captured images captured in time series.
The object detection apparatus according to claim 1.
前記判定部は、時系列で撮像された複数の撮像画像において、前記拡張領域に含まれると共に互いに重なる画素の重なり継続時間が長い場合に、前記垂直エッジが検出対象物の一部に該当すると判定する、
請求項2記載の物体検出装置。
The determination unit determines that the vertical edge corresponds to a part of the detection target when a plurality of captured images captured in time series includes a long overlap duration of pixels included in the extension region and overlapping each other. To
The object detection apparatus according to claim 2.
前記判定部は、前記垂直エッジの前記撮像画像における水平方向の速度に基づいて、前記垂直エッジが検出対象物の一部に該当するか否かを判定する、
請求項1から3のうちいずれか1項記載の物体検出装置。
The determination unit determines whether or not the vertical edge corresponds to a part of the detection target based on a horizontal speed of the captured image of the vertical edge.
The object detection device according to claim 1.
前記判定部は、前記垂直エッジの前記撮像画像における水平方向の速度が小さい場合に、前記垂直エッジが検出対象物の一部に該当すると判定する、
請求項4記載の物体検出装置。
The determination unit determines that the vertical edge corresponds to a part of the detection target when a horizontal speed in the captured image of the vertical edge is small.
The object detection apparatus according to claim 4.
前記判定部は、時系列で撮像された複数の撮像画像において、前記拡張領域に含まれると共に互いに重なる画素の重なり継続時間を算出すると共に、前記拡張領域の左右端の画素における前記重なり継続時間の差分を分母とする指標値を算出し、前記算出した指標値を前記垂直エッジの前記撮像画像における水平方向の速度として扱う、
請求項4または5記載の物体検出装置。
The determination unit calculates overlap durations of pixels included in the extension region and overlapping each other in a plurality of captured images taken in time series, and the overlap durations of pixels at the left and right ends of the extension region are calculated. Calculating an index value having a difference as a denominator, and treating the calculated index value as a horizontal speed in the captured image of the vertical edge;
The object detection apparatus according to claim 4 or 5.
前記判定部は、前記指標値が無効値となった場合、前記垂直エッジの前記撮像画像における水平方向の速度が小さい場合であっても、前記垂直エッジが検出対象物の一部に該当すると判定しない、
請求項6記載の物体検出装置。
The determination unit determines that the vertical edge corresponds to a part of the detection target even when the horizontal value of the vertical edge in the captured image is small when the index value becomes an invalid value. do not do,
The object detection apparatus according to claim 6.
前記車両と前記検出対象物との距離が長い場合に前記拡張領域の幅を小さく設定し、前記車両と前記検出対象物との距離が短い場合に前記拡張領域の幅を大きく設定する、
請求項1から7のうちいずれか1項記載の物体検出装置。
When the distance between the vehicle and the detection object is long, the width of the expansion area is set small, and when the distance between the vehicle and the detection object is short, the width of the expansion area is set large.
The object detection device according to claim 1.
前記垂直エッジの前記撮像画像における水平方向座標が中央部に近い場合に前記拡張領域の幅を小さく設定し、前記垂直エッジの前記撮像画像における水平方向座標が左右端部に近い場合に前記拡張領域の幅を大きく設定する、
請求項1から8のうちいずれか1項記載の物体検出装置。
When the horizontal coordinate in the captured image of the vertical edge is close to the center portion, the width of the extension region is set small, and when the horizontal coordinate in the captured image of the vertical edge is close to the left and right end portions, the extension region is set. Set the width of
The object detection device according to claim 1.
前記拡張領域設定部、および前記判定部は、複数の拡張領域の幅について並行して処理を行い、
前記判定部による複数の拡張領域の幅についての判定結果から1つの判定結果を選択する判定結果選択部を備える、
請求項8または9記載の物体検出装置。
The extension area setting unit and the determination unit perform processing in parallel for the width of a plurality of extension areas,
A determination result selection unit for selecting one determination result from the determination results for the widths of the plurality of extension regions by the determination unit;
The object detection apparatus according to claim 8 or 9.
請求項1から10のうちいずれか1項記載の物体検出装置と、
前記物体検出装置の検出結果に基づいて運転支援を行う運転支援部と、
を備える運転支援装置。
The object detection device according to any one of claims 1 to 10,
A driving support unit that performs driving support based on the detection result of the object detection device;
A driving support apparatus comprising:
車両周辺を撮像する撮像部により撮像された撮像画像において、垂直方向に延在する垂直エッジを抽出し、
前記抽出された垂直エッジを一端とし、前記垂直エッジから前記撮像画像の中心方向に向けて所定の幅を有する拡張領域を設定し、
前記設定された拡張領域を用いて、前記垂直エッジが検出対象物の一部に該当するか否かを判定する、
物体検出方法。
In the captured image captured by the imaging unit that captures the periphery of the vehicle, a vertical edge extending in the vertical direction is extracted,
With the extracted vertical edge as one end, an extended region having a predetermined width from the vertical edge toward the center of the captured image is set,
Determining whether the vertical edge corresponds to a part of the detection object using the set extension region;
Object detection method.
コンピュータに、
車両周辺を撮像する撮像部により撮像された撮像画像において、垂直方向に延在する垂直エッジを抽出させ、
前記抽出された垂直エッジを一端とし、前記垂直エッジから前記撮像画像の中心方向に向けて所定の幅を有する拡張領域を設定させ、
前記設定された拡張領域を用いて、前記垂直エッジが検出対象物の一部に該当するか否かを判定させる、
物体検出プログラム。
On the computer,
In the captured image captured by the image capturing unit that captures the periphery of the vehicle, the vertical edge extending in the vertical direction is extracted,
With the extracted vertical edge as one end, an extension region having a predetermined width is set from the vertical edge toward the center of the captured image,
Using the set extension region, it is determined whether the vertical edge corresponds to a part of the detection object,
Object detection program.
JP2014133937A 2014-06-30 2014-06-30 Article detection device, drive support apparatus, article detection method, and article detection program Pending JP2016012264A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014133937A JP2016012264A (en) 2014-06-30 2014-06-30 Article detection device, drive support apparatus, article detection method, and article detection program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014133937A JP2016012264A (en) 2014-06-30 2014-06-30 Article detection device, drive support apparatus, article detection method, and article detection program

Publications (1)

Publication Number Publication Date
JP2016012264A true JP2016012264A (en) 2016-01-21

Family

ID=55228936

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014133937A Pending JP2016012264A (en) 2014-06-30 2014-06-30 Article detection device, drive support apparatus, article detection method, and article detection program

Country Status (1)

Country Link
JP (1) JP2016012264A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021229866A1 (en) * 2020-05-14 2021-11-18 日立Astemo株式会社 Image processing device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006088940A (en) * 2004-09-24 2006-04-06 Nissan Motor Co Ltd Collision warning device for vehicle and collision warning method for vehicle
JP2009104226A (en) * 2007-10-19 2009-05-14 Nissan Motor Co Ltd Obstruction determination apparatus and method, and vehicle equipped with obstruction determination apparatus
WO2013191078A1 (en) * 2012-06-19 2013-12-27 市光工業株式会社 Object detection device for area around vehicle

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006088940A (en) * 2004-09-24 2006-04-06 Nissan Motor Co Ltd Collision warning device for vehicle and collision warning method for vehicle
JP2009104226A (en) * 2007-10-19 2009-05-14 Nissan Motor Co Ltd Obstruction determination apparatus and method, and vehicle equipped with obstruction determination apparatus
WO2013191078A1 (en) * 2012-06-19 2013-12-27 市光工業株式会社 Object detection device for area around vehicle

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021229866A1 (en) * 2020-05-14 2021-11-18 日立Astemo株式会社 Image processing device

Similar Documents

Publication Publication Date Title
JP5407898B2 (en) Object detection apparatus and program
JP6163453B2 (en) Object detection device, driving support device, object detection method, and object detection program
JP3630100B2 (en) Lane detection device
JP4622001B2 (en) Road lane marking detection apparatus and road lane marking detection method
JP5012718B2 (en) Image processing device
CN107750213B (en) Front vehicle collision warning device and warning method
JP5023872B2 (en) Image display control device and image display control system
JP2008168811A (en) Traffic lane recognition device, vehicle, traffic lane recognition method, and traffic lane recognition program
JP2006268097A (en) On-vehicle object detecting device, and object detecting method
JP6139465B2 (en) Object detection device, driving support device, object detection method, and object detection program
JP4985306B2 (en) Obstacle determination device and method, and vehicle equipped with an obstacle determination device
CN107004250B (en) Image generation device and image generation method
JP2011048520A (en) Device and method for monitoring vehicle periphery
JP3656056B2 (en) Interrupting vehicle detection device and method
JP6069938B2 (en) Pop-up detection device
EP3410345B1 (en) Information processing apparatus and non-transitory recording medium storing thereon a computer program
JP2012164275A (en) Image recognition apparatus
JP3868915B2 (en) Forward monitoring apparatus and method
JP2013142972A (en) Travel path recognition device
JP5189556B2 (en) Lane detection device
JP2016012264A (en) Article detection device, drive support apparatus, article detection method, and article detection program
JP4788399B2 (en) Pedestrian detection method, apparatus, and program
JP5900021B2 (en) Pop-up detection device
JP2007058282A (en) Image recognition processor
JP4075879B2 (en) Vehicle collision warning device and vehicle collision warning method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161129

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171010

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171121

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180529