JP7229032B2 - External object detection device - Google Patents

External object detection device Download PDF

Info

Publication number
JP7229032B2
JP7229032B2 JP2019016833A JP2019016833A JP7229032B2 JP 7229032 B2 JP7229032 B2 JP 7229032B2 JP 2019016833 A JP2019016833 A JP 2019016833A JP 2019016833 A JP2019016833 A JP 2019016833A JP 7229032 B2 JP7229032 B2 JP 7229032B2
Authority
JP
Japan
Prior art keywords
vehicle
detection
end position
attention area
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019016833A
Other languages
Japanese (ja)
Other versions
JP2020126304A (en
Inventor
啓隆 小甲
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Subaru Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Subaru Corp filed Critical Subaru Corp
Priority to JP2019016833A priority Critical patent/JP7229032B2/en
Publication of JP2020126304A publication Critical patent/JP2020126304A/en
Application granted granted Critical
Publication of JP7229032B2 publication Critical patent/JP7229032B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本開示は、車外の物体検出を行う車外物体検出装置に関する。 The present disclosure relates to an exterior object detection device that detects an exterior object.

近年、自車両に搭載した車載カメラによって車外環境を撮像し、撮像した画像に基づいて、検出対象物として車外の車両や歩行者等を検出する技術が開発されている(特許文献1~2参照)。また、画像中に検出対象物を検出するための注目領域(ROI:Region of Interest)を設定し、注目領域に対して検出対象物の検出処理を行う技術がある。この際、例えば、あらかじめ注目領域の大きさを定めておき、画像上で注目領域を移動させて、移動後の注目領域に対して順次、検出処理を行う方法がある(Window Sliding法)。 In recent years, technologies have been developed for capturing images of the environment outside the vehicle using an onboard camera mounted on the vehicle, and detecting objects such as vehicles and pedestrians outside the vehicle based on the captured images (see Patent Documents 1 and 2). ). There is also a technique of setting a region of interest (ROI) for detecting a detection target in an image and performing detection processing of the detection target on the target region. At this time, for example, there is a method in which the size of the attention area is determined in advance, the attention area is moved on the image, and the detection processing is sequentially performed on the attention area after movement (window sliding method).

特開2005-62910号公報JP-A-2005-62910 特開2017-207279号公報JP 2017-207279 A

一般的なWindow Sliding法では、カメラの解像度が向上するほどより多くの注目領域が生成され、結果的に検出に要する処理時間が肥大化する。 In the general Window Sliding method, as the resolution of the camera improves, more attention areas are generated, and as a result, the processing time required for detection increases.

効率的に車外の物体を検出することを可能にする車外物体検出装置を提供することが望ましい。 It is desirable to provide an exterior object detection system that allows for efficient detection of exterior objects.

本開示の一実施の形態に係る車外物体検出装置は、車外を撮影することによって得られた画像中に、車外の検出対象物を検出するための注目領域の左端位置と右端位置とを設定する左右領域設定部と、注目領域の実空間上の距離を、検出対象物の実空間上での距離として算出する距離算出部と、注目領域の画像中の左端位置と右端位置とを、検出対象物の実空間上での距離に応じた所定の閾値以上となるように移動させる左右領域移動部と、左右領域移動部による移動後の注目領域に対して検出対象物の検出処理を行う検出処理部とを備える。 A vehicle exterior object detection apparatus according to an embodiment of the present disclosure sets a left end position and a right end position of a region of interest for detecting a detection target outside a vehicle in an image obtained by photographing the exterior of the vehicle. a left and right area setting unit , a distance calculation unit that calculates the distance of the attention area in the real space as the distance of the detection target in the real space, and the left end position and the right end position of the attention area in the image of the detection target. A left/right region moving unit that moves an object so that it is equal to or greater than a predetermined threshold value according to the distance of the object in the real space , and a detection process that performs detection processing for the target area after movement by the left/right region moving unit. and a part.

本開示の一実施の形態に係る車外物体検出装置によれば、検出対象物を検出するための注目領域の設定の最適化を行うようにしたので、効率的に車外の物体を検出することが可能となる。 According to the object detection device outside the vehicle according to the embodiment of the present disclosure, since the setting of the attention area for detecting the detection target is optimized, the object outside the vehicle can be efficiently detected. It becomes possible.

本開示の第1の実施の形態に係る車外物体検出装置を備える車外環境認識システムの一構成例を概略的に示す構成図である。BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a configuration diagram schematically showing one configuration example of an exterior environment recognition system including an exterior object detection device according to a first embodiment of the present disclosure; 車外環境認識装置の一構成例を概略的に示すブロック図である。1 is a block diagram schematically showing a configuration example of an external environment recognition device; FIG. 自車両に対して検出対象物が相対的に遠距離にある場合の画像の一例を示す説明図である。FIG. 10 is an explanatory diagram showing an example of an image when a detection target is relatively far away from the host vehicle; 自車両に対して検出対象物が相対的に近距離にある場合の画像の一例を示す説明図である。FIG. 4 is an explanatory diagram showing an example of an image when a detection target is relatively close to the host vehicle; 車外物体検出部による注目領域の決定処理の流れの一例を示すフローチャートである。7 is a flow chart showing an example of a process for determining an attention area by an external object detection unit; 注目領域の右端の閾値の一例を示す説明図である。FIG. 10 is an explanatory diagram showing an example of thresholds at the right end of an attention area; 注目領域の左端の閾値の一例を示す説明図である。FIG. 10 is an explanatory diagram showing an example of a left end threshold value of a region of interest; 上下領域設定部による注目領域の上端位置と下端位置との決定処理の一例を概略的に示す説明図である。FIG. 10 is an explanatory diagram schematically showing an example of a process of determining upper end positions and lower end positions of a region of interest by an upper and lower region setting unit; 上下領域設定部による注目領域の上端位置と下端位置との決定処理の一例を概略的に示す説明図である。FIG. 10 is an explanatory diagram schematically showing an example of a process of determining upper end positions and lower end positions of a region of interest by an upper and lower region setting unit; 上下領域設定部による注目領域の上端位置と下端位置との決定処理の一例を概略的に示す説明図である。FIG. 10 is an explanatory diagram schematically showing an example of a process of determining upper end positions and lower end positions of a region of interest by an upper and lower region setting unit; 左右領域設定部による注目領域の設定処理および左右領域移動部による注目領域の右端位置の移動処理の一例を概略的に示す説明図である。FIG. 7 is an explanatory diagram schematically showing an example of attention area setting processing by a left and right area setting unit and movement processing of a right end position of the attention area by a left and right area moving unit; 左右領域設定部による注目領域の設定処理および左右領域移動部による注目領域の左端位置の移動処理の一例を概略的に示す説明図である。FIG. 7 is an explanatory diagram schematically showing an example of attention area setting processing by a left/right area setting unit and movement processing of a left end position of the attention area by a left/right area moving unit; 検出対象物の距離と所定の閾値(左端および右端の閾値)との関係の一例を示す説明図である。FIG. 5 is an explanatory diagram showing an example of the relationship between the distance of a detection target and predetermined thresholds (thresholds at the left end and right end); 検出対象物の距離と所定の閾値(左端および右端の閾値)との関係の第1の変形例を示す説明図である。FIG. 11 is an explanatory diagram showing a first modification of the relationship between the distance of the detection target and the predetermined thresholds (thresholds at the left end and right end); 検出対象物の距離と所定の閾値(左端および右端の閾値)との関係の第2の変形例を示す説明図である。FIG. 12 is an explanatory diagram showing a second modification of the relationship between the distance of the detection target and the predetermined thresholds (thresholds at the left end and right end); Window Sliding法の概要を示す説明図である。It is an explanatory view showing an outline of Window Sliding method.

以下、本開示の実施の形態について図面を参照して詳細に説明する。なお、説明は以下の順序で行う。
1.第1の実施の形態
1.0 概要
1.1 構成
1.2 動作
1.3 効果
2.その他の実施の形態
Hereinafter, embodiments of the present disclosure will be described in detail with reference to the drawings. The description will be given in the following order.
1. First Embodiment 1.0 Overview 1.1 Configuration 1.2 Operation 1.3 Effect 2. Other embodiments

<1.第1の実施の形態>
[1.0 概要]
近年、自車両に搭載した車載カメラによって車外環境を撮像し、撮像した画像に基づいて、検出対象物として車外の車両や歩行者等を検出する技術が開発されている。例えばタイヤを検出することによって車両を検出する技術が開発されている。これにより、検出された車両等との衝突を回避する衝突防止機能や、先行車両との車間距離を所定の距離に保つACC(Adaptive Cruise Control)を搭載した車両が普及しつつある。このような技術に用いられる物体検出装置では、ハードウェア性能の要求から処理時間が限られている。また、検出に用いられるカメラの解像度は近年ますます向上している。
<1. First Embodiment>
[1.0 Overview]
2. Description of the Related Art In recent years, a technology has been developed in which an on-vehicle camera captures an image of an environment outside the vehicle and, based on the captured image, detects a vehicle, a pedestrian, or the like outside the vehicle as a detection target. Techniques have been developed to detect vehicles, for example, by detecting tires. As a result, vehicles equipped with a collision prevention function that avoids a collision with a detected vehicle or the like, and ACC ( Adaptive Cruise Control) that maintains a predetermined distance from a preceding vehicle are becoming popular. Object detection devices used in such techniques are limited in processing time due to hardware performance requirements. In addition, the resolution of cameras used for detection has been improving more and more in recent years.

物体検出を行う技術には、あらかじめ画像中に検出対象物を検出するための注目領域の位置および大きさを定めておき、その注目領域に対し検出処理をする実施する方法がある。また、特定の大きさの注目領域を画面上でスライド(移動)させて、移動後の注目領域に対して順次、検出処理を行うWindow Sliding法と呼ばれる技術がある。 As a technique for object detection, there is a method in which the position and size of an attention area for detecting an object to be detected in an image are determined in advance, and detection processing is performed on the attention area. In addition, there is a technique called a window sliding method in which an attention area of a specific size is slid (moved) on a screen and the attention area after movement is sequentially subjected to detection processing.

図16に、Window Sliding法の概要を示す。図16には、検出対象物が車両のタイヤである例を示す。図16に示したように、例えばタイヤの検出に適した大きさの注目領域800を1画素ずつ移動させ、移動後の注目領域800に対して順次、検出処理を行う。なお、図16では単純に水平方向に注目領域800を移動させていく例を示している。この場合、注目領域の左端800Lと注目領域の右端800Rとが1画素単位で移動するように注目領域800が生成される。このような方法では、カメラの解像度が向上するほどより多くの注目領域800が生成され、結果的に検出に要する処理時間が肥大化する。 FIG. 16 shows an outline of the Window Sliding method. FIG. 16 shows an example in which the object to be detected is a vehicle tire. As shown in FIG. 16, for example, a region of interest 800 having a size suitable for tire detection is moved by one pixel, and detection processing is sequentially performed on the region of interest 800 after movement. Note that FIG. 16 shows an example in which the attention area 800 is simply moved in the horizontal direction. In this case, the attention area 800 is generated such that the left end 800L of the attention area and the right end 800R of the attention area move in units of one pixel. In such a method, as the resolution of the camera improves, more regions of interest 800 are generated, resulting in an increase in the processing time required for detection.

この問題を解決するために、移動量を所定画素(例えば1画素)ずつ飛ばして注目領域800を生成する等の方法が考えられる。しかしながら、画像中の検出対象物の検出精度は、検出対象物の実空間上での距離に応じて異なってくるので、注目領域800を単純にあらかじめ決められた所定画素ずつ移動させる方法では、検出精度および検出効率の低下を招く。 In order to solve this problem, a method of skipping the movement amount by a predetermined number of pixels (for example, one pixel) to generate the attention area 800 can be considered. However, since the detection accuracy of the detection target in the image varies depending on the distance of the detection target in the real space, the method of simply moving the attention area 800 by a predetermined number of pixels cannot be detected. This leads to a decrease in accuracy and detection efficiency.

例えば、図3は、自車両に対して検出対象物が相対的に遠距離(実空間上で40m先)にある場合の画像の一例を示している。図4は、自車両に対して検出対象物が相対的に近距離(実空間上で20m先)にある場合の画像の一例を示している。 For example, FIG. 3 shows an example of an image when the object to be detected is relatively far away from the own vehicle (40 m ahead in real space). FIG. 4 shows an example of an image when the object to be detected is relatively close to the own vehicle (20 m ahead in real space).

図3では、画像中において、例えば実空間上で40m先にある検出対象物の例を示している。図3では、例えば、画像中の8pix(ピクセル、画素)は実空間上で20cmに相当する。一方、図4では、画像中において、例えば実空間上で20m先にある検出対象物の例を示している。図4では、例えば、画像中の8画素は実空間上で10cmに相当する。 FIG. 3 shows an example of a detection object located 40 m ahead in the real space, for example, in the image. In FIG. 3, for example, 8 pix (pixels) in the image correspond to 20 cm in real space. On the other hand, FIG. 4 shows an example of a detection object located 20 m ahead in the real space, for example, in the image. In FIG. 4, for example, 8 pixels in the image correspond to 10 cm in real space.

図3および図4から分かるように、例えば遠距離にある検出対象物は注目領域が1画素ずれただけでも見え方が大きく異なるのに対し、近距離にある検出対象物は注目領域が1画素ずれたとしても見え方は遠距離の場合に比べて大きく変化しない。そのため、Window Sliding法を用いる場合、近距離の検出対象物に対しては注目領域の移動量を大きくしても物体検出が可能となる。Window Sliding法によって、例えば車両のタイヤを検出する場合において、注目領域を1画素ずつずらしながら40m先のタイヤが検出できる性能があったとき、20m先のタイヤを見つけるには2画素ずつずらしながらでも検出可能である。 As can be seen from FIGS. 3 and 4, for example, a detection target at a long distance can be seen very differently even if the region of interest is shifted by one pixel, whereas a detection target at a short distance has a region of interest of one pixel. Even if it shifts, the appearance does not change much compared to the case of the long distance. Therefore, when the Window Sliding method is used, it is possible to detect an object at a short distance even if the amount of movement of the attention area is increased. For example, when detecting a tire of a vehicle by the Window Sliding method, if there is a performance that can detect a tire 40 m ahead while shifting the attention area by 1 pixel, finding a tire 20 m ahead requires shifting 2 pixels by 2 pixels. detectable.

そこで、本実施の形態では、Window Sliding法を用いて物体検出を行う際に、注目領域の移動量を検出対象物の距離に応じて最適化する。これにより、効率的に車外の物体を検出することを可能にする。 Therefore, in the present embodiment, when object detection is performed using the Window Sliding method, the movement amount of the attention area is optimized according to the distance of the detection target. This enables efficient detection of objects outside the vehicle.

[1.1 構成]
(車外環境認識システム100)
図1は、本開示の第1の実施の形態に係る車外物体検出装置を備える車外環境認識システム100の一構成例を概略的に示している。
[1.1 Configuration]
(External Environment Recognition System 100)
FIG. 1 schematically shows a configuration example of an exterior environment recognition system 100 including an exterior object detection device according to the first embodiment of the present disclosure.

自車両1は、車外環境認識システム100を備えている。車外環境認識システム100は、2つの撮像装置110と、車外環境認識装置120と、車両制御装置(ECU:Engine Control Unit)130とを備えている。また、自車両1は、ステアリングホイール132と、アクセルペダル134と、ブレーキペダル136と、操舵機構142と、駆動機構144と、制動機構146とを備えている。 The host vehicle 1 includes an external environment recognition system 100 . The vehicle exterior environment recognition system 100 includes two imaging devices 110 , an exterior environment recognition device 120 , and a vehicle control device (ECU: Engine Control Unit) 130 . The own vehicle 1 also includes a steering wheel 132 , an accelerator pedal 134 , a brake pedal 136 , a steering mechanism 142 , a drive mechanism 144 and a braking mechanism 146 .

車両制御装置130は、ステアリングホイール132、アクセルペダル134、およびブレーキペダル136を通じて運転手の操作入力を受け付け、操舵機構142、駆動機構144、および制動機構146に伝達することで自車両1を制御する。また、車両制御装置130は、車外環境認識装置120の指示に従い、操舵機構142、駆動機構144、および制動機構146を制御する。 The vehicle control device 130 receives operation inputs from the driver through the steering wheel 132, the accelerator pedal 134, and the brake pedal 136, and transmits them to the steering mechanism 142, the driving mechanism 144, and the braking mechanism 146, thereby controlling the own vehicle 1. . Vehicle control device 130 also controls steering mechanism 142 , drive mechanism 144 , and braking mechanism 146 in accordance with instructions from external environment recognition device 120 .

2つの撮像装置110はそれぞれ、CCD(Charge-Coupled Device)やCMOS(Complementary Metal-Oxide Semiconductor)等の撮像素子を含んで構成され、自車両1の前方の車外環境を撮像し、少なくとも輝度の情報が含まれる輝度画像を生成する。輝度画像としては、例えばカラー値で表されるカラー画像を生成する。カラー値は、例えば1つの輝度(Y)と2つの色差(UV)からなる数値群である。また、カラー値は、3つの色相(R(赤)、G(緑)、B(青))からなる数値群であってもよい。 Each of the two imaging devices 110 includes an imaging device such as a CCD (Charge-Coupled Device) or a CMOS (Complementary Metal-Oxide Semiconductor), captures an image of the environment outside the vehicle 1 in front of the vehicle 1, and obtains at least luminance information. generates a luminance image containing As the luminance image, for example, a color image represented by color values is generated. A color value is a numerical group consisting of, for example, one luminance (Y) and two chrominance (UV). Alternatively, the color value may be a numerical group consisting of three hues (R (red), G (green), B (blue)).

撮像装置110は、自車両1の進行方向側において、例えば、2つの撮像装置110のそれぞれの光軸が略平行になるように、略水平方向に離隔して配置されている。2つの撮像装置110はそれぞれ、自車両1の前方の検出領域に存在する立体物を撮像した輝度画像を、例えば1/60秒のフレームごと(60fps)に連続して生成する。ここで、撮像装置110によって認識する立体物は、自転車、歩行者、車両、信号機、道路(進行路)、道路標識、ガードレール、建物といった独立して存在する物のみならず、自転車の車輪、車両のタイヤ等、その一部として特定できる物も含む。 The imaging devices 110 are arranged substantially horizontally apart from each other on the traveling direction side of the own vehicle 1, for example, so that the optical axes of the two imaging devices 110 are substantially parallel to each other. Each of the two imaging devices 110 continuously generates a luminance image of a three-dimensional object existing in a detection area in front of the own vehicle 1, for example, every 1/60 second frame (60 fps). Here, three-dimensional objects recognized by the imaging device 110 include not only independent objects such as bicycles, pedestrians, vehicles, traffic lights, roads (courses), road signs, guardrails, and buildings, but also wheels of bicycles and vehicles. It also includes things that can be specified as part of it, such as tires.

車外環境認識装置120は、2つの撮像装置110のそれぞれから輝度画像を取得し、一方の輝度画像から任意に抽出したブロック(例えば、水平4画素×垂直4画素の配列)に対応するブロックを他方の輝度画像から検索する、いわゆるパターンマッチングを用いて視差、および、任意のブロックの画面内の位置を示す画面位置を含む視差情報を導出する。ここで、水平は、撮像した画像の画面横方向を示し、垂直は、撮像した画像の画面縦方向を示す。このパターンマッチングとしては、一対の画像間において、任意のブロック単位で輝度(Y)を比較することが考えられる。例えば、輝度の差分をとるSAD(Sum of Absolute Difference)、差分を2乗して用いるSSD(Sum of Squared intensity Difference)や、各画素の輝度から平均値を引くことにより得られた分散値の類似度をとるZNCC(Zero-mean Normalized Cross Correlation)等の手法がある。車外環境認識装置120は、このようなブロック単位の視差導出処理を検出領域(例えば、600画素×200画素)に映し出されている全てのブロックについて行う。ここでは、ブロックを4画素×4画素としているが、ブロック内の画素数は任意に設定することができる。 The vehicle exterior environment recognition device 120 acquires luminance images from each of the two imaging devices 110, and arbitrarily extracts a block (for example, an array of horizontal 4 pixels×vertical 4 pixels) from one of the luminance images. Parallax information including the screen position indicating the position of an arbitrary block within the screen is derived using so-called pattern matching, which is searched from the luminance image of the . Here, horizontal indicates the screen horizontal direction of the captured image, and vertical indicates the screen vertical direction of the captured image. As this pattern matching, it is conceivable to compare the brightness (Y) between a pair of images in arbitrary block units. For example, SAD (Sum of Absolute Difference) that takes the difference in luminance, SSD (Sum of Squared Intensity Difference) that uses the square of the difference, and similarity of the variance value obtained by subtracting the average value from the luminance of each pixel There is a technique such as ZNCC (Zero-mean Normalized Cross Correlation) that takes a degree of correlation. The vehicle exterior environment recognition device 120 performs such block-based parallax derivation processing for all blocks displayed in the detection area (for example, 600 pixels×200 pixels). Here, the block has 4 pixels×4 pixels, but the number of pixels in the block can be set arbitrarily.

ただし、車外環境認識装置120では、検出分解能単位であるブロックごとに視差を導出することはできるが、そのブロックがどのような対象物の一部であるかを認識できない。したがって、視差情報は、対象物単位ではなく、検出領域における検出分解能単位(例えばブロック単位)で独立して導出されることとなる。このようにして導出された視差情報を対応付けた画像を、上述した輝度画像と区別して距離画像という。 However, the external environment recognition device 120 can derive the parallax for each block, which is the detection resolution unit, but cannot recognize what kind of object the block is part of. Therefore, the parallax information is independently derived in units of detection resolution (for example, in units of blocks) in the detection area, not in units of objects. An image associated with parallax information derived in this way is called a distance image to distinguish it from the luminance image described above.

また、車外環境認識装置120は、輝度画像に基づく輝度値(カラー値)、および、距離画像に基づいて算出された、自車両1との相対距離を含む実空間における3次元の位置情報を用い、カラー値が等しく3次元の位置情報が近いブロック同士を対象物としてグループ化して、自車両1の前方の検出領域における対象物がいずれの特定物(例えば、先行車両や自転車)に対応するかを特定する。また、車外環境認識装置120は、このように立体物を特定すると、立体物との衝突を回避したり(衝突回避制御)、先行車両との車間距離を安全な距離に保つように自車両1を制御する(クルーズコントロール)。なお、上記相対距離は、距離画像におけるブロックごとの視差情報を、いわゆるステレオ法を用いて3次元の位置情報に変換することで求められる。ここで、ステレオ法は、三角測量法を用いることで、対象物の視差からその対象物の撮像装置110に対する相対距離を導出する方法である。 In addition, the vehicle exterior environment recognition device 120 uses three-dimensional position information in the real space including the relative distance to the own vehicle 1 calculated based on the luminance value (color value) based on the luminance image and the distance image. , blocks with the same color value and close three-dimensional position information are grouped as objects, and which specific object (for example, preceding vehicle or bicycle) corresponds to the object in the detection area in front of the own vehicle 1 is determined. identify. Further, when the external environment recognition device 120 identifies the three-dimensional object in this way, it avoids a collision with the three-dimensional object (collision avoidance control), and controls the host vehicle 1 so as to maintain a safe inter-vehicle distance from the preceding vehicle. control (cruise control). The above relative distance can be obtained by converting parallax information for each block in the distance image into three-dimensional position information using a so-called stereo method. Here, the stereo method is a method of deriving the relative distance of the object to the imaging device 110 from the parallax of the object by using the triangulation method.

(車外環境認識装置120)
次に、車外環境認識装置120の構成について詳述する。ここでは、主として、本実施の形態に特徴的な車外物体検出に関する処理を行う部分について詳細に説明する。
(External environment recognition device 120)
Next, the configuration of the vehicle exterior environment recognition device 120 will be described in detail. Here, a detailed description will be given mainly of the part that performs processing related to the detection of an object outside the vehicle, which is characteristic of the present embodiment.

図2は、車外環境認識装置120の一構成例を概略的に示している。 FIG. 2 schematically shows a configuration example of the vehicle exterior environment recognition device 120. As shown in FIG.

図2に示すように、車外環境認識装置120は、I/F(インタフェース)部150と、データ保持部152と、中央制御部154とを備えている。 As shown in FIG. 2 , the vehicle external environment recognition device 120 includes an I/F (interface) section 150 , a data holding section 152 and a central control section 154 .

I/F部150は、撮像装置110、および、車両制御装置130との双方向の情報交換を行うためのインタフェースである。データ保持部152は、RAM(Random Access Memory)、フラッシュメモリ、HDD(Hard Disk Drive)等で構成され、以下に示す中央制御部154内の各部の処理に必要な様々な情報を保持する。 The I/F unit 150 is an interface for bidirectionally exchanging information with the imaging device 110 and the vehicle control device 130 . The data holding unit 152 is composed of a RAM (Random Access Memory), a flash memory, a HDD (Hard Disk Drive), etc., and holds various information required for processing of each unit in the central control unit 154 described below.

中央制御部154は、中央処理装置(CPU)、プログラム等が格納されたROM(Read Only Memory)、およびワークエリアとしてのRAM等を含む半導体集積回路で構成されている。中央制御部154は、システムバス156を通じて、I/F部150、およびデータ保持部152等を制御する。 The central control unit 154 is composed of a semiconductor integrated circuit including a central processing unit (CPU), a ROM (Read Only Memory) storing programs and the like, and a RAM as a work area. The central control unit 154 controls the I/F unit 150, the data holding unit 152 and the like through the system bus 156. FIG.

中央制御部154は、車外物体検出部160を有している。また、中央制御部154は、既知の技術により路面モデルを生成し、距離画像および輝度画像上での路面(道路表面)領域を特定する路面特定部を含んでいる。 The central control unit 154 has an external object detection unit 160 . The central control unit 154 also includes a road surface identification unit that generates a road surface model using a known technique and identifies a road surface (road surface) area on the distance image and the luminance image.

車外物体検出部160は、検出対象物として種々の車外物体を検出する。検出対象物は、自転車、歩行者、車両、信号機、道路(進行路)、道路標識、ガードレール、建物といった独立して存在する物のみならず、自転車の車輪、車両のタイヤ等、その一部として特定できる物も含む。車外物体検出部160は、例えば、タイヤ検出を行うことによって検出対象物として車両を検出する。車外物体検出部160は、本開示の一実施の形態に係る車外物体検出装置の一具体例に相当する。 The vehicle exterior object detection unit 160 detects various vehicle exterior objects as objects to be detected. Objects to be detected include not only independent objects such as bicycles, pedestrians, vehicles, traffic lights, roads (courses), road signs, guardrails, and buildings, but also bicycle wheels, vehicle tires, etc. Includes identifiable items. The vehicle-outside object detection unit 160 detects a vehicle as a detection target by detecting tires, for example. Exterior object detection unit 160 corresponds to a specific example of an exterior object detection device according to an embodiment of the present disclosure.

車外物体検出部160は、左右領域設定部161と、左右領域移動部162と、上下領域設定部163と、検出処理部164とを含んでいる。 The vehicle-outside object detection unit 160 includes a left/right region setting unit 161 , a left/right region moving unit 162 , a top/bottom region setting unit 163 , and a detection processing unit 164 .

左右領域設定部161は、画像中に、検出対象物を検出するための注目領域の左端位置と右端位置とを設定する。 The left and right region setting unit 161 sets the left end position and the right end position of the attention region for detecting the detection target in the image.

左右領域移動部162は、注目領域の左端位置と右端位置とを、検出対象物の距離に応じた所定の閾値以上となるように移動させる。また、左右領域移動部162は、注目領域の横幅Wが所定の範囲内となるように左端位置と右端位置とを移動させる。左右領域移動部162は、後述する図13ないし図15に示すように、検出対象物の距離と所定の閾値との関係を示す閾値情報に基づいて、左端位置と右端位置との移動に用いる所定の閾値を決定する。 The left/right area moving unit 162 moves the left end position and the right end position of the attention area so that they are equal to or greater than a predetermined threshold value according to the distance of the detection object. Further, the left/right area moving unit 162 moves the left end position and the right end position so that the width W of the attention area is within a predetermined range. As shown in FIGS. 13 to 15, which will be described later, the left/right area moving unit 162 uses threshold information indicating the relationship between the distance of the detection object and a predetermined threshold to move the left end position to the right end position. determine the threshold for

ここで、閾値情報は、検出対象物の種類ごとに異なる情報であってもよい。例えば、閾値情報は、後述する図14および図15に示すように、検出対象物が車両である場合と人である場合とで異なる情報であってもよい。また、閾値情報は、天候等に応じた情報であってもよい。例えば、閾値情報は、後述する図14および図15に示すように、日中、夜間、雨、および霧等に応じた異なる情報であってもよい。閾値情報は、例えばデータ保持部152が保持する。 Here, the threshold information may be information different for each type of detection target. For example, as shown in FIGS. 14 and 15 to be described later, the threshold information may be different information depending on whether the detection target is a vehicle or a person. Also, the threshold information may be information according to the weather or the like. For example, the threshold information may be different information according to daytime, nighttime, rain, fog, etc., as shown in FIGS. 14 and 15, which will be described later. The threshold information is held by the data holding unit 152, for example.

上下領域設定部163は、画像中の代表距離に基づいて、後述する図8ないし図10に示すように、注目領域の上端位置と下端位置とを設定する。この際、上下領域設定部163は、3次元空間上の位置情報を参照して、輝度画像上での注目領域を矩形領域となるように調整する。 Based on the representative distance in the image, the upper and lower region setting unit 163 sets the upper end position and the lower end position of the attention region as shown in FIGS. 8 to 10 described later. At this time, the upper and lower area setting unit 163 refers to the position information in the three-dimensional space and adjusts the attention area on the luminance image so that it becomes a rectangular area.

検出処理部164は、左右領域移動部による移動後の注目領域に対して検出対象物の検出処理を行う。検出処理の具体的な方法は、既知の技術を用いることができる。 The detection processing unit 164 performs a detection target object detection process on the attention area after being moved by the left/right area moving unit. A known technique can be used for a specific method of detection processing.

[1.2 動作]
次に、本実施の形態に特徴的な車外物体の検出に関する処理を行う車外物体検出部160による動作について詳細に説明する。
[1.2 Operation]
Next, the operation of the vehicle-external object detection unit 160 that performs processing related to the detection of the vehicle-external object, which is characteristic of the present embodiment, will be described in detail.

(注目領域の左端および右端の設定)
図5は、車外物体検出部160による注目領域の決定処理の流れの一例を示している。図6は、注目領域の右端の閾値の一例を示している。図7は、注目領域の左端の閾値の一例を示している。図11は、左右領域設定部161による注目領域の設定処理および左右領域移動部162による注目領域の右端位置の移動処理の一例を概略的に示している。図12は、左右領域設定部161による注目領域の設定処理および左右領域移動部162による注目領域の左端位置の移動処理の一例を概略的に示している。
(Set the left and right edges of the attention area)
FIG. 5 shows an example of the flow of attention area determination processing by the vehicle-external object detection unit 160 . FIG. 6 shows an example of the right end threshold of the attention area. FIG. 7 shows an example of the left edge threshold of the attention area. FIG. 11 schematically shows an example of attention area setting processing by the left/right area setting unit 161 and movement processing of the right end position of the attention area by the left/right area moving unit 162 . FIG. 12 schematically shows an example of attention area setting processing by the left/right area setting unit 161 and movement processing of the left end position of the attention area by the left/right area moving unit 162 .

図5において、まず、車外物体検出部160は、左右領域設定部161によって、注目領域の左端位置(左端座標)xLをaに設定する(ステップS11)。次に、車外物体検出部160は、左右領域設定部161によって、パラメータiの値として1をセットし、パラメータi’の値として無効値(例えば-∞)をセットする(ステップS12)。次に、車外物体検出部160は、左右領域設定部161によって、注目領域の右端位置(右端座標)xRをa+iに設定する(ステップS13)。これにより、例えば、図11の(A)、図12の(A)に示したように注目領域が設定される。 In FIG. 5, first, the outside object detection unit 160 sets the left edge position (left edge coordinate) xL of the attention area to a by the left and right area setting unit 161 (step S11). Next, the outside object detection unit 160 sets the value of the parameter i to 1 and sets the value of the parameter i' to an invalid value (eg -∞) by the left and right area setting unit 161 (step S12). Next, the vehicle exterior object detection unit 160 sets the right end position (right end coordinate) xR of the attention region to a+i by the left and right region setting unit 161 (step S13). As a result, for example, a region of interest is set as shown in FIGS. 11A and 12A.

次に、車外物体検出部160は、左右領域移動部162によって、注目領域の横幅W(mm)が閾値(最小値)Wa(mm)未満であるか否かを判断する(ステップS14)。注目領域の横幅Wが閾値Wa未満ではないと判断された場合(ステップS14:N)には、次に、車外物体検出部160は、左右領域移動部162によって、注目領域の横幅Wが閾値(最大値)Wb(mm)以上であるか否かを判断する(ステップS15)。注目領域の横幅Wが閾値Wb以上ではないと判断された場合(ステップS15:N)には、次に、車外物体検出部160は、検出処理部164によって、注目領域に対して検出対象物の検出処理を実施する(ステップS16)。その後、車外物体検出部160は、左右領域移動部162によって、パラメータi’の値をiにセットする(ステップS17)。なお、横幅W、閾値Wa,Wbの値は、実空間上の値(実距離)である。 Next, the vehicle-outside object detection unit 160 determines whether or not the lateral width W (mm) of the attention area is less than the threshold value (minimum value) Wa (mm) using the left/right region moving unit 162 (step S14). When it is determined that the width W of the attention area is not less than the threshold Wa (step S14: N), next, the outside object detection unit 160 causes the left/right area moving unit 162 to adjust the width W of the attention area to the threshold ( Maximum value) Wb (mm) or more is determined (step S15). If it is determined that the width W of the attention area is not equal to or greater than the threshold value Wb (step S15: N), then the exterior object detection unit 160 causes the detection processing unit 164 to detect the detection target object in the attention area. A detection process is performed (step S16). After that, the outside object detection unit 160 sets the value of the parameter i' to i by the left/right area moving unit 162 (step S17). The width W and the thresholds Wa and Wb are values in real space (actual distances).

注目領域の横幅Wが閾値Wa未満であると判断された場合(ステップS14:Y)、およびステップS17による処理後には、車外物体検出部160は、左右領域移動部162によって、パラメータiの値をi+1にセットする(ステップS18)。次に、車外物体検出部160は、左右領域移動部162によって、パラメータiの値とパラメータi’の値とが注目領域の右端の閾値TR(mm)以上、離れているか否かを判断する(ステップS19)。パラメータiの値とパラメータi’の値とが注目領域の右端の閾値TR以上、離れていないと判断された場合(ステップS19:N)には、車外物体検出部160は、ステップS18の処理に戻る。パラメータiの値とパラメータi’の値とが注目領域の右端の閾値TR以上、離れていると判断された場合(ステップS19:Y)には、車外物体検出部160は、ステップS13の処理に進む。なお、右端の閾値TRの値は、実空間上の値(実距離)である。以上の処理により、注目領域の右端に関して、例えば図11の(B)に示したように注目領域が設定される。また、図6に模式的に示したように、注目領域210の右端210Rが閾値TR以上となるように設定される。なお、図11の(B)には、図5のステップS14,S15,S19の判断処理を模式的に示す。 When it is determined that the width W of the attention area is less than the threshold Wa (step S14: Y), and after the process of step S17, the vehicle exterior object detection unit 160 causes the left/right area moving unit 162 to change the value of the parameter i to It is set to i+1 (step S18). Next, the outside object detection unit 160 uses the left/right area moving unit 162 to determine whether or not the value of the parameter i and the value of the parameter i' are separated from each other by a threshold value TR (mm) or more at the right end of the attention area ( step S19). If it is determined that the value of the parameter i and the value of the parameter i' are not separated from each other by the threshold TR at the right end of the attention area (step S19: N), the outside object detection unit 160 proceeds to the process of step S18. return. If it is determined that the value of the parameter i and the value of the parameter i' are separated from each other by the threshold value TR at the right end of the attention area (step S19: Y), the outside object detection unit 160 proceeds to the process of step S13. move on. Note that the value of the threshold value TR on the right end is a value in real space (actual distance). By the above processing, the attention area is set as shown in FIG. 11B, for example, with respect to the right end of the attention area. Also, as schematically shown in FIG. 6, the right end 210R of the attention area 210 is set to be equal to or greater than the threshold value TR. Incidentally, FIG. 11B schematically shows the judgment processing of steps S14, S15, and S19 in FIG.

また、注目領域の横幅Wが閾値Wb以上であると判断された場合(ステップS15:Y)には、車外物体検出部160は、左右領域移動部162によって、パラメータa’の値をaにセットする(ステップS20)。次に、車外物体検出部160は、左右領域移動部162によって、パラメータaの値をa+1にセットする(ステップS21)。次に、車外物体検出部160は、左右領域移動部162によって、パラメータa’の値とパラメータaの値とが注目領域の左端の閾値TL(mm)以上、離れているか否かを判断する(ステップS22)。パラメータa’の値とパラメータaの値とが注目領域の左端の閾値TL以上、離れていないと判断された場合(ステップS22:N)には、車外物体検出部160は、ステップS21の処理に戻る。パラメータa’の値とパラメータaの値とが注目領域の左端の閾値TL以上、離れていると判断された場合(ステップS22:Y)には、車外物体検出部160は、ステップS11の処理に進む。なお、左端の閾値TLの値は、実空間上の値(実距離)である。左端の閾値TLの値と右端の閾値TRの値は、同じ値であってもよい。以上の処理により、注目領域の左端に関して、例えば図12の(B)に示したように注目領域が設定される。また、図7に模式的に示したように、注目領域210の左端210Lが閾値TL以上となるように設定される。なお、図12の(B)には、図5のステップS14,S15,S22の判断処理を模式的に示す。 Further, when it is determined that the width W of the attention area is equal to or greater than the threshold value Wb (step S15: Y), the outside object detection unit 160 causes the left/right area moving unit 162 to set the value of the parameter a' to a. (step S20). Next, the vehicle-outside object detection unit 160 sets the value of the parameter a to a+1 by the left/right region moving unit 162 (step S21). Next, the outside object detection unit 160 uses the left/right area moving unit 162 to determine whether or not the value of the parameter a′ and the value of the parameter a are separated by a threshold value TL (mm) or more at the left end of the attention area ( step S22). If it is determined that the value of the parameter a' and the value of the parameter a are not separated from each other by the left end threshold value TL of the attention area (step S22: N), the outside object detection unit 160 proceeds to the process of step S21. return. If it is determined that the value of the parameter a′ and the value of the parameter a are separated by the threshold value TL or more at the left end of the attention area (step S22: Y), the outside object detection unit 160 proceeds to the process of step S11. move on. Note that the value of the leftmost threshold TL is a value in real space (actual distance). The value of the threshold value TL at the left end and the value of the threshold value TR at the right end may be the same value. By the above processing, the attention area is set as shown in FIG. 12B, for example, with respect to the left end of the attention area. Also, as schematically shown in FIG. 7, the left end 210L of the attention area 210 is set to be equal to or greater than the threshold TL. Note that FIG. 12B schematically shows the judgment processing of steps S14, S15, and S22 in FIG.

(注目領域の上端および下端の設定)
図8~図10は、上下領域設定部163による注目領域の上端位置と下端位置との決定処理の一例を概略的に示している。
(Setting the top and bottom edges of the region of interest)
8 to 10 schematically show an example of processing for determining the upper end position and the lower end position of the attention area by the upper and lower area setting section 163. FIG.

上述のように注目領域の左端位置および右端位置を設定した後(図5のステップS16の検出処理を行う前)に、車外物体検出部160は、上下領域設定部163によって、注目領域の上端位置と下端位置とを設定する。 After setting the left end position and the right end position of the attention area as described above (before performing the detection processing in step S16 in FIG. 5), the vehicle exterior object detection unit 160 causes the upper and lower area setting unit 163 to set the upper end position of the attention area. and bottom position.

上下領域設定部163は、3次元空間上の位置情報を参照して、注目領域の左端位置および右端位置における代表距離を算出する。また、上下領域設定部163は、3次元空間上の位置情報を参照して、図10に示したように、輝度画像上での注目領域を矩形領域となるように調整する。 The upper and lower area setting unit 163 refers to the position information in the three-dimensional space and calculates representative distances at the left end position and right end position of the attention area. Also, the upper and lower area setting unit 163 refers to the position information in the three-dimensional space and adjusts the attention area on the luminance image so that it becomes a rectangular area as shown in FIG.

上下領域設定部163は、まず、例えば距離画像または輝度画像の左端から右端に向けて、水平位置ごとの代表距離を算出する。具体的には、上下領域設定部163は、まず、例えば距離画像または輝度画像を水平方向に対して複数の短冊形状の分割領域に分割する。各分割領域は、水平方向に所定数の画素幅を持つ垂直方向に延在する領域である。続いて、上下領域設定部163は、分割領域ごとに、3次元空間上の位置情報に基づき、例えば道路表面より上方に位置する全ての画素ブロックを対象に、相対距離に関するヒストグラムを生成する。上下領域設定部163は、そのヒストグラムに基づいて、最も頻度の高い、ピークに相当する相対距離を特定する。ここで、ピークに相当するとは、ピーク値またはピーク近傍で任意の条件を満たす値をいう。上下領域設定部163は、このピークに相当する相対距離を分割領域ごと(水平位置ごと)の代表距離とする。これにより、図8および図9において、黒い太線で示したような代表距離220が複数、算出される。 The vertical region setting unit 163 first calculates a representative distance for each horizontal position, for example, from the left end to the right end of the distance image or the luminance image. Specifically, the upper and lower area setting unit 163 first divides, for example, the distance image or the luminance image into a plurality of strip-shaped divided areas in the horizontal direction. Each divided area is a vertically extending area having a width of a predetermined number of pixels in the horizontal direction. Subsequently, the upper and lower region setting unit 163 generates a histogram of relative distances for all pixel blocks located above the road surface, for each divided region, based on the positional information in the three-dimensional space. Based on the histogram, upper and lower area setting section 163 specifies the relative distance corresponding to the peak with the highest frequency. Here, "equivalent to a peak" refers to a peak value or a value near the peak that satisfies an arbitrary condition. The vertical area setting unit 163 sets the relative distance corresponding to this peak as the representative distance for each divided area (for each horizontal position). As a result, a plurality of representative distances 220 indicated by thick black lines are calculated in FIGS. 8 and 9 .

上下領域設定部163は、まず、図8に示したように、距離画像および輝度画像において、注目領域の左端の代表距離の位置を下方向へ延在した直線と路面モデルが示す平面との交点を求める。そして、その交点の垂直方向の位置を求める(図8の点A)。同様に、距離画像および輝度画像において、注目領域の右端の代表距離の位置を下方向へ延在した直線と路面モデルが示す平面との交点を求める。そして、その交点の垂直方向の位置を求める(図8の点B)。 First, as shown in FIG. 8, the upper/lower region setting unit 163 sets the intersection point between a straight line extending downward from the position of the representative distance at the left end of the region of interest and the plane indicated by the road surface model in the distance image and the luminance image. Ask for Then, the vertical position of the intersection is determined (point A in FIG. 8). Similarly, in the range image and the luminance image, the intersection of a straight line extending downward from the position of the representative distance at the right end of the attention area and the plane indicated by the road surface model is obtained. Then, the vertical position of the intersection is determined (point B in FIG. 8).

次に、上下領域設定部163は、点A,Bの3次元空間上の距離d[mm]を求め、距離画像および輝度画像において、点A,Bから鉛直方向へd[mm]伸ばした点C,Dを求める(図9)。このようにして、図10に示したように、点A,B,C,Dを頂点とする平行四辺形201を得る。上下領域設定部163は、平行四辺形201を内包する矩形領域202を注目領域とする。すなわち、矩形領域202の上端が注目領域の上端となり、矩形領域202の下端が注目領域の下端となる。 Next, the upper and lower region setting unit 163 obtains the distance d [mm] between the points A and B in the three-dimensional space, and in the range image and the luminance image, the point extended by d [mm] in the vertical direction from the points A and B Find C and D (Fig. 9). Thus, as shown in FIG. 10, a parallelogram 201 having points A, B, C, and D as vertices is obtained. The upper and lower area setting unit 163 sets the rectangular area 202 including the parallelogram 201 as the attention area. That is, the upper end of the rectangular area 202 becomes the upper end of the attention area, and the lower end of the rectangular area 202 becomes the lower end of the attention area.

(検出対象物の距離と所定の閾値との関係)
図13は、検出対象物の距離と注目領域の左端および右端を設定する際に用いる所定の閾値(左端の閾値TLおよび右端の閾値TR)との関係の一例を示している。なお、左端の閾値TLの値と右端の閾値TRの値は、同じ値であってもよい。以下、左端の閾値TLと右端の閾値TRとをまとめて、所定の閾値として説明する。なお、図13において、検出対象物の距離の値と所定の閾値の値は、実空間上の値である。
(Relationship between distance of object to be detected and predetermined threshold)
FIG. 13 shows an example of the relationship between the distance of the detection object and the predetermined thresholds (left edge threshold TL and right edge threshold TR) used when setting the left edge and right edge of the attention area. The value of the threshold value TL at the left end and the value of the threshold value TR at the right end may be the same value. Hereinafter, the threshold value TL at the left end and the threshold value TR at the right end will be collectively described as predetermined threshold values. In FIG. 13, the value of the distance to the detection object and the value of the predetermined threshold are values in real space.

遠方に検出対象物がある場合、大気の状態(砂埃、雨等)やハードウェアの性能(レンズのMTF特性等)により、より密に注目領域を生成し識別することで、検出処理を行った際に未検出となるような事態を低減できる。そこで、左右領域移動部162は、注目領域の左端および右端を決定する際に用いる所定の閾値を、検出対象物の距離に応じて変更する。具体的には、図13に示すように検出対象物の距離と所定の閾値との関係を表す非線形データを閾値情報としてデータ保持部152(図2)に保持しておき、左右領域移動部162は、距離に応じてこのデータを参照することで、実際に用いる注目領域の所定の閾値を決定する。 When there is an object to be detected in the distance, detection processing is performed by generating and identifying the attention area more densely depending on the atmospheric conditions (dust, rain, etc.) and hardware performance (lens MTF characteristics, etc.). It is possible to reduce the situation in which the detection is not actually made. Therefore, the left/right area moving unit 162 changes the predetermined threshold used when determining the left end and right end of the attention area according to the distance of the detection object. Specifically, as shown in FIG. 13, non-linear data representing the relationship between the distance of the object to be detected and a predetermined threshold is held as threshold information in the data holding unit 152 (FIG. 2). determines a predetermined threshold for the region of interest that is actually used by referring to this data according to the distance.

図14は、検出対象物の距離と所定の閾値との関係の第1の変形例を示している。図15は、検出対象物の距離と所定の閾値(左端および右端の閾値)との関係の第2の変形例を示している。なお、図14および図15において、検出対象物の距離の値と所定の閾値の値は、実空間上の値である。図14は検出対象物が車両である場合、図15は検出対象物が人である場合の例を示す。 FIG. 14 shows a first modification of the relationship between the distance of the detection target and the predetermined threshold. FIG. 15 shows a second modification of the relationship between the distance of the detection target and the predetermined thresholds (thresholds at the left end and right end). In FIGS. 14 and 15, the value of the distance to the detection object and the value of the predetermined threshold are values in real space. FIG. 14 shows an example in which the object to be detected is a vehicle, and FIG. 15 shows an example in which the object to be detected is a person.

図14および図15に示すように、注目領域の左端および右端を設定する際に用いる所定の閾値は、検出対象物の種類ごとに異なる情報、例えば検出対象物が車両である場合と人である場合とで異なる情報であってもよい。また、図14および図15に示すように、閾値情報は、日中(day)、夜間(night)、雨(rainy)、および霧(fog)等に応じた異なる情報であってもよい。 As shown in FIGS. 14 and 15, the predetermined threshold used when setting the left end and right end of the attention area is different information depending on the type of the detection object, for example, when the detection object is a vehicle and when the detection object is a person. The information may be different depending on the case. Also, as shown in FIGS. 14 and 15, the threshold information may be different information according to day, night, rain, fog, and the like.

[1.3 効果]
以上説明したように、第1の実施の形態に係る車外物体検出装置によれば、検出対象物を検出するための注目領域の設定の最適化を行うようにしたので、効率的に車外の物体を検出することが可能となる。
[1.3 Effect]
As described above, according to the object detection apparatus outside the vehicle according to the first embodiment, the setting of the attention area for detecting the detection target is optimized, so that the object outside the vehicle can be detected efficiently. can be detected.

<2.その他の実施の形態>
本開示による技術は、上記実施の形態の説明に限定されず種々の変形実施が可能である。
<2. Other Embodiments>
The technology according to the present disclosure is not limited to the description of the above embodiments, and various modifications are possible.

上記実施の形態において、コンピュータを車外環境認識装置120として機能させるプログラムは、当該プログラムを記録した、コンピュータで読み取り可能なフレキシブルディスク、光磁気ディスク、ROM、CD、DVD、BD等の記憶媒体によって提供されてもよい。ここで、プログラムは、任意の言語や記述方法にて記述されたデータ処理手段をいう。 In the above embodiment, the program that causes the computer to function as the vehicle exterior environment recognition device 120 is provided by a computer-readable storage medium such as a flexible disk, a magneto-optical disk, a ROM, a CD, a DVD, or a BD that records the program. may be Here, the program means data processing means written in any language or writing method.

上記実施の形態において、車外物体検出部160による処理は、必ずしも図5のフローチャートに示した順序に沿って時系列に処理する必要はなく、並列的あるいはサブルーチンによる処理を含んでもよい。 In the above-described embodiment, the processing by the vehicle-external object detection unit 160 does not necessarily have to be time-sequentially processed in the order shown in the flowchart of FIG. 5, and may include parallel or subroutine processing.

また、上記実施の形態において、中央制御部154は、中央処理装置(CPU)、ROM、RAM等を含む半導体集積回路で構成される場合に限らず、FPGA(Field Programmable Gate Array)やASIC(Application Specific Integrated Circuit)等の集積回路で構成されるようにしてもよい。また、1または複数の中央処理装置、FPGA、ASICにより構成されるようにしてもよい。 In addition, in the above-described embodiment, the central control unit 154 is not limited to being configured by a semiconductor integrated circuit including a central processing unit (CPU), ROM, RAM, etc., but may be FPGA (Field Programmable Gate Array) or ASIC (Application Specific Integrated Circuit) or the like may be used. Alternatively, it may be composed of one or a plurality of central processing units, FPGAs, and ASICs.

また、上記実施の形態においては、2つの撮像装置110を用いたステレオ法により検出対象物の距離情報を取得するようにしたが、距離情報の取得方法はこれに限らない。例えばレーダを用いて距離情報を取得するようにしてもよい。 Further, in the above-described embodiment, the distance information of the detection object is acquired by the stereo method using the two imaging devices 110, but the method of acquiring the distance information is not limited to this. For example, radar may be used to acquire distance information.

1…自車両、100…車外環境認識システム、110…撮像装置、120…車外環境認識装置、130…車両制御装置、132…ステアリングホイール、134…アクセルペダル、136…ブレーキペダル、142…操舵機構、144…駆動機構、146…制動機構、150…I/F部、152…データ保持部、154…中央制御部、156…システムバス、160…車外物体検出部、161…左右領域設定部、162…左右領域移動部、163…上下領域設定部、164…検出処理部、201…平行四辺形、202…矩形領域、210…注目領域(ROI)、210L…注目領域の左端、210R…注目領域の右端、220…代表距離、TL…左端の閾値、TR…右端の閾値、xL…左端位置(左端座標)、xR…右端位置(右端座標)、W…注目領域の横幅、Wa…注目領域の横幅の閾値(最小値)、Wb…注目領域の横幅の閾値(最大値)。 Reference Signs List 1 Own vehicle 100 Vehicle environment recognition system 110 Imaging device 120 Vehicle environment recognition device 130 Vehicle control device 132 Steering wheel 134 Accelerator pedal 136 Brake pedal 142 Steering mechanism 144 drive mechanism 146 braking mechanism 150 I/F section 152 data holding section 154 central control section 156 system bus 160 external object detection section 161 left and right area setting section 162 Left and right area moving unit 163 Upper and lower area setting unit 164 Detection processing unit 201 Parallelogram 202 Rectangular area 210 Region of interest (ROI) 210L Left end of region of interest 210R Right end of region of interest , 220... Representative distance TL... Left edge threshold TR... Right edge threshold xL... Left edge position (left edge coordinates) xR... Right edge position (right edge coordinates) W... Width of attention area Wa... Width of attention area Threshold (minimum value), Wb .

Claims (6)

車外を撮影することによって得られた画像中に、車外の検出対象物を検出するための注目領域の左端位置と右端位置とを設定する左右領域設定部と、
前記注目領域の実空間上の距離を、前記検出対象物の実空間上での距離として算出する距離算出部と、
前記注目領域の前記画像中の前記左端位置と前記右端位置とを、前記検出対象物の実空間上での距離に応じた所定の閾値以上となるように移動させる左右領域移動部と、
前記左右領域移動部による移動後の前記注目領域に対して前記検出対象物の検出処理を行う検出処理部と
を備える
車外物体検出装置。
a left and right region setting unit for setting the left end position and the right end position of a region of interest for detecting a detection target outside the vehicle in an image obtained by photographing the outside of the vehicle ;
a distance calculation unit that calculates the distance on the real space of the attention area as the distance on the real space of the detection target;
a left-right area moving unit that moves the left end position and the right end position of the attention area in the image so as to be equal to or greater than a predetermined threshold value according to the distance of the detection target in real space ;
and a detection processing unit that performs detection processing of the detection object on the attention area after movement by the left/right area moving unit.
前記左右領域移動部は、前記検出対象物の実空間上での距離と前記所定の閾値との関係を示す閾値情報に基づいて、前記左端位置と前記右端位置との移動に用いる前記所定の閾値を決定する
請求項1に記載の車外物体検出装置。
The left-right region moving unit moves the predetermined threshold value used for moving between the left end position and the right end position based on threshold information indicating the relationship between the distance of the detection object in the real space and the predetermined threshold value. The external object detection device according to claim 1, wherein the object detection device determines:
前記閾値情報は、前記検出対象物の種類ごとに異なる情報である
請求項に記載の車外物体検出装置。
The object detection device outside the vehicle according to claim 2 , wherein the threshold information is information different for each type of the detection target.
前記閾値情報は、天候に応じた情報である
請求項2または3に記載の車外物体検出装置。
4. The outside-vehicle object detection device according to claim 2 , wherein the threshold information is information according to the weather.
前記左右領域移動部は、前記注目領域の実空間上での横幅が所定の範囲内となるように前記画像中の前記左端位置と前記右端位置とを移動させる
請求項1ないし4のいずれか1つに記載の車外物体検出装置。
5. The left/right area moving unit moves the left end position and the right end position in the image so that the horizontal width of the attention area in real space is within a predetermined range. 3. The external object detection device according to 1.
前記画像中の代表距離に基づいて、前記注目領域の前記画像中の上端位置と下端位置とを設定する上下領域設定部、をさらに備える
請求項1ないし5のいずれか1つに記載の車外物体検出装置。
6. The object outside the vehicle according to any one of claims 1 to 5, further comprising an upper and lower area setting unit that sets an upper end position and a lower end position of the attention area in the image based on the representative distance in the image. detection device.
JP2019016833A 2019-02-01 2019-02-01 External object detection device Active JP7229032B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019016833A JP7229032B2 (en) 2019-02-01 2019-02-01 External object detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019016833A JP7229032B2 (en) 2019-02-01 2019-02-01 External object detection device

Publications (2)

Publication Number Publication Date
JP2020126304A JP2020126304A (en) 2020-08-20
JP7229032B2 true JP7229032B2 (en) 2023-02-27

Family

ID=72083972

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019016833A Active JP7229032B2 (en) 2019-02-01 2019-02-01 External object detection device

Country Status (1)

Country Link
JP (1) JP7229032B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022244365A1 (en) * 2021-05-19 2022-11-24 住友電気工業株式会社 Region-of-interest detection device, region-of-interest detection method, and computer program
CN113762168A (en) * 2021-09-09 2021-12-07 南京领行科技股份有限公司 Safety alarm method, device, electronic equipment and storage medium

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014154062A (en) 2013-02-13 2014-08-25 Nissan Motor Co Ltd Object detector

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014154062A (en) 2013-02-13 2014-08-25 Nissan Motor Co Ltd Object detector

Also Published As

Publication number Publication date
JP2020126304A (en) 2020-08-20

Similar Documents

Publication Publication Date Title
JP5906224B2 (en) Outside environment recognition device
US10442438B2 (en) Method and apparatus for detecting and assessing road reflections
JP5886809B2 (en) Outside environment recognition device
CN109997148B (en) Information processing apparatus, imaging apparatus, device control system, moving object, information processing method, and computer-readable recording medium
JP7229032B2 (en) External object detection device
JP5955291B2 (en) Filtering device and environment recognition system
WO2011016257A1 (en) Distance calculation device for vehicle
JP6591188B2 (en) Outside environment recognition device
JP7356319B2 (en) Vehicle exterior environment recognition device
JP7261006B2 (en) External environment recognition device
JP2016186702A (en) Outside-vehicle environment recognition device
JP6174960B2 (en) Outside environment recognition device
JP6329438B2 (en) Outside environment recognition device
JP6174884B2 (en) Outside environment recognition device and outside environment recognition method
JP6378547B2 (en) Outside environment recognition device
JP2019028528A (en) Vehicle exterior environment recognition apparatus
JP7071102B2 (en) External environment recognition device
JP2022040651A (en) Vehicle outside environment recognition device
JP5890816B2 (en) Filtering device and environment recognition system
JP6273156B2 (en) Pedestrian recognition device
JP2016062308A (en) Vehicle outside environment recognition device
JP6523694B2 (en) Outside environment recognition device
JP6412345B2 (en) Outside environment recognition device
JP6831883B2 (en) Vehicle detection device
JP6329442B2 (en) Outside environment recognition device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210924

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220830

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221028

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230117

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230214

R150 Certificate of patent or registration of utility model

Ref document number: 7229032

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150