JP6378547B2 - Outside environment recognition device - Google Patents

Outside environment recognition device Download PDF

Info

Publication number
JP6378547B2
JP6378547B2 JP2014117303A JP2014117303A JP6378547B2 JP 6378547 B2 JP6378547 B2 JP 6378547B2 JP 2014117303 A JP2014117303 A JP 2014117303A JP 2014117303 A JP2014117303 A JP 2014117303A JP 6378547 B2 JP6378547 B2 JP 6378547B2
Authority
JP
Japan
Prior art keywords
image
stereoscopic image
vehicle
unit
edge
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014117303A
Other languages
Japanese (ja)
Other versions
JP2015231179A (en
Inventor
誠佑 笠置
誠佑 笠置
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Subaru Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Subaru Corp filed Critical Subaru Corp
Priority to JP2014117303A priority Critical patent/JP6378547B2/en
Publication of JP2015231179A publication Critical patent/JP2015231179A/en
Application granted granted Critical
Publication of JP6378547B2 publication Critical patent/JP6378547B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、自車両の周囲に存在する特定物を特定する車外環境認識装置に関する。   The present invention relates to a vehicle environment recognition apparatus that identifies a specific object existing around a host vehicle.

従来、自車両の前方に位置する車両等の特定物を特定し、先行車両との衝突を回避したり(衝突回避制御)、先行車両との車間距離を安全な距離に保つように制御する(クルーズコントロール)技術が知られている。このような自車両の前方監視技術により、先行車両や歩行者などの特定物との接触事故の回避や軽減にも効果が期待されている。   Conventionally, a specific object such as a vehicle positioned in front of the host vehicle is specified, and a collision with a preceding vehicle is avoided (collision avoidance control), or the distance between the preceding vehicle and the preceding vehicle is controlled to be kept at a safe distance ( (Cruise Control) technology is known. Such forward monitoring technology of the own vehicle is expected to be effective in avoiding and reducing contact accidents with specific objects such as preceding vehicles and pedestrians.

特定物の特定技術としては、例えば、レーダ装置によって障害物を検知し、自車両と障害物との相対速度に基づいて障害物が静止物体であるか否か判定する技術が知られている(例えば、特許文献1)。また、立体物が存在する判定対象領域内のエッジ成分のエッジ方向やエッジ強度の分布に基づいて立体物の種別を判定する技術も公開されている(例えば、特許文献2)。   As a specific object identification technique, for example, a technique is known in which an obstacle is detected by a radar device and whether or not the obstacle is a stationary object is determined based on the relative speed between the vehicle and the obstacle ( For example, Patent Document 1). In addition, a technique for determining the type of a three-dimensional object based on the edge direction and edge strength distribution of an edge component in a determination target region where a three-dimensional object exists is disclosed (for example, Patent Document 2).

特開2007−278892号公報JP 2007-278892 A 特開2007−156626号公報JP 2007-156626 A

しかし、上述した特許文献1の技術では、レーダ装置のみで立体物を判定しているので、立体物の形状を認識できず、特定物の特定精度に劣る。また、特許文献2の技術では、エッジ方向やエッジ強度の分布に応じて特定物の特定精度は高まるものの、昼や夜といった車外環境の変化や、それに伴う判定対象への光源の照射範囲の変化に適応していない。そのため、例えば、夜間の場合、ヘッドライトを点灯した時の先行車両の照射範囲は先行車両との相対距離によって変わり、先行車両の上下でエッジの特性が変動することになる。しかし、特許文献2の技術では、ヘッドライトによる先行車両の照射範囲の影響まで考慮されていないため、夜間では、自車両からのヘッドライトによる判定対象領域のエッジ成分に道路面のエッジ成分が含まれてしまうなど、エッジ成分の検出への対応が十分ではなく、適切に先行車両を特定できない問題があった。   However, in the technique of Patent Document 1 described above, since the solid object is determined only by the radar device, the shape of the solid object cannot be recognized, and the specific object is inferior in accuracy. Moreover, in the technique of Patent Document 2, although the accuracy of specifying a specific object increases according to the edge direction and the distribution of edge strength, the change in the environment outside the vehicle such as day and night, and the change in the irradiation range of the light source to the determination target associated therewith Not adapted to. Therefore, for example, at night, the irradiation range of the preceding vehicle when the headlight is turned on varies depending on the relative distance from the preceding vehicle, and the edge characteristics fluctuate above and below the preceding vehicle. However, in the technique of Patent Document 2, since the influence of the irradiation range of the preceding vehicle by the headlight is not taken into consideration, the edge component of the road surface is included in the edge component of the determination target region by the headlight from the own vehicle at night. There is a problem that the detection of the edge component is not sufficient, and the preceding vehicle cannot be specified appropriately.

本発明は、このような課題に鑑み、車外環境や照射範囲の変化に拘わらず特定物の特定精度を向上することが可能な車外環境認識装置を提供することを目的としている。   The present invention has been made in view of such problems, and an object of the present invention is to provide a vehicle environment recognition apparatus that can improve the accuracy of identifying a specific object regardless of changes in the vehicle environment or irradiation range.

上記課題を解決するために、本発明の車外環境認識装置は、撮像装置により撮像された画像内における立体像の垂直方向の輝度の分布に基づいて、立体像を垂直方向上下に分断する境界を導出する境界導出部と、境界の垂直方向上下のいずれか輝度の高い方の画像を用い、エッジ成分に基づいて立体像が所定の特定物か否か判定する特定物特定部と、を備えることを特徴とする。   In order to solve the above-described problem, the vehicle environment recognition apparatus according to the present invention has a boundary that divides a stereoscopic image in the vertical direction based on the vertical luminance distribution of the stereoscopic image in the image captured by the imaging device. A boundary deriving unit for deriving, and a specific object specifying unit that determines whether a stereoscopic image is a predetermined specific object based on an edge component using an image having a higher luminance in the vertical direction above or below the boundary. It is characterized by.

境界導出部は、立体像を垂直方向に分割した、水平方向に延伸する複数の第1分割領域を生成し、複数の第1分割領域同士の輝度の差分に基づいて境界を導出してもよい。   The boundary deriving unit may generate a plurality of first divided regions extending in the horizontal direction by dividing the stereoscopic image in the vertical direction, and deriving the boundary based on a difference in luminance between the plurality of first divided regions. .

画像が明状態か暗状態か判定する明暗判定部と、明状態であれば立体像の境界の上方を残し、暗状態であれば立体像の境界の下方を残し、残した立体像を水平方向に分割した、垂直方向に延伸する複数の第2分割領域を生成し、複数の第2分割領域のうち、中央に位置する第2分割領域内の、垂直方向に延伸する垂直エッジの数と、左右に位置する第2分割領域内の垂直エッジの数を計数するエッジ計数部と、をさらに備え、特定物特定部は、中央に位置する第2分割領域内の垂直エッジの数と、左右に位置する第2分割領域内の垂直エッジの数とに基づいて立体像が所定の特定物か否か判定してもよい。   A light / dark determination unit that determines whether the image is in a bright state or a dark state. A plurality of second divided regions extending in the vertical direction, and the number of vertical edges extending in the vertical direction in the second divided region located in the center among the plurality of second divided regions; An edge counting unit that counts the number of vertical edges in the second divided region located on the left and right, and the specific object specifying unit includes the number of vertical edges in the second divided region located in the center, It may be determined whether or not the stereoscopic image is a predetermined specific object based on the number of vertical edges in the second divided region.

特定物特定部は、中央に位置する第2分割領域内の垂直エッジの数が所定の閾値未満であり、かつ、左右に位置する第2分割領域内の垂直エッジが所定の閾値以上であれば、立体像を車両であると判定してもよい。   The specific object specifying unit is configured so that the number of vertical edges in the second divided region located at the center is less than a predetermined threshold value, and the vertical edges in the second divided regions located on the left and right are equal to or larger than the predetermined threshold value. The stereoscopic image may be determined to be a vehicle.

本発明によれば、車外環境や照射範囲に拘わらず特定物の特定精度を向上することが可能となる。   According to the present invention, it is possible to improve the accuracy of specifying a specific object regardless of the environment outside the vehicle and the irradiation range.

環境認識システムの接続関係を示したブロック図である。It is the block diagram which showed the connection relation of the environment recognition system. 車外環境の変化による立体像への光源の照射範囲の変化を説明するための説明図である。It is explanatory drawing for demonstrating the change of the irradiation range of the light source to the three-dimensional image by the change of a vehicle exterior environment. 車外環境認識装置の概略的な機能を示した機能ブロック図である。It is the functional block diagram which showed the schematic function of the external environment recognition apparatus. 車外環境認識処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a vehicle exterior environment recognition process. 輝度画像と距離画像を説明するための説明図である。It is explanatory drawing for demonstrating a luminance image and a distance image. グループ化処理を例示した説明図である。It is explanatory drawing which illustrated the grouping process. グループ化処理の他の例を示した説明図である。It is explanatory drawing which showed the other example of the grouping process. グループ化処理の他の例を示した説明図である。It is explanatory drawing which showed the other example of the grouping process. 立体像の制限を説明するための説明図である。It is explanatory drawing for demonstrating the restriction | limiting of a three-dimensional image. 明暗判定部の処理を説明するための説明図である。It is explanatory drawing for demonstrating the process of a brightness determination part. 境界導出部の動作を説明するための説明図である。It is explanatory drawing for demonstrating operation | movement of a boundary derivation | leading-out part. エッジ計数部の動作を説明するための説明図である。It is explanatory drawing for demonstrating operation | movement of an edge counting part. エッジ方向を説明するための説明図である。It is explanatory drawing for demonstrating an edge direction. 垂直エッジの出現態様を説明するための説明図である。It is explanatory drawing for demonstrating the appearance aspect of a vertical edge.

以下に添付図面を参照しながら、本発明の好適な実施形態について詳細に説明する。かかる実施形態に示す寸法、材料、その他具体的な数値などは、発明の理解を容易とするための例示にすぎず、特に断る場合を除き、本発明を限定するものではない。なお、本明細書および図面において、実質的に同一の機能、構成を有する要素については、同一の符号を付することにより重複説明を省略し、また本発明に直接関係のない要素は図示を省略する。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. The dimensions, materials, and other specific numerical values shown in the embodiment are merely examples for facilitating understanding of the invention, and do not limit the present invention unless otherwise specified. In the present specification and drawings, elements having substantially the same function and configuration are denoted by the same reference numerals, and redundant description is omitted, and elements not directly related to the present invention are not illustrated. To do.

(環境認識システム100)
図1は、環境認識システム100の接続関係を示したブロック図である。環境認識システム100は、自車両1内に設けられた、撮像装置110と、車外環境認識装置120と、車両制御装置(ECU:Engine Control Unit)130とを含んで構成される。
(Environment recognition system 100)
FIG. 1 is a block diagram showing a connection relationship of the environment recognition system 100. The environment recognition system 100 includes an imaging device 110, a vehicle exterior environment recognition device 120, and a vehicle control device (ECU: Engine Control Unit) 130 provided in the host vehicle 1.

撮像装置110は、CCD(Charge-Coupled Device)やCMOS(Complementary Metal-Oxide Semiconductor)等の撮像素子を含んで構成され、自車両1の前方に相当する環境を撮像し、輝度(Y)による輝度画像(モノクロ画像)、または、カラー値によるカラー画像を生成することができる。ここで、カラー値は、1つの輝度(Y)と2つの色差(U、V)からなるYUV形式の色空間、3つの色相(R(赤)、G(緑)、B(青))からなるRGB形式の色空間、または、色相(H)、彩度(S)、明度(B)からなるHSB形式の色空間のいずれかで表される数値群である。本実施形態では、少なくとも輝度(Y)を有していればよく、輝度画像およびカラー画像のいずれかであれば足りるので、撮像装置110は、輝度画像を生成するとして説明する。   The imaging device 110 is configured to include an imaging element such as a charge-coupled device (CCD) or a complementary metal-oxide semiconductor (CMOS). The imaging device 110 captures an environment corresponding to the front of the host vehicle 1 and brightness by luminance (Y). An image (monochrome image) or a color image with color values can be generated. Here, the color value is from a YUV format color space consisting of one luminance (Y) and two color differences (U, V), and three hues (R (red), G (green), B (blue)). A numerical value group represented by any one of the RGB color space or the HSB color space consisting of hue (H), saturation (S), and brightness (B). In the present embodiment, it is sufficient that at least the luminance (Y) is provided, and any one of the luminance image and the color image is sufficient. Therefore, the imaging apparatus 110 will be described as generating a luminance image.

また、撮像装置110は、自車両1の進行方向側において2つの撮像装置110それぞれの光軸が略平行になるように、略水平方向に離隔して配置される。撮像装置110は、自車両1の前方の検出領域に存在する立体物を撮像した輝度画像を、例えば1/60秒のフレーム毎(60fps)に連続して生成する。ここで、認識する立体物や、立体物に対応付けて特定する特定物は、車両、歩行者、自転車、信号機、道路、ガードレール、建物、道路の側壁、急勾配の坂といった立体的に独立して存在する物のみならず、テールランプやウィンカー、信号機の各点灯部分等、特定物の一部として特定できる物も含む。本実施形態の目的の一つは、輝度画像に含まれる立体像(立体物の像)を特定物、例えば車両として特定することにある。以下の実施形態における各機能部は、このような輝度画像の取得(更新)を契機としてフレーム毎に各処理を遂行する。   In addition, the imaging devices 110 are arranged in a substantially horizontal direction so that the optical axes of the two imaging devices 110 are substantially parallel on the traveling direction side of the host vehicle 1. The imaging device 110 continuously generates a luminance image obtained by imaging a three-dimensional object existing in the detection area in front of the host vehicle 1, for example, every 1/60 second frame (60 fps). Here, the three-dimensional object to be recognized and the specific object to be specified in association with the three-dimensional object are three-dimensionally independent such as vehicles, pedestrians, bicycles, traffic lights, roads, guardrails, buildings, road side walls, and steep slopes. In addition to existing objects, there are also those that can be specified as part of specific objects such as taillights, blinkers, and lighting parts of traffic lights. One of the objects of the present embodiment is to specify a three-dimensional image (three-dimensional object image) included in the luminance image as a specific object, for example, a vehicle. Each functional unit in the following embodiment performs each process for each frame triggered by such acquisition (update) of the luminance image.

車外環境認識装置120は、2つの撮像装置110それぞれから輝度画像を取得し、所謂パターンマッチングを用いて視差を導き出し、導出された視差情報(後述する相対距離に相当)を輝度画像に対応付けて距離画像を生成する。輝度画像および距離画像については後ほど詳述する。また、車外環境認識装置120は、輝度画像に基づく輝度、および、距離画像に基づく自車両1との相対距離zを用いて、自車両1前方の検出領域における立体像を抽出し、立体像の中から制御対象となる特定物を特定する。   The vehicle environment recognition device 120 acquires luminance images from the two imaging devices 110, derives parallax using so-called pattern matching, and associates the derived parallax information (corresponding to a relative distance described later) with the luminance image. Generate a distance image. The luminance image and the distance image will be described in detail later. Further, the vehicle exterior environment recognition device 120 extracts a stereoscopic image in a detection area in front of the host vehicle 1 using the luminance based on the luminance image and the relative distance z to the host vehicle 1 based on the distance image, and The specific object to be controlled is specified from the inside.

また、車外環境認識装置120は、特定物を特定すると、その特定物(例えば、先行車両)を追跡しつつ、特定物の相対速度等を導出し、特定物と自車両1とが衝突する可能性が高いか否かの判定を行う。ここで、衝突の可能性が高いと判定した場合、車外環境認識装置120は、その旨、運転者の前方に設置されたディスプレイ122を通じて運転者に警告表示(報知)を行うとともに、車両制御装置130に対して、その旨を示す情報を出力する。   Further, when the outside environment recognition device 120 identifies a specific object, the specific object and the host vehicle 1 may collide with each other by deriving the relative speed of the specific object while tracking the specific object (for example, a preceding vehicle). Judgment is made whether or not the property is high. Here, when it is determined that the possibility of the collision is high, the outside environment recognition device 120 displays a warning (notification) to the driver through the display 122 installed in front of the driver, and the vehicle control device. Information indicating that is output to 130.

車両制御装置130は、ステアリングホイール132、アクセルペダル134、ブレーキペダル136を通じて運転者の操作入力を受け付け、操舵機構142、駆動機構144、制動機構146に伝達することで自車両1を制御する。また、車両制御装置130は、車外環境認識装置120の指示に従い、駆動機構144、制動機構146を制御する。   The vehicle control device 130 receives a driver's operation input through the steering wheel 132, the accelerator pedal 134, and the brake pedal 136, and controls the host vehicle 1 by transmitting it to the steering mechanism 142, the drive mechanism 144, and the brake mechanism 146. In addition, the vehicle control device 130 controls the drive mechanism 144 and the braking mechanism 146 in accordance with instructions from the outside environment recognition device 120.

以上、説明したように、環境認識システム100では、輝度画像に含まれる立体像の中から、自車両1前方に存在する、例えば先行車両を特定し、先行車両への追従制御や、先行車両との衝突回避制御を実行する。したがって、環境認識システム100では、自車両1前方に存在する立体物が、先行車両等の移動物であるか、道路の側壁や急勾配の坂といった静止物であるか正確に判定する必要がある。そこで、例えば、抽出した立体像のエッジ成分(エッジ方向やエッジ強度)に基づいて、その立体像が車両であるか否か判定することが考えられる。   As described above, in the environment recognition system 100, for example, a preceding vehicle existing in front of the host vehicle 1 is identified from the three-dimensional images included in the luminance image, and follow-up control to the preceding vehicle, The collision avoidance control is executed. Therefore, in the environment recognition system 100, it is necessary to accurately determine whether the three-dimensional object existing in front of the host vehicle 1 is a moving object such as a preceding vehicle or a stationary object such as a road side wall or a steep slope. . Therefore, for example, based on the edge component (edge direction or edge strength) of the extracted stereoscopic image, it can be determined whether or not the stereoscopic image is a vehicle.

しかし、昼や夜といった車外環境の変化や、それに伴う立体像への光源の照射範囲の変化を考慮せず、単にエッジ成分に基づいて特定物(例えば先行車両)を特定しようとすると、特定物としての先行車両を正確に特定できない場合がある。   However, if you try to identify a specific object (for example, a preceding vehicle) simply based on the edge component without considering changes in the outside environment such as day and night and the corresponding change in the light source irradiation range to the stereoscopic image, In some cases, the preceding vehicle cannot be accurately identified.

図2は、車外環境の変化による立体像への光源の照射範囲の変化を説明するための説明図である。例えば、図2(a)のような立体像(先行車両の背面)に対し、昼間は、先行車両の上方に位置する太陽が主たる光源になることが多く、図2(b)に示すように、立体像への光源の照射範囲が、立体像の上部に限定され、立体像下部においては輝度が低くなる場合がある。このような状態においても、単に立体像全体を対象にエッジ成分を判定すると、立体像の上下でエッジ成分の特性が異なり、特に、立体像下部のエッジ方向が意図したエッジ方向とならず、先行車両を他の特定物、例えば、道路の側壁や急勾配の坂と誤判定する場合が生じ得る。また、昼間においては、トラックなど荷室が比較的上方に位置する車両は、逆光の状況下で、車両背面のうち下部の空間が影となり、暗く黒く見え、そもそもエッジ成分が無くなってしまう。また、順光の状況下では、その下部の空間に光が当たって路面表示が立体像として含まれることとなり、その模様がノイズとなることがある。   FIG. 2 is an explanatory diagram for explaining a change in the irradiation range of the light source onto the stereoscopic image due to a change in the environment outside the vehicle. For example, in contrast to a stereoscopic image (the back of the preceding vehicle) as shown in FIG. 2A, the sun located above the preceding vehicle is often the main light source during the day, as shown in FIG. The irradiation range of the light source to the stereoscopic image is limited to the upper portion of the stereoscopic image, and the luminance may be lowered at the lower portion of the stereoscopic image. Even in such a state, if the edge component is simply determined for the entire stereoscopic image, the characteristics of the edge component differ between the top and bottom of the stereoscopic image. In particular, the edge direction at the bottom of the stereoscopic image is not the intended edge direction, and the leading edge There may be a case where the vehicle is erroneously determined as another specific object, for example, a road side wall or a steep slope. Further, during the daytime, a vehicle such as a truck with a cargo compartment located relatively upward has a shadow in the lower part of the back of the vehicle under a backlit condition, and appears darker and has no edge component in the first place. Further, under the condition of normal light, light hits the space below it and the road surface display is included as a three-dimensional image, and the pattern may become noise.

一方、夜間は、先行車両後方から照射する自車両1のヘッドライトが光源になることが多く、図2(c)に示すように、先行車両の背面(後部面)への光源の照射範囲が、下部に限定され、立体像上部においては輝度が低くなる。このような状態においても、単に立体像全体を対象にエッジ成分を判定すると、立体像の上下でエッジ成分の特性が異なり、特に、立体像上部のエッジ方向が意図したエッジ方向とならず、先行車両を他の特定物、例えば、道路の側壁や急勾配の坂と誤判定する場合が生じ得る。   On the other hand, at night, the headlight of the host vehicle 1 that irradiates from behind the preceding vehicle often serves as the light source, and as shown in FIG. 2 (c), the irradiation range of the light source on the rear surface (rear surface) of the preceding vehicle is large. The luminance is limited to the lower part, and the luminance is lower in the upper part of the stereoscopic image. Even in such a state, if the edge component is simply determined for the entire stereoscopic image, the characteristics of the edge components differ between the top and bottom of the stereoscopic image. In particular, the edge direction at the top of the stereoscopic image is not the intended edge direction, and the leading edge There may be a case where the vehicle is erroneously determined as another specific object, for example, a road side wall or a steep slope.

そこで、本実施形態では、昼夜(明暗)を判定することで車外環境や照射範囲の変化を考慮し、立体像を適切に判定して、特定物の特定精度を向上することを目的とする。   Therefore, an object of the present embodiment is to improve the accuracy of specifying a specific object by appropriately determining a stereoscopic image in consideration of changes in the outside environment and irradiation range by determining day and night (brightness and darkness).

以下、車外環境認識装置120の構成について詳述する。ここでは、本実施形態に特徴的な立体像を、先行車両、道路の側壁、急勾配の坂のいずれかに特定する手順について詳細に説明し、本実施形態の特徴と無関係の構成については説明を省略する。   Hereinafter, the configuration of the outside environment recognition device 120 will be described in detail. Here, a procedure for specifying a stereoscopic image characteristic of the present embodiment as one of a preceding vehicle, a side wall of a road, or a steep slope is described in detail, and a configuration unrelated to the features of the present embodiment is described. Is omitted.

(車外環境認識装置120)
図3は、車外環境認識装置120の概略的な機能を示した機能ブロック図である。図3に示すように、車外環境認識装置120は、I/F部160と、データ保持部162と、中央制御部164とを含んで構成される。
(Vehicle environment recognition device 120)
FIG. 3 is a functional block diagram showing a schematic function of the outside environment recognition device 120. As shown in FIG. 3, the vehicle exterior environment recognition device 120 includes an I / F unit 160, a data holding unit 162, and a central control unit 164.

I/F部160は、撮像装置110や車両制御装置130との双方向の情報交換を行うためのインターフェースである。データ保持部162は、RAM、フラッシュメモリ、HDD等で構成され、以下に示す各機能部の処理に必要な様々な情報を保持し、また、撮像装置110から受信した輝度画像を一時的に保持する。   The I / F unit 160 is an interface for performing bidirectional information exchange with the imaging device 110 and the vehicle control device 130. The data holding unit 162 includes a RAM, a flash memory, an HDD, and the like. The data holding unit 162 holds various information necessary for processing of each function unit described below, and temporarily holds a luminance image received from the imaging device 110. To do.

中央制御部164は、中央処理装置(CPU)、プログラム等が格納されたROM、ワークエリアとしてのRAM等を含む半導体集積回路で構成され、システムバス166を通じて、I/F部160、データ保持部162等を制御する。また、本実施形態において、中央制御部164は、画像処理部170、3次元位置導出部172、グループ化部174、立体像追跡部176、明暗判定部178、境界導出部180、エッジ計数部182、特定物特定部184としても機能する。   The central control unit 164 is configured by a semiconductor integrated circuit including a central processing unit (CPU), a ROM storing programs, a RAM as a work area, and the like, and through the system bus 166, an I / F unit 160, a data holding unit 162 and the like are controlled. In the present embodiment, the central control unit 164 includes the image processing unit 170, the three-dimensional position deriving unit 172, the grouping unit 174, the stereoscopic image tracking unit 176, the brightness determination unit 178, the boundary deriving unit 180, and the edge counting unit 182. Also, it functions as the specific object specifying unit 184.

(車外環境認識処理)
図4は、車外環境認識処理の流れを示すフローチャートである。車外環境認識処理では、画像処理部170が、撮像装置110から取得した画像を処理し(S200)、3次元位置導出部172が、画像から3次元位置を導出し(S202)、グループ化部174が、3次元位置に基づいてグループ化された立体像を生成する(S204)。また、立体像追跡部176が立体像を追跡し(S206)、明暗判定部178が、車外環境が明状態か暗状態か判定し(S208)、境界導出部180が、立体像を垂直方向上下に分断する境界を導出し(S210)、エッジ計数部182が、立体像の判定対象の領域を絞り、その絞った領域中の垂直エッジの数を計数する(S212)。そして、特定物特定部184がその結果に応じて特定物を特定する(S214)。ここで、「垂直」は画面縦方向を示し、後述する「水平」は画面横方向を示す。以下、個々の処理を詳述する。
(External vehicle environment recognition processing)
FIG. 4 is a flowchart showing the flow of the external environment recognition process. In the outside environment recognition processing, the image processing unit 170 processes the image acquired from the imaging device 110 (S200), the three-dimensional position deriving unit 172 derives the three-dimensional position from the image (S202), and the grouping unit 174 Generates a three-dimensional image grouped based on the three-dimensional position (S204). In addition, the stereoscopic image tracking unit 176 tracks the stereoscopic image (S206), the light / dark determination unit 178 determines whether the environment outside the vehicle is bright or dark (S208), and the boundary deriving unit 180 vertically moves the stereoscopic image vertically. The boundary that is divided into two is derived (S210), and the edge counting unit 182 narrows down the region to be determined for the stereoscopic image, and counts the number of vertical edges in the narrowed region (S212). And the specific thing specific | specification part 184 specifies a specific thing according to the result (S214). Here, “vertical” indicates the vertical direction of the screen, and “horizontal” described later indicates the horizontal direction of the screen. Hereinafter, each process is explained in full detail.

(画像処理S200)
画像処理部170は、2つの撮像装置110それぞれから輝度画像を取得し、一方の輝度画像から任意に抽出したブロック(例えば水平4画素×垂直4画素の配列)に対応するブロックを他方の輝度画像から検索する、所謂パターンマッチングを用いて視差を導き出す。
(Image processing S200)
The image processing unit 170 acquires a luminance image from each of the two imaging devices 110, and selects a block corresponding to a block arbitrarily extracted from one luminance image (for example, an array of horizontal 4 pixels × vertical 4 pixels) as the other luminance image. The parallax is derived using so-called pattern matching that is searched from the above.

このパターンマッチングとしては、2つの輝度画像間において、任意の画像位置を示すブロック単位で輝度(Y色差信号)を比較することが考えられる。例えば、輝度の差分をとるSAD(Sum of Absolute Difference)、差分を2乗して用いるSSD(Sum of Squared intensity Difference)や、各画素の輝度から平均値を引いた分散値の類似度をとるNCC(Normalized Cross Correlation)等の手法がある。画像処理部170は、このようなブロック単位の視差導出処理を検出領域(例えば水平600画素×垂直180画素)に映し出されている全てのブロックについて行う。ここでは、ブロックを水平4画素×垂直4画素としているが、ブロック内の画素数は任意に設定することができる。以下、かかる視差情報を導出する単位となるブロックを視差ブロックと称する。   As this pattern matching, it is conceivable to compare the luminance (Y color difference signal) in units of blocks indicating an arbitrary image position between two luminance images. For example, SAD (Sum of Absolute Difference) that takes a luminance difference, SSD (Sum of Squared Intensity Difference) that uses the difference squared, or NCC that takes the similarity of a variance value obtained by subtracting an average value from the luminance of each pixel There are methods such as (Normalized Cross Correlation). The image processing unit 170 performs such block-unit parallax derivation processing for all blocks displayed in the detection area (for example, horizontal 600 pixels × vertical 180 pixels). Here, the block is assumed to be horizontal 4 pixels × vertical 4 pixels, but the number of pixels in the block can be arbitrarily set. Hereinafter, a block that is a unit for deriving such parallax information is referred to as a parallax block.

ただし、画像処理部170では、検出分解能単位である視差ブロック毎に視差を導出することはできるが、その視差ブロックがどのような立体像の一部であるかを認識できない。したがって、視差情報は、立体像単位ではなく、検出領域における検出分解能単位(例えば視差ブロック単位)で独立して導出されることとなる。ここでは、このようにして導出された視差情報(後述する相対距離zに相当)を輝度画像に対応付けた画像を距離画像という。   However, the image processing unit 170 can derive the parallax for each parallax block that is a unit of detection resolution, but cannot recognize what kind of stereoscopic image the parallax block is. Therefore, the parallax information is independently derived not in units of stereoscopic images but in units of detection resolution in the detection region (for example, units of parallax blocks). Here, an image in which the parallax information derived in this way (corresponding to a relative distance z described later) is associated with a luminance image is referred to as a distance image.

図5は、輝度画像212と距離画像214を説明するための説明図である。例えば、2つの撮像装置110を通じ、検出領域216について図5(a)のような輝度画像212が生成されたとする。ただし、ここでは、理解を容易にするため、撮像装置110それぞれが生成した2つの輝度画像212の一方のみを模式的に示している。本実施形態において、画像処理部170は、このような輝度画像212から視差ブロック毎の視差を求め、図5(b)のような距離画像214を生成する。距離画像214における各視差ブロックには、その視差ブロックの視差が関連付けられている。ここでは、説明の便宜上、視差が導出された視差ブロックを黒のドットで表している。   FIG. 5 is an explanatory diagram for explaining the luminance image 212 and the distance image 214. For example, it is assumed that a luminance image 212 as shown in FIG. 5A is generated for the detection region 216 through the two imaging devices 110. However, here, for easy understanding, only one of the two luminance images 212 generated by each of the imaging devices 110 is schematically illustrated. In the present embodiment, the image processing unit 170 obtains the parallax for each parallax block from such a luminance image 212 and generates a distance image 214 as shown in FIG. Each parallax block in the distance image 214 is associated with the parallax of the parallax block. Here, for convenience of explanation, the parallax block from which the parallax is derived is represented by black dots.

(3次元位置導出処理S202)
図3に戻って説明すると、3次元位置導出部172は、画像処理部170で生成された距離画像214に基づいて検出領域216内の視差ブロック毎の視差情報(視差ブロック中の画素は全て視差ブロックと等しい視差情報を有する。)を、所謂ステレオ法を用いて、水平距離x、高さyおよび相対距離zを含む実空間における3次元位置に変換する。ここで、ステレオ法は、三角測量法を用いることで、画素の距離画像214における視差からその画素の撮像装置110に対する相対距離zを導出する方法である。このような処理の最小単位である画像部位としては、かかる画素の他、複数の画素からなるブロックを用いることもできる。このとき、3次元位置導出部172は、画素の相対距離zと、画素と同相対距離zにある道路表面上の点と画素との距離画像214上の検出距離とに基づいて、画素の道路表面からの高さyを導出する。そして、導出された3次元位置を改めて距離画像214に対応付ける。かかる相対距離zの導出処理や3次元位置の特定処理は、様々な公知技術を適用できるので、ここでは、その説明を省略する。
(Three-dimensional position derivation process S202)
Returning to FIG. 3, the three-dimensional position deriving unit 172 performs disparity information for each disparity block in the detection region 216 based on the distance image 214 generated by the image processing unit 170 (all the pixels in the disparity block are disparity). A parallax information equal to that of a block) is converted into a three-dimensional position in a real space including a horizontal distance x, a height y, and a relative distance z using a so-called stereo method. Here, the stereo method is a method of deriving the relative distance z of the pixel with respect to the imaging device 110 from the parallax in the distance image 214 of the pixel by using a triangulation method. In addition to such pixels, a block made up of a plurality of pixels can also be used as the image portion that is the minimum unit of such processing. At this time, the three-dimensional position deriving unit 172 determines the pixel road based on the relative distance z of the pixel and the detected distance on the distance image 214 between the point on the road surface and the pixel at the same relative distance z to the pixel. Deriving the height y from the surface. Then, the derived three-dimensional position is associated with the distance image 214 again. Since various known techniques can be applied to the relative distance z deriving process and the three-dimensional position specifying process, the description thereof is omitted here.

(グループ化処理S204)
グループ化部174は、3次元位置の差分が所定範囲内にある画素同士をグループ化して立体像とする。具体的に、グループ化部174は、距離画像214における、水平距離xの差分、高さyの差分および相対距離zの差分が予め定められた範囲(例えば0.1m)内にある画素同士を、同一の特定物に対応すると仮定してグループ化する。こうして、仮想的な画素群である立体像が生成される。上記の範囲は実空間上の距離で表され、製造者や搭乗者によって任意の値に設定することができる。また、グループ化部174は、グループ化により新たに追加された画素に関しても、その画素を基点として、水平距離xの差分、高さyの差分および相対距離zの差分が所定範囲内にある画素をさらにグループ化する。結果的に、同一の特定物と仮定可能な画素全てがグループ化されることとなる。
(Grouping process S204)
The grouping unit 174 groups pixels having a three-dimensional position difference within a predetermined range to form a stereoscopic image. Specifically, the grouping unit 174 selects pixels in the distance image 214 that are within a predetermined range (for example, 0.1 m) in the difference in the horizontal distance x, the difference in the height y, and the difference in the relative distance z. , Grouping on the assumption that they correspond to the same specific thing. In this way, a stereoscopic image that is a virtual pixel group is generated. The above range is represented by a distance in real space, and can be set to an arbitrary value by a manufacturer or a passenger. The grouping unit 174 also applies to pixels newly added as a result of grouping, with the pixel being the base point, the difference in the horizontal distance x, the difference in the height y, and the difference in the relative distance z are within a predetermined range. Are further grouped. As a result, all pixels that can be assumed to be the same specific object are grouped.

また、ここでは、水平距離xの差分、高さyの差分および相対距離zの差分をそれぞれ独立して判定し、全てが所定範囲に含まれる場合のみ同一のグループとしているが、他の計算によることもできる。例えば、水平距離xの差分、高さyの差分および相対距離zの差分の二乗平均√((水平距離xの差分)+(高さyの差分)+(相対距離zの差分))が所定範囲に含まれる場合に同一のグループとしてもよい。かかる計算により、画素同士の実空間上の正確な距離を導出することができるので、グループ化精度を高めることができる。 Here, the horizontal distance x difference, the height y difference, and the relative distance z difference are determined independently, and only when all are included in a predetermined range, the same group is used. You can also. For example, the root mean square of the difference in horizontal distance x, the difference in height y, and the difference in relative distance z ((difference in horizontal distance x) 2 + (difference in height y) 2 + (difference in relative distance z) 2 ) Are included in the predetermined range, the same group may be used. With this calculation, an accurate distance between pixels in real space can be derived, so that the grouping accuracy can be improved.

図6は、グループ化処理S204を例示した説明図である。例えば、図6(a)のような輝度画像212において、グループ化部174は、図6(b)に一点鎖線で囲んだように、距離画像214に基づく3次元位置を用いて、水平距離xの差分、高さyの差分および相対距離zの差分が予め定められた範囲内にある画素同士をグループ化する。このとき、グループ化部174は、立体像(画素の集合体)とともに、立体像が含まれる、外形線が水平線および垂直線からなる矩形状(以下、単に矩形状という)のウィンドウを設定する。なお、図6(b)では、説明の便宜上、水平距離xおよび相対距離zの関係のみ記載し、高さyについては省略している。   FIG. 6 is an explanatory diagram illustrating the grouping process S204. For example, in the luminance image 212 as shown in FIG. 6A, the grouping unit 174 uses the three-dimensional position based on the distance image 214 as shown in FIG. , A difference in height y, and a difference in relative distance z are grouped together in a predetermined range. At this time, the grouping unit 174 sets a rectangular window (hereinafter simply referred to as a rectangular shape) whose outline is composed of a horizontal line and a vertical line, including a stereoscopic image (an aggregate of pixels) and a stereoscopic image. In FIG. 6B, for convenience of explanation, only the relationship between the horizontal distance x and the relative distance z is shown, and the height y is omitted.

具体的に、グループ化部174は、図6(a)に示す、先行車両220aの画素を、図6(b)に一点鎖線で示したように、3次元位置に基づいてグループ化し、図6(c)のように矩形状のウィンドウ222aを生成する。同様に、グループ化部174は、図6(a)に示す、人220bの画素を、図6(b)に一点鎖線で示したように、3次元位置に基づいてグループ化し、図6(c)のように矩形状のウィンドウ222bを生成する。   Specifically, the grouping unit 174 groups the pixels of the preceding vehicle 220a shown in FIG. 6A based on the three-dimensional position as shown by a one-dot chain line in FIG. A rectangular window 222a is generated as shown in FIG. Similarly, the grouping unit 174 groups the pixels of the person 220b shown in FIG. 6A based on the three-dimensional positions as shown by the one-dot chain line in FIG. The rectangular window 222b is generated as shown in FIG.

本実施形態では、このような自車両1前方に位置する複数のウィンドウ222のうち、特に、追従制御や衝突回避制御の対象となり得る先行車両の立体像を含むウィンドウ222を特定することを目的とする。しかし、明らかに先行車両ではない位置にあるウィンドウを先行車両の可能性があるウィンドウと判定したり、先行車両と判定すべきウィンドウを先行車両の可能性があるウィンドウから除外してしまう場合がある。以下では、このような状況が生じる具体的な事例を挙げ、その対応策を述べる。   In the present embodiment, among the plurality of windows 222 positioned in front of the host vehicle 1, in particular, the window 222 including a stereoscopic image of a preceding vehicle that can be a target of follow-up control or collision avoidance control is specified. To do. However, a window that is clearly not a preceding vehicle may be determined as a window that may be a preceding vehicle, or a window that should be determined as a preceding vehicle may be excluded from windows that may be a preceding vehicle. . In the following, we will give specific examples of how this situation occurs and describe how to deal with it.

まず、明らかに先行車両ではない位置にあるウィンドウを先行車両の可能性があるウィンドウと判定してしまう例としては、道路の側方に位置する樹木、ガードレール、壁、さらに、急勾配の坂の一部を先行車両の可能性があるウィンドウ222と判定することが挙げられる。これらの立体像に対してエッジ成分を判定すると、立体像のエッジ方向がランダムに出現し、エッジ成分に関するヒストグラムの分布が車両の分布と類似する場合がある。そうすると、かかる立体像が車両でないにも拘わらず、車両(先行車両)として特定してしまうおそれがある。   First, examples of determining a window that is clearly not a preceding vehicle as a window that may be a preceding vehicle include trees, guardrails, walls, and steep slopes located on the side of the road. For example, it is determined that a part of the window 222 may be a preceding vehicle. When the edge component is determined for these stereoscopic images, the edge direction of the stereoscopic image appears randomly, and the histogram distribution regarding the edge components may be similar to the vehicle distribution. In this case, the stereoscopic image may be specified as a vehicle (preceding vehicle) even though it is not a vehicle.

また、先行車両と判定すべきウィンドウを先行車両の可能性があるウィンドウから除外してしまう例としては、逆光となる条件下で先行車両を撮像する場合がある。この場合、輝度画像212中、先行車両の背景(前方の風景)が白色に近く、かつ、輝度が高くなり、その反面、先行車両自体は黒色に近く、かつ、輝度が低くなる。そうすると、先行車両の背面の模様が認識不可能となり、エッジ成分を抽出できず、先行車両として特定できなくなる。また、先行車両が冷凍車等の特殊車両であると、背面に模様やエッジが少ない場合がある。この場合も、先行車両の模様が認識不可能となり、エッジ成分を抽出できず、先行車両として特定できなくなる。   Moreover, as an example of excluding the window that should be determined as the preceding vehicle from the window that may be the preceding vehicle, there is a case where the preceding vehicle is imaged under the condition of backlight. In this case, in the luminance image 212, the background of the preceding vehicle (the scenery in front) is close to white and the luminance is high. On the other hand, the preceding vehicle itself is close to black and the luminance is low. Then, the pattern on the back of the preceding vehicle cannot be recognized, the edge component cannot be extracted, and cannot be specified as the preceding vehicle. Further, when the preceding vehicle is a special vehicle such as a freezer car, there are cases where there are few patterns and edges on the back surface. Also in this case, the pattern of the preceding vehicle cannot be recognized, the edge component cannot be extracted, and cannot be specified as the preceding vehicle.

そこで、本実施形態のグループ化部174は、ウィンドウ222(立体像)の左右両方の近傍領域における立体像との相対距離の変化態様が連続していない場合に、立体像を導出することとする。   Therefore, the grouping unit 174 according to the present embodiment derives a stereoscopic image when the change of the relative distance from the stereoscopic image in both the left and right neighboring regions of the window 222 (stereoscopic image) is not continuous. .

図7は、グループ化処理S204の他の例を示した説明図である。図7(a)に示した、道路の側方に位置する壁(フェンス)は、道路に沿って鉛直方向に立設している。したがって、道路が湾曲(カーブ)している場合には、図7(a)に示すように、壁が自車両1の前方に位置することとなるので、グループ化部174が、壁の複数の部分を、図7(b)に示すように、それぞれ個別にグループ化し、先行車両の可能性があるウィンドウ222として認識してしまう場合がある。   FIG. 7 is an explanatory diagram showing another example of the grouping process S204. The wall (fence) located on the side of the road shown in FIG. 7A is erected in the vertical direction along the road. Therefore, when the road is curved (curved), as shown in FIG. 7A, the wall is positioned in front of the host vehicle 1, so that the grouping unit 174 has a plurality of walls. As shown in FIG. 7B, the portions may be individually grouped and recognized as a window 222 that may be a preceding vehicle.

ここで、図7(b)を参照すると、図7(a)の各ウィンドウ222中の立体像は、元々連続した壁なので、相対距離の変化態様が連続している。すなわち、水平距離に対する相対距離の変化量の変動が少ないのが理解できる。そこで、グループ化部174は、ウィンドウ222(立体像)の左右両方の近傍領域における立体像の相対距離の変化態様が連続している場合、そのウィンドウ222を、先行車両の可能性があるウィンドウ222から除外し、相対距離の変化態様が連続していない場合にのみ、そのウィンドウ222を、先行車両の可能性があるウィンドウ222とする。こうして、明らかに先行車両ではない位置にあるウィンドウ222を先行車両の可能性があるウィンドウ222から除外することが可能となる。   Here, referring to FIG. 7 (b), the stereoscopic image in each window 222 in FIG. 7 (a) is originally a continuous wall, so that the relative distance change mode is continuous. That is, it can be understood that the variation of the change amount of the relative distance with respect to the horizontal distance is small. In view of this, the grouping unit 174 determines that the window 222 (a stereoscopic image) has a possibility that the preceding vehicle may be a preceding vehicle 222 when the change of the relative distance of the stereoscopic image in both the left and right neighboring regions of the window 222 (stereoscopic image) continues. Only when the relative distance change mode is not continuous, the window 222 is set as a window 222 that may be a preceding vehicle. In this way, it is possible to exclude the window 222 that is clearly not in the preceding vehicle from the window 222 that may be the preceding vehicle.

また、図7(c)では、逆光となる条件下で先行車両を撮像しているので、先行車両自体は黒色に近く、かつ、輝度が低くなっている。しかし、図7(d)を参照すると、図7(c)の各ウィンドウ222中の立体像は、左右両方の近傍領域の立体像と相対距離、および、相対距離の変化態様が異なる。すなわち、水平距離に対する相対距離の変化態様が連続していない。そこで、グループ化部174は、ウィンドウ222(立体像)の左右両方の近傍領域における立体像の相対距離の変化態様が連続していないことをもって、そのウィンドウ222を、先行車両の可能性があるウィンドウ222とする。こうして、先行車両と判定すべきウィンドウ222を除外することなく、適切に判定対象とすることが可能となる。   Moreover, in FIG.7 (c), since the preceding vehicle is imaged on the conditions which become backlight, the preceding vehicle itself is near black and the brightness | luminance is low. However, referring to FIG. 7D, the stereoscopic image in each window 222 in FIG. 7C is different from the stereoscopic image of both the left and right neighboring regions in the relative distance and the change mode of the relative distance. That is, the change of the relative distance with respect to the horizontal distance is not continuous. Accordingly, the grouping unit 174 determines that the window 222 (a three-dimensional image) has a possibility of being a preceding vehicle when the change of the relative distance of the three-dimensional image is not continuous in the left and right neighboring regions of the window 222 (three-dimensional image). 222. In this way, it is possible to appropriately set the determination target without excluding the window 222 to be determined as the preceding vehicle.

図8は、グループ化処理S204の他の例を示した説明図である。本実施形態では、先行車両の確からしさを判定するため、後述するように、先行車両の背面のみを判定対象としている。したがって、グループ化部174は、先行車両の背面のみを立体像としてグループ化するのが望ましい。この点に関し、通常、先行車両と自車両1とは、同方向に進行していることが多いので、先行車両の背面のみが立体像として取得されるはずである。しかし、図8(a)のように、自車両1が走行している道路が湾曲している場合、先行車両が左右何れかに向かい、先行車両の進行方向と自車両1の進行方向とが有意な角度を有すこととなり、また、交差点を先行車両が左折または右折する場合も先行車両の進行方向と自車両1の進行方向とが有意な角度を有すこととなる。この場合、先行車両の背面のみならず、先行車両の側面の一部も立体像として取得されることがある。   FIG. 8 is an explanatory diagram showing another example of the grouping process S204. In the present embodiment, in order to determine the likelihood of the preceding vehicle, as described later, only the back surface of the preceding vehicle is set as the determination target. Therefore, it is desirable that the grouping unit 174 groups only the back surface of the preceding vehicle as a stereoscopic image. In this regard, usually, the preceding vehicle and the host vehicle 1 are often traveling in the same direction, and therefore only the rear surface of the preceding vehicle should be acquired as a three-dimensional image. However, as shown in FIG. 8A, when the road on which the host vehicle 1 is traveling is curved, the preceding vehicle is directed to the left or right, and the traveling direction of the preceding vehicle and the traveling direction of the host vehicle 1 are different. It has a significant angle, and also when the preceding vehicle turns left or right at the intersection, the traveling direction of the preceding vehicle and the traveling direction of the host vehicle 1 have a significant angle. In this case, not only the back surface of the preceding vehicle but also a part of the side surface of the preceding vehicle may be acquired as a stereoscopic image.

そうすると、グループ化部174は、図8(b)のように、側面の一部も含んだ立体像をグループ化し、図8(a)のように、その立体像に対して先行車両の可能性があるウィンドウ222を生成することとなる。この場合、先行車両の背面を判定する際に、側面のエッジ成分がノイズとして混在することとなり、先行車両の特定に支障を来すおそれがある。   Then, the grouping unit 174 groups the stereoscopic images including a part of the side surface as shown in FIG. 8B, and the possibility of the preceding vehicle with respect to the stereoscopic image as shown in FIG. 8A. A certain window 222 is generated. In this case, when the back surface of the preceding vehicle is determined, the edge components of the side surfaces are mixed as noise, which may hinder the identification of the preceding vehicle.

ここで、図8(b)を参照すると、図8(a)のウィンドウ222中の立体像では、その立体像の左右の近傍領域224の一方において、ここでは、左の近傍領域224において、先行車両の側面のうち背面に近い一部のみが背面と共にグループ化されている場合がある。したがって、先行車両の進行方向と自車両1の進行方向とが有意な角度を有している場合、立体像の左右一方の近傍領域224、ここでは、左の近傍領域224に対応する領域の相対距離が、図8(b)の二点鎖線のように傾斜していれば、その近傍領域224の右方向(先行車両の左部)において、先行車両の側面が取得されている可能性が高いこととなる。   Here, referring to FIG. 8B, in the stereoscopic image in the window 222 of FIG. 8A, in the one of the left and right neighboring regions 224 of the stereoscopic image, here, in the left neighboring region 224, Only a part of the vehicle side surface close to the back surface may be grouped together with the back surface. Accordingly, when the traveling direction of the preceding vehicle and the traveling direction of the host vehicle 1 have a significant angle, the relative positions of the regions corresponding to the left and right neighboring regions 224 of the stereoscopic image, here the left neighboring region 224, are compared. If the distance is inclined as indicated by a two-dot chain line in FIG. 8B, there is a high possibility that the side surface of the preceding vehicle is acquired in the right direction (the left part of the preceding vehicle) of the vicinity region 224. It will be.

そこで、立体像の左右一方の近傍領域224において相対距離が傾斜していれば、グループ化部174は、図8(b)に示すように、立体像において、近傍領域224から連続して相対距離が傾斜している領域226を、先行車両の可能性があるウィンドウ222から除外する。ここで、連続して相対距離が傾斜している領域226は、ウィンドウ222の左端から、図8(b)に二点鎖線で示す、左の近傍領域224の相対距離の傾斜と、実線で示す、立体像の背面の傾斜との交点までとする。   Therefore, if the relative distance is inclined in one of the left and right neighboring areas 224 of the stereoscopic image, the grouping unit 174 continuously displays the relative distance from the neighboring area 224 in the stereoscopic image as shown in FIG. Is excluded from the window 222 that may be a preceding vehicle. Here, the region 226 in which the relative distance continuously inclines is indicated by a solid line and an inclination of the relative distance of the left neighboring region 224 indicated by a two-dot chain line in FIG. 8B from the left end of the window 222. And the intersection with the slope of the back of the stereoscopic image.

また、車両の幅が例えば1.5mと大凡決まっている場合、例えば、ウィンドウ222のうち、相対距離が傾斜している領域と反対側の端部(ここではウィンドウ222の右端)から水平距離にして1.5mの部分までを残し、その部分から左の領域を固定的に除外してもよい。例えば、図8(a)の例では、右端から1.5mの位置から左の領域を除外することとなる。こうして、図8(c)のように、ウィンドウ222の水平方向の幅が絞られ、先行車両の背面のみを立体像として取得することが可能となる。   Further, when the width of the vehicle is roughly determined to be, for example, 1.5 m, for example, the horizontal distance from the end of the window 222 opposite to the region where the relative distance is inclined (the right end of the window 222 in this case). Up to 1.5 m, and the left area may be fixedly excluded from that part. For example, in the example of FIG. 8A, the left region is excluded from a position 1.5 m from the right end. Thus, as shown in FIG. 8C, the horizontal width of the window 222 is reduced, and only the back surface of the preceding vehicle can be acquired as a stereoscopic image.

(立体像追跡処理S206)
立体像追跡部176は、グループ化部174がグループ化した立体像(ウィンドウ222)を追跡する。かかる立体像を追跡する手順は既存の様々な技術を適用できるので、ここではその詳細な説明を省略する。
(Stereoscopic image tracking process S206)
The stereoscopic image tracking unit 176 tracks the stereoscopic images (window 222) grouped by the grouping unit 174. Since various existing techniques can be applied to the procedure for tracking such a stereoscopic image, detailed description thereof is omitted here.

ところで、環境認識システム100では、自車両1の前方の検出領域に位置する立体像が先行車両であるか否か判定することを目的の一つとしている。しかし、先行車両の判定は、テンプレートとの比較や、ハフ変換、色情報の取得等、様々な手法を用いるため、処理負荷が重くなる。特に、自車両1の前方の検出領域に位置する立体像の数には制限が無いので、その全ての立体像に対して判定を行うとすると、処理負荷が増大するおそれがある。そこで、本実施形態では、自車両1の進行方向に対応する進行路と、立体像追跡部176が追跡している立体像とに基づいて、判定対象となる立体像を制限する。   By the way, in the environment recognition system 100, it is set as one of the objectives to determine whether the three-dimensional image located in the detection area ahead of the own vehicle 1 is a preceding vehicle. However, since the preceding vehicle is determined using various methods such as comparison with a template, Hough conversion, and acquisition of color information, the processing load becomes heavy. In particular, since the number of stereoscopic images located in the detection area in front of the host vehicle 1 is not limited, if determination is performed for all the stereoscopic images, the processing load may increase. Therefore, in the present embodiment, the stereoscopic image to be determined is limited based on the traveling path corresponding to the traveling direction of the host vehicle 1 and the stereoscopic image tracked by the stereoscopic image tracking unit 176.

図9は、立体像の制限を説明するための説明図である。例えば、図9のように、立体像232aが、自車両1の進行方向に対応する、図9に一点鎖線で示した進行路230上に位置している場合、その立体像232aを判定対象とする。また、立体像232aが存在しない(進行路230に何ら立体像が位置していない)場合、進行路230との水平距離の差が最短の立体像、例えば、立体像232bを判定対象とする。   FIG. 9 is an explanatory diagram for explaining the limitation of a stereoscopic image. For example, as illustrated in FIG. 9, when the stereoscopic image 232 a is located on the traveling path 230 indicated by a one-dot chain line in FIG. 9 corresponding to the traveling direction of the host vehicle 1, the stereoscopic image 232 a is determined as a determination target. To do. When the stereoscopic image 232a does not exist (no stereoscopic image is located on the traveling path 230), the stereoscopic image having the shortest horizontal distance from the traveling path 230, for example, the stereoscopic image 232b is determined.

また、かかる条件の代わりに、もしくは、かかる条件に加え、図9でハッチングしたように、立体像追跡部176が追跡している立体像232aが、進行路230との水平距離の差が所定範囲内に維持されている(含まれている)ことをもって、その立体像232aを判定対象とすることができる。後述する境界導出部180では、このように、進行路230との水平距離の差が最短の立体像、または、進行路230との水平距離の差が所定範囲内に維持された立体像を判定対象として、所定の処理を実行する。かかる構成により、自車両1の前方の検出領域に複数の立体像が位置する場合であっても、処理負荷を軽減することが可能となる。   Further, instead of or in addition to such a condition, as shown in hatching in FIG. 9, the three-dimensional image 232a tracked by the three-dimensional image tracking unit 176 has a difference in the horizontal distance from the traveling path 230 within a predetermined range. The three-dimensional image 232a can be determined as being determined (contained). In this way, the boundary deriving unit 180 described later determines a stereoscopic image having the shortest horizontal distance difference from the traveling path 230 or a stereoscopic image in which the horizontal distance difference from the traveling path 230 is maintained within a predetermined range. A predetermined process is executed as a target. With this configuration, it is possible to reduce the processing load even when a plurality of stereoscopic images are located in the detection area in front of the host vehicle 1.

(明暗判定処理S208)
明暗判定部178は、輝度画像212の輝度に応じて明状態か暗状態か判定する。かかる明状態は主として車外環境の輝度が高い昼間を、暗状態は主として車外環境の輝度が低い夜間を示すが、かかる場合に限らず、例えば、昼間であってもトンネル内を走行する場合に暗状態としてもよい。
(Brightness determination process S208)
The light / dark determination unit 178 determines whether the light state or the dark state according to the luminance of the luminance image 212. Such a bright state mainly indicates a daytime when the brightness of the outside environment is high, and a dark state mainly indicates a nighttime when the brightness of the outside environment is low, but this is not the case, for example, it is dark when traveling in a tunnel even in the daytime. It is good also as a state.

図10は、明暗判定部178の処理を説明するための説明図である。まず、明暗判定部178は、輝度画像212中の所定の位置に対応する3つの対象点240における所定のブロックに含まれる所定数の画素の輝度を抽出し、対象点240毎に輝度の平均を導出する。さらに、明暗判定部178は、導出した3つの平均値をさらに平均し、3つの対象点240全ての輝度の平均値(全体平均値)を導出する。そして、明暗判定部178は、その全体平均値と所定の閾値とを比較し、全体平均値が閾値以上であれば、明状態と判定し、全体平均値が閾値未満であれば、暗状態と判定する。   FIG. 10 is an explanatory diagram for explaining the processing of the light / dark determination unit 178. First, the brightness determination unit 178 extracts the luminance of a predetermined number of pixels included in a predetermined block at three target points 240 corresponding to a predetermined position in the luminance image 212, and calculates the average luminance for each target point 240. To derive. Further, the light / dark determination unit 178 further averages the derived three average values, and derives an average value (overall average value) of the luminances of all the three target points 240. Then, the light / dark determination unit 178 compares the overall average value with a predetermined threshold value, determines that the overall average value is equal to or greater than the threshold value, determines the bright state, and if the overall average value is less than the threshold value, judge.

上記では、輝度画像212に基づいて明状態か暗状態か判定する例を挙げたが、かかる場合に限らず、撮像装置110のシャッタの開閉時間やゲインとそれぞれの閾値を比較する等、既存の様々な手順によって明状態か暗状態か判定することができる。また、上記では、全体平均値と閾値との1回の比較によって明状態か暗状態か判定する例を挙げたが、かかる場合に限らず、全体平均値と閾値との比較結果に応じて明状態と暗状態にそれぞれポイントを加減算し、その総数に応じて明状態か暗状態かを判定するとしてもよい。   In the above, an example in which a bright state or a dark state is determined based on the luminance image 212 has been described. However, the present invention is not limited to this, and the existing opening / closing time and gain of the imaging device 110 are compared with respective threshold values. Whether the light state or the dark state can be determined by various procedures. In the above description, an example in which a bright state or a dark state is determined by one-time comparison between the overall average value and the threshold value is described. However, the present invention is not limited to this. Points may be added to or subtracted from the state and the dark state, respectively, and the light state or the dark state may be determined according to the total number.

(境界導出処理S210)
境界導出部180は、グループ化部174によって生成された立体像を含むウィンドウ222の垂直方向の輝度の分布に基づいて、ウィンドウ222を垂直方向上下に分断する境界を導出する。以下、境界導出部180の具体的な動作を説明する。
(Boundary derivation process S210)
The boundary deriving unit 180 derives a boundary that divides the window 222 in the vertical direction based on the vertical luminance distribution of the window 222 including the stereoscopic image generated by the grouping unit 174. Hereinafter, a specific operation of the boundary deriving unit 180 will be described.

図11は、境界導出部180の動作を説明するための説明図である。図2を用いて説明したように、明状態では、図11(a)の左に示すように、立体像への光源の照射範囲が、立体像の上部に限定され、立体像下部においては輝度が低くなる。一方、暗状態では、図11(b)の左に示すように、先行車両の背面(後部面)への光源の照射範囲が、下部に限定され、立体像上部においては輝度が低くなる。そこで、境界導出部180は、その輝度の変化の境目(境界)を導出する。   FIG. 11 is an explanatory diagram for explaining the operation of the boundary deriving unit 180. As described with reference to FIG. 2, in the bright state, as shown on the left side of FIG. 11A, the illumination range of the light source to the stereoscopic image is limited to the upper part of the stereoscopic image, and the luminance is below the stereoscopic image. Becomes lower. On the other hand, in the dark state, as shown on the left side of FIG. 11B, the light source irradiation range to the back surface (rear surface) of the preceding vehicle is limited to the lower part, and the luminance is lower in the upper part of the stereoscopic image. Therefore, the boundary deriving unit 180 derives the boundary (boundary) of the change in luminance.

具体的に、境界導出部180は、まず、ウィンドウ222を垂直方向に分割し、水平方向に延伸する複数(ここでは10)の第1分割領域250を生成する。続いて、境界導出部180は、図11(a)および図11(b)の右に示すように、分割した複数の第1分割領域250毎に第1分割領域250内の全ての画素における輝度の平均値を導出する。ここでは、理解を容易にするために垂直方向に10分割する例を挙げているが、分割数はかかる場合に限らず、必要な分解能に応じて任意に決定することができる。   Specifically, the boundary deriving unit 180 first divides the window 222 in the vertical direction and generates a plurality (here, 10) of first divided regions 250 extending in the horizontal direction. Subsequently, the boundary deriving unit 180, as shown on the right in FIG. 11 (a) and FIG. 11 (b), the luminance in all pixels in the first divided region 250 for each of the plurality of divided first divided regions 250. The average value of is derived. Here, in order to facilitate understanding, an example of dividing into 10 in the vertical direction is given, but the number of divisions is not limited to this, and can be arbitrarily determined according to the required resolution.

次に、境界導出部180は、明暗判定部178が判定した結果に基づき、明状態であれば垂直上方から検索し、輝度が所定の閾値以上低下する変化点を導出し、暗状態であれば同様に垂直上方から検索し、輝度が所定の閾値以上上昇する変化点を導出する。そして、その変化点は、水平方向に延伸する立体像内の境界252となる。図11を参照すると、境界252の上下で照射態様が反転しているのが理解でき、その境が境界252となる。   Next, based on the result determined by the light / dark determination unit 178, the boundary deriving unit 180 searches from above in the vertical direction if it is bright, derives a change point where the luminance decreases by a predetermined threshold or more, and if it is dark, Similarly, a search is performed from vertically above, and a change point at which the luminance increases by a predetermined threshold value or more is derived. The change point becomes a boundary 252 in the stereoscopic image extending in the horizontal direction. Referring to FIG. 11, it can be understood that the irradiation mode is inverted above and below the boundary 252, and the boundary becomes the boundary 252.

(エッジ計数処理S212)
続いて、エッジ計数部182と特定物特定部184とは、境界導出部180が導出した境界252の垂直方向上下のいずれか輝度の高い方の画像を用い、エッジ成分に基づいて立体像が所定の特定物か否か判定する。具体的に、まず、エッジ計数部182は、境界導出部180が導出した境界252に基づいて、先行車両の背面におけるエッジ成分の出現態様を特定する。
(Edge Counting Process S212)
Subsequently, the edge counting unit 182 and the specific object specifying unit 184 use a higher brightness image in the vertical direction of the boundary 252 derived by the boundary deriving unit 180, and a stereoscopic image is predetermined based on the edge component. It is determined whether it is a specific item. Specifically, first, the edge counting unit 182 specifies the appearance mode of the edge component on the back surface of the preceding vehicle based on the boundary 252 derived by the boundary deriving unit 180.

図12は、エッジ計数部182の動作を説明するための説明図である。まず、エッジ計数部182は、境界導出部180が導出した境界252に基づいてウィンドウ222を絞る。具体的に、エッジ計数部182は、図12(a)に示すように、明状態であればウィンドウ222(立体像)の境界252の下方を除外して上方を残し、図12(b)に示すように、暗状態であればウィンドウ222の境界252の上方を除外して下方を残し、それをエッジ成分の判定対象とする。   FIG. 12 is an explanatory diagram for explaining the operation of the edge counting unit 182. First, the edge counting unit 182 narrows down the window 222 based on the boundary 252 derived by the boundary deriving unit 180. Specifically, as shown in FIG. 12A, the edge counting unit 182 excludes the lower side of the boundary 252 of the window 222 (stereoscopic image) and leaves the upper side as shown in FIG. As shown in the figure, if it is a dark state, the upper part of the boundary 252 of the window 222 is excluded and the lower part is left, and this is used as an edge component determination target.

次に、エッジ計数部182は、図12(a)および図12(b)に示すように、このようにして残した部分を、水平方向に分割し、垂直方向に延伸する複数(ここでは3)の第2分割領域260を生成する。そして、エッジ計数部182は、かかる複数の第2分割領域260毎に、その中に含まれる画素毎のエッジ方向を導出する。ここで、エッジ方向は、エッジの延伸方向を示す。   Next, as shown in FIGS. 12A and 12B, the edge counting unit 182 divides the portion left in this way in the horizontal direction and extends a plurality of (here 3). ) Second divided region 260 is generated. Then, the edge counting unit 182 derives an edge direction for each pixel included in each of the plurality of second divided regions 260. Here, the edge direction indicates the extending direction of the edge.

図13は、エッジ方向を説明するための説明図である。図13(a)に示すように、第2分割領域260における4画素からなる任意のブロック262を拡大すると、図13(b)のような輝度分布となっていたとする。また、輝度の範囲を0〜255とし、図13(b)中、仮に、白色の塗りつぶしを輝度「200」、黒色の塗りつぶしを輝度「0」とする。ここでは、仮に、ブロック262の図中左上画素の輝度をA、右上画素の輝度をB、左下画素の輝度をC、右下画素の輝度をDとし、エッジ方向の水平方向成分を(A+B)−(C+D)、エッジ方向の垂直方向成分を(B+D)−(A+C)と定義する。   FIG. 13 is an explanatory diagram for explaining the edge direction. As shown in FIG. 13A, when an arbitrary block 262 composed of four pixels in the second divided region 260 is enlarged, the luminance distribution as shown in FIG. 13B is obtained. Further, the luminance range is 0 to 255, and in FIG. 13B, it is assumed that the white fill is luminance “200” and the black fill is luminance “0”. Here, it is assumed that the luminance of the upper left pixel in the block 262 is A, the luminance of the upper right pixel is B, the luminance of the lower left pixel is C, the luminance of the lower right pixel is D, and the horizontal component in the edge direction is (A + B). -(C + D), and the vertical component of the edge direction is defined as (B + D)-(A + C).

すると、図13(b)に示すブロック262のエッジ方向の水平方向成分は、(A+B)−(C+D)=(200+0)−(200+0)=0となり、エッジ方向の垂直方向成分は、(B+D)−(A+C)=(0+0)−(200+200)=−400となる。したがって、水平方向成分「0」、垂直方向成分「−400」となり、エッジ方向は、図13(c)の如く垂直方向下向き(負)の矢印で示される。ただし、図13(d)のように、水平成分は画面右方向を正、垂直成分は画面上方向を正としている。こうして導出されたエッジ方向はブロック内の4つの画素全てに対応付けられる。すなわち、ブロック内の4つの画素は全て同じエッジ方向を有することとなる。   Then, the horizontal component in the edge direction of the block 262 shown in FIG. 13B is (A + B) − (C + D) = (200 + 0) − (200 + 0) = 0, and the vertical component in the edge direction is (B + D). − (A + C) = (0 + 0) − (200 + 200) = − 400. Therefore, the horizontal direction component is “0” and the vertical direction component is “−400”, and the edge direction is indicated by a vertically downward (negative) arrow as shown in FIG. However, as shown in FIG. 13D, the horizontal component is positive in the screen right direction, and the vertical component is positive in the screen upward direction. The edge direction thus derived is associated with all four pixels in the block. That is, all four pixels in the block have the same edge direction.

このように、ブロック内の半分の領域から他の半分の領域を減算する構成により、ブロック内全体に含まれる輝度のオフセットやノイズを取り除くことができ、エッジを適切に抽出することが可能となる。また、加減算のみの単純計算でエッジ方向を導出できるので、計算負荷を軽減できる。   As described above, the configuration in which the other half area is subtracted from the half area in the block can remove the luminance offset and noise included in the entire block, and can appropriately extract the edge. . In addition, since the edge direction can be derived by simple calculation with only addition and subtraction, the calculation load can be reduced.

本実施形態では、このように導出されたエッジ方向を累積し、その割合を導出することを目的としている。しかし、上記水平方向成分や垂直方向成分を導出した値をそのまま用いて単純にエッジ方向としてしまうと、そのエッジ方向のバリエーションが無限に存在することとなる。そうすると、その無限のバリエーションに対して同一とみなしてよいエッジ方向の範囲を設定しなければならない。   The purpose of this embodiment is to accumulate the edge directions derived in this way and derive the ratio. However, if the values derived from the horizontal direction component and the vertical direction component are used as they are and the edge direction is simply used, there are infinite variations in the edge direction. Then, the edge direction range that can be regarded as the same for the infinite variation must be set.

そこで、本実施形態では、水平方向成分および垂直方向成分のいずれも単位長さで定義し、エッジ方向のバリエーションを単純化する。即ち、水平方向成分および垂直方向成分のいずれも−1、0、+1のいずれかとみなすこととする。そうすると、エッジ方向は、図13(e)のようにそれぞれ45度ずつの角度をなす8つの方向に限定することができる。例えば、上述した図13(b)の例では、エッジ方向は図13(e)の「7」の方向となる。こうすることで、エッジ計数部182の計算負荷を大幅に軽減することが可能となる。ただし、エッジ方向の導出手段は、かかる場合に限らず、エッジの出現態様を判定できる既存の様々な導出手段を適用することができる。   Therefore, in this embodiment, both the horizontal direction component and the vertical direction component are defined by unit length, and the variation in the edge direction is simplified. That is, both the horizontal direction component and the vertical direction component are assumed to be either -1, 0, or +1. Then, the edge directions can be limited to eight directions each having an angle of 45 degrees as shown in FIG. For example, in the example of FIG. 13B described above, the edge direction is the direction of “7” in FIG. In this way, the calculation load on the edge counting unit 182 can be greatly reduced. However, the edge direction deriving unit is not limited to such a case, and various existing deriving units that can determine the appearance mode of the edge can be applied.

エッジ計数部182は、このようなエッジ方向を、複数の第2分割領域260それぞれの全ての画素に対応するブロックに対して導出し、そのエッジ方向の数を第2分割領域260毎に累計する。このとき、エッジ計数部182は、第2分割領域260内の垂直エッジの数のみを計数する。垂直エッジは、垂直方向のエッジ、および、垂直方向から所定の角度範囲にある斜め方向のエッジを言う。例えば、図13(e)の例では、垂直方向のエッジである「3」および「7」、ならびに、斜め方向のエッジ「2」、「4」、「6」、「8」のエッジ方向である。したがって、ここでは、垂直エッジの角度範囲は、水平左方向を0とした場合に、22.5°〜157.5°、および、−22.5°〜−157.5°となる。ただし、垂直エッジの角度範囲は、かかる場合に限らず、任意に決定することができる。   The edge counting unit 182 derives such edge directions for blocks corresponding to all the pixels in each of the plurality of second divided areas 260, and accumulates the number of edge directions for each second divided area 260. . At this time, the edge counting unit 182 counts only the number of vertical edges in the second divided region 260. The vertical edge refers to an edge in a vertical direction and an edge in a diagonal direction within a predetermined angle range from the vertical direction. For example, in the example of FIG. 13E, in the edge directions “3” and “7” which are vertical edges, and the edge directions “2”, “4”, “6” and “8” which are diagonal directions. is there. Therefore, here, the angle range of the vertical edge is 22.5 ° to 157.5 ° and −22.5 ° to −157.5 ° when the horizontal left direction is zero. However, the angle range of the vertical edge is not limited to this, and can be arbitrarily determined.

また、ここでは、第2分割領域260それぞれの全ての画素に対応するブロックに対してエッジ方向を導出する例を挙げて説明しているが、かかる場合に限らず、エッジ方向の導出するブロックを所定数に制限してもよい。例えば、第2分割領域260の水平方向に所定間隔を空けて50画素、垂直方向に所定間隔を空けて50画素を抽出し、その画素に対応するブロックに対してエッジ方向を導出し、その50画素×50画素に関して垂直エッジを計数してもよい。   In addition, here, an example in which the edge direction is derived with respect to the blocks corresponding to all the pixels in the second divided region 260 has been described. However, the present invention is not limited to this, and the block from which the edge direction is derived is described. You may restrict | limit to a predetermined number. For example, 50 pixels are extracted at a predetermined interval in the horizontal direction of the second divided region 260 and 50 pixels are extracted at a predetermined interval in the vertical direction, and the edge direction is derived for the block corresponding to the pixel. Vertical edges may be counted for pixels × 50 pixels.

このように第2分割領域260毎に垂直エッジを計数するとしたのは、車両、道路の側壁、急勾配の坂で、第2分割領域260毎の垂直エッジの数が異なり、その比率によって車両、道路の側壁、急勾配の坂を識別できるからである。   In this way, the number of vertical edges for each second divided area 260 is counted on the vehicle, the side wall of the road, and the steep slope, and the number of vertical edges for each second divided area 260 differs, and the vehicle, This is because the side walls of the road and steep slopes can be identified.

図14は、垂直エッジの出現態様を説明するための説明図である。図14では、エッジ方向を示しているが、理解を容易にするため、分解能を低くして表している。図14に示すように、車両は、外形の左右端部に垂直エッジを多く含むので、第2分割領域260のうち、中央に位置する第2分割領域260内の垂直エッジの数は少なく、左右に位置する第2分割領域260内の垂直エッジが多くなる。また、道路の側壁は、エッジ成分がランダムに生じ全体的に垂直エッジを多く含むので、第2分割領域260それぞれの垂直エッジが比較的均一に多くなる。さらに、急勾配の坂は、全体的に水平方向のエッジ成分が多くなるので、第2分割領域260それぞれの垂直エッジが比較的均一に少なくなる。   FIG. 14 is an explanatory diagram for explaining an appearance mode of a vertical edge. In FIG. 14, the edge direction is shown, but the resolution is shown low for easy understanding. As shown in FIG. 14, since the vehicle includes many vertical edges at the left and right ends of the outer shape, the number of vertical edges in the second divided region 260 located in the center of the second divided regions 260 is small, and left and right The number of vertical edges in the second divided region 260 located in the region increases. Further, since the edge of the road is randomly generated and includes many vertical edges as a whole, the vertical edges of the second divided regions 260 are relatively uniformly increased. Furthermore, since the steep slope generally has a large amount of edge components in the horizontal direction, the vertical edges of the second divided regions 260 are relatively uniformly reduced.

(特定物特定処理S214)
特定物特定部184は、中央に位置する第2分割領域内の垂直エッジの数と左右に位置する第2分割領域内の垂直エッジの数とに基づいて立体像が所定の特定物か否か判定する。
(Specific object specifying process S214)
The specific object specifying unit 184 determines whether or not the stereoscopic image is a predetermined specific object based on the number of vertical edges in the second divided area located at the center and the number of vertical edges in the second divided area positioned on the left and right. judge.

具体的に、特定物特定部184は、複数の第2分割領域260毎に垂直エッジを計数し、それぞれの垂直エッジの数と所定の閾値とを比較し、その結果に応じて、ウィンドウ222内の立体像を以下の様に特定する。例えば、特定物特定部184は、中央に位置する第2分割領域260内の垂直エッジの数が所定の閾値未満であり、かつ、左右に位置する第2分割領域260内の垂直エッジの数が所定の閾値以上であれば、車両であると仮決定する。また、特定物特定部184は、中央に位置する第2分割領域260内の垂直エッジの数が所定の閾値以上であり、かつ、左右に位置する第2分割領域260内の垂直エッジの数が所定の閾値以上であれば、道路の側壁であると仮決定する。特定物特定部184は、中央に位置する第2分割領域260内の垂直エッジの数が所定の閾値未満であり、かつ、左右に位置する第2分割領域260内の垂直エッジの数が所定の閾値未満であれば、急勾配の坂であると仮決定する。   Specifically, the specific object specifying unit 184 counts the vertical edges for each of the plurality of second divided regions 260, compares the number of each vertical edge with a predetermined threshold value, and in the window 222 according to the result. The three-dimensional image is specified as follows. For example, the specific object specifying unit 184 has the number of vertical edges in the second divided region 260 located at the center being less than a predetermined threshold and the number of vertical edges in the second divided region 260 located on the left and right. If it is equal to or greater than a predetermined threshold, it is temporarily determined that the vehicle is a vehicle. Further, the specific object specifying unit 184 has the number of vertical edges in the second divided region 260 positioned at the center equal to or greater than a predetermined threshold and the number of vertical edges in the second divided region 260 positioned on the left and right. If it is equal to or greater than a predetermined threshold value, it is temporarily determined that the road side wall. The specific object specifying unit 184 has a number of vertical edges in the second divided region 260 located at the center being less than a predetermined threshold value, and a number of vertical edges in the second divided region 260 located on the left and right is a predetermined value. If it is less than the threshold value, it is temporarily determined that the slope is steep.

ここで、所定の閾値は、複数の試行から統計的に求めた予め定められた値である。また、所定の閾値は、先行車両の相対距離に応じ、相対距離が長ければ、より小さく、短ければ、より大きく変化させる。また、ウィンドウ222中の立体像の絶対的な大きさに応じ、トラック等、立体像が大きければ、より大きく、立体像が小さければ、より小さく変化させる。   Here, the predetermined threshold is a predetermined value obtained statistically from a plurality of trials. Further, the predetermined threshold is changed according to the relative distance of the preceding vehicle, and is smaller when the relative distance is long and larger when the relative distance is short. In addition, according to the absolute size of the stereoscopic image in the window 222, the size is changed if the stereoscopic image such as a track is large, and smaller if the stereoscopic image is small.

続いて、特定物特定部184は、ウィンドウ222に対してポイントを加算する。具体的に、特定物特定部184は、車両であると仮決定すると車両のポイントを例えば1加算し、他のポイントを例えば1減算もしくはリセットする。また、特定物特定部184は、道路の側壁であると仮決定すると道路の側壁のポイントを1加算し、他のポイントを1減算もしくはリセットする。特定物特定部184は、急勾配の坂であると仮決定すると急勾配の坂のポイントを1加算し、他のポイントを1減算もしくはリセットする。そして、車両、道路の側壁、または、急勾配の坂のいずれかのポイントが、時間経過に応じて所定のポイント以上となると、そのウィンドウ222は、ポイント以上となった立体像を特定物、例えば、車両であると特定する。かかるポイントの計数は、車両、道路の側壁、または、急勾配の坂それぞれに対して重み付けをしてもよい。   Subsequently, the specific object specifying unit 184 adds points to the window 222. Specifically, if the specific object specifying unit 184 tentatively determines that the vehicle is a vehicle, the vehicle point is added by 1 for example, and the other points are subtracted or reset by 1 for example. Also, if the specific object specifying unit 184 temporarily determines that the road is a side wall of the road, the specific object specifying unit 184 adds 1 to the point on the side wall of the road and subtracts or resets the other point by 1. When the specific object specifying unit 184 temporarily determines that the slope is a steep slope, the specific object specifying unit 184 adds 1 to the steep slope and subtracts or resets another point. Then, when any point of the vehicle, the side wall of the road, or the steep slope becomes equal to or higher than a predetermined point as time elapses, the window 222 displays the three-dimensional image that is equal to or higher than the point, for example, Identify the vehicle. Such point counting may be weighted for each vehicle, road side wall, or steep slope.

こうして、本実施形態の車外環境認識装置120では、車外環境や照射範囲の変化に拘わらず、判定対象となる範囲を適切に定め、その中のエッジ成分の分布に基づいて特定物を判定することで、特定物の特定精度を向上することが可能となる。また、特定物を適切に定めることで、衝突回避制御やクルーズコントロールの制御対象を適切に定めることができ、車両の走行安定性を向上することができる。   Thus, in the vehicle environment recognition apparatus 120 according to the present embodiment, the range to be determined is appropriately determined regardless of the environment outside the vehicle and the irradiation range, and the specific object is determined based on the distribution of the edge components therein. Thus, it is possible to improve the identification accuracy of the specific object. In addition, by appropriately determining the specific object, it is possible to appropriately determine the control target of the collision avoidance control and the cruise control, and it is possible to improve the running stability of the vehicle.

以上、添付図面を参照しながら本発明の好適な実施形態について説明したが、本発明はかかる実施形態に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。   As mentioned above, although preferred embodiment of this invention was described referring an accompanying drawing, it cannot be overemphasized that this invention is not limited to this embodiment. It will be apparent to those skilled in the art that various changes and modifications can be made within the scope of the claims, and these are naturally within the technical scope of the present invention. Is done.

例えば、上述した実施形態では、立体像を含むウィンドウ222を判定対象としたが、かかる場合に限らず、当然にして、立体像そのものを判定対象とすることもできる。   For example, in the above-described embodiment, the window 222 including a stereoscopic image is set as the determination target. However, the present invention is not limited to this, and the stereoscopic image itself can be determined as the determination target.

なお、本明細書の車外環境認識処理の各工程は、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はなく、並列的あるいはサブルーチンによる処理を含んでもよい。   It should be noted that each step of the vehicle environment recognition processing in the present specification does not necessarily have to be processed in time series in the order described in the flowchart, and may include processing in parallel or by a subroutine.

本発明は、自車両の周囲に存在する立体像を特定する車外環境認識装置に利用することができる。   INDUSTRIAL APPLICABILITY The present invention can be used for an outside vehicle environment recognition device that identifies a three-dimensional image existing around a host vehicle.

1 自車両
100 環境認識システム
110 撮像装置
120 車外環境認識装置
170 画像処理部
172 3次元位置導出部
174 グループ化部
176 立体像追跡部
178 明暗判定部
180 境界導出部
182 エッジ計数部
184 特定物特定部
250 第1分割領域
260 第2分割領域
DESCRIPTION OF SYMBOLS 1 Own vehicle 100 Environment recognition system 110 Imaging device 120 Outside vehicle environment recognition apparatus 170 Image processing part 172 Three-dimensional position deriving part 174 Grouping part 176 Three-dimensional image tracking part 178 Brightness determination part 180 Boundary deriving part 182 Edge counting part 184 Specific object specification Part 250 first divided area 260 second divided area

Claims (4)

撮像装置により撮像された画像内における立体像の垂直方向の輝度の分布に基づいて、該立体像を垂直方向上下に分断する境界を導出する境界導出部と、
前記境界の垂直方向上下のいずれか輝度の高い方の画像を用い、エッジ成分に基づいて前記立体像が所定の特定物か否か判定する特定物特定部と、
を備えることを特徴とする車外環境認識装置。
A boundary deriving unit for deriving a boundary for vertically dividing the stereoscopic image based on a vertical luminance distribution of the stereoscopic image in an image captured by the imaging device;
A specific object specifying unit that determines whether the three-dimensional image is a predetermined specific object based on an edge component using an image having a higher luminance in the vertical direction of the boundary;
A vehicle exterior environment recognition device comprising:
前記境界導出部は、前記立体像を垂直方向に分割した、水平方向に延伸する複数の第1分割領域を生成し、該複数の第1分割領域同士の輝度の差分に基づいて前記境界を導出することを特徴とする請求項1に記載の車外環境認識装置。   The boundary deriving unit generates a plurality of first divided regions extending in the horizontal direction by dividing the stereoscopic image in the vertical direction, and deriving the boundary based on a luminance difference between the plurality of first divided regions. The external environment recognition device according to claim 1, wherein: 前記画像が明状態か暗状態か判定する明暗判定部と、
明状態であれば前記立体像の前記境界の上方を残し、暗状態であれば前記立体像の該境界の下方を残し、該残した立体像を水平方向に分割した、垂直方向に延伸する複数の第2分割領域を生成し、該複数の第2分割領域のうち、中央に位置する第2分割領域内の、垂直方向に延伸する垂直エッジの数と、左右に位置する第2分割領域内の該垂直エッジの数を計数するエッジ計数部と、
をさらに備え、
前記特定物特定部は、前記中央に位置する第2分割領域内の垂直エッジの数と、前記左右に位置する第2分割領域内の垂直エッジの数とに基づいて前記立体像が所定の特定物か否か判定することを特徴とする請求項1または2に記載の車外環境認識装置。
A light / dark determination unit for determining whether the image is in a light state or a dark state;
If the light is bright, the upper part of the stereoscopic image is left above, and if it is dark, the lower part of the stereoscopic image is left below. Of the plurality of second divided areas, the number of vertical edges extending in the vertical direction in the second divided area located in the center, and the second divided area located on the left and right An edge counter for counting the number of vertical edges of
Further comprising
The specific object specifying unit is configured to specify the stereoscopic image based on the number of vertical edges in the second divided region located at the center and the number of vertical edges in the second divided region located on the left and right. It is determined whether it is a thing, The exterior environment recognition apparatus of Claim 1 or 2 characterized by the above-mentioned.
前記特定物特定部は、前記中央に位置する第2分割領域内の垂直エッジの数が所定の閾値未満であり、かつ、前記左右に位置する第2分割領域内の垂直エッジが所定の閾値以上であれば、前記立体像を車両であると判定することを特徴とする請求項3に記載の車外環境認識装置。   The specific object specifying unit is configured such that the number of vertical edges in the second divided region located at the center is less than a predetermined threshold, and the vertical edges in the second divided regions located on the left and right are equal to or larger than a predetermined threshold. If it is, it will determine with the said three-dimensional image being a vehicle, The exterior environment recognition apparatus of Claim 3 characterized by the above-mentioned.
JP2014117303A 2014-06-06 2014-06-06 Outside environment recognition device Active JP6378547B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014117303A JP6378547B2 (en) 2014-06-06 2014-06-06 Outside environment recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014117303A JP6378547B2 (en) 2014-06-06 2014-06-06 Outside environment recognition device

Publications (2)

Publication Number Publication Date
JP2015231179A JP2015231179A (en) 2015-12-21
JP6378547B2 true JP6378547B2 (en) 2018-08-22

Family

ID=54887754

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014117303A Active JP6378547B2 (en) 2014-06-06 2014-06-06 Outside environment recognition device

Country Status (1)

Country Link
JP (1) JP6378547B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7216526B2 (en) * 2018-11-21 2023-02-01 株式会社Subaru Vehicle exterior environment recognition device and vehicle exterior environment recognition method
JP7225074B2 (en) * 2019-10-08 2023-02-20 日立Astemo株式会社 Object recognition device

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07160846A (en) * 1993-12-06 1995-06-23 Toyota Motor Corp Forward object recognizing device
JP4832227B2 (en) * 2006-09-07 2011-12-07 富士重工業株式会社 Object detection apparatus and object detection method
JP5592308B2 (en) * 2011-05-19 2014-09-17 富士重工業株式会社 Environment recognition device
JP5518007B2 (en) * 2011-07-11 2014-06-11 クラリオン株式会社 Vehicle external recognition device and vehicle control system using the same

Also Published As

Publication number Publication date
JP2015231179A (en) 2015-12-21

Similar Documents

Publication Publication Date Title
JP5906224B2 (en) Outside environment recognition device
JP5886809B2 (en) Outside environment recognition device
JP6132412B2 (en) Outside environment recognition device
US20070221822A1 (en) Headlight, Taillight And Streetlight Detection
JP6034923B1 (en) Outside environment recognition device
JP6236039B2 (en) Outside environment recognition device
JP6420650B2 (en) Outside environment recognition device
US9524645B2 (en) Filtering device and environment recognition system
JP6378547B2 (en) Outside environment recognition device
KR101511586B1 (en) Apparatus and method for controlling vehicle by detection of tunnel
JP7229032B2 (en) External object detection device
JP7261006B2 (en) External environment recognition device
JP6174960B2 (en) Outside environment recognition device
JP6329438B2 (en) Outside environment recognition device
JP6240475B2 (en) Outside environment recognition device
KR20140054922A (en) Method and device for detecting front vehicle
JP6335065B2 (en) Outside environment recognition device
JP6378594B2 (en) Outside environment recognition device
JP6329442B2 (en) Outside environment recognition device
JP3532896B2 (en) Smear detection method and image processing apparatus using the smear detection method
JP6273156B2 (en) Pedestrian recognition device
JP6523694B2 (en) Outside environment recognition device
JP6254870B2 (en) Outside environment recognition device
JP6313667B2 (en) Outside environment recognition device
JP2016001434A (en) Outside-vehicle environment recognition device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170307

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171226

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180703

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180727

R150 Certificate of patent or registration of utility model

Ref document number: 6378547

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250