JP2017100593A - Outside-car environment recognition device - Google Patents

Outside-car environment recognition device Download PDF

Info

Publication number
JP2017100593A
JP2017100593A JP2015236022A JP2015236022A JP2017100593A JP 2017100593 A JP2017100593 A JP 2017100593A JP 2015236022 A JP2015236022 A JP 2015236022A JP 2015236022 A JP2015236022 A JP 2015236022A JP 2017100593 A JP2017100593 A JP 2017100593A
Authority
JP
Japan
Prior art keywords
line
sight guide
guide light
scene
lamp
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015236022A
Other languages
Japanese (ja)
Other versions
JP6670085B2 (en
Inventor
公彦 廣井
Kimihiko Hiroi
公彦 廣井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Subaru Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Subaru Corp filed Critical Subaru Corp
Priority to JP2015236022A priority Critical patent/JP6670085B2/en
Publication of JP2017100593A publication Critical patent/JP2017100593A/en
Application granted granted Critical
Publication of JP6670085B2 publication Critical patent/JP6670085B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Lighting Device Outwards From Vehicle And Optical Signal (AREA)
  • Traffic Control Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To perform proper light distribution control to a head lamp and avoid a recognition error of a visual guidance lamp.SOLUTION: An outside-car environment recognition device is configured so that a computer functions as: an oncoming vehicle extraction part for extracting head lamp candidates of oncoming vehicles from an image, with a condition in which, at least luminance of a pixel is equal to or more than a prescribed luminance threshold; a visual guidance lamp extraction part for extracting a visual guidance lamp from the extracted head lamp candidates, for excluding the visual guidance lamp from the head lamp candidates; an oncoming vehicle recognition part for recognizing oncoming vehicles based on the head lamp candidates; and a travel scene determination part for, based on extraction of the visual guidance lamp, determining whether or not, a scene is a scene in which the visual guidance lamp exists, and when it is determined that, the scene is the scene in which the visual guidance lamp exists, identifying an existence area 248 in which the visual guidance lamp exists. The oncoming vehicle extraction part sets the luminance threshold in the existence area to be higher than that in areas other than the existence area, when it is determined that the scene is the scene in which the visual guidance lamp exists.SELECTED DRAWING: Figure 13

Description

本発明は、車外環境に応じてヘッドランプの配光制御を行う車外環境認識装置に関する。   The present invention relates to a vehicle exterior environment recognition device that performs light distribution control of a headlamp according to a vehicle exterior environment.

従来、自車両の前方に位置する車両等の立体物を検出し、先行車両との衝突を回避したり(衝突回避制御)、先行車両との車間距離を安全な距離に保つように制御する(クルーズコントロール)技術が知られている(例えば、特許文献1)。   Conventionally, a three-dimensional object such as a vehicle positioned in front of the host vehicle is detected, and a collision with a preceding vehicle is avoided (collision avoidance control), or the distance between the preceding vehicle and the preceding vehicle is controlled to be kept at a safe distance ( (Cruise control) technology is known (for example, Patent Document 1).

また、夜間の安全走行のため、車外の明るさが十分ではなくなると自動的にヘッドランプを点灯させるオートライト機能の採用が進んでいる。また、モニタセンサから得られた露光情報に基づいて周囲環境の明るさを判定し、オートライトに活用する技術が知られている(例えば、特許文献2)。   In addition, for safe driving at night, the adoption of an autolight function that automatically turns on the headlamp when the brightness outside the vehicle is not sufficient is in progress. Also, a technique is known in which the brightness of the surrounding environment is determined based on exposure information obtained from a monitor sensor and used for autolight (for example, Patent Document 2).

特許第3349060号公報Japanese Patent No. 3349060 特開平11−187390号公報JP-A-11-187390

上記のようにオートライトを採用することで、運転手の判断に依らず、車外環境に応じて画一的にヘッドランプを点灯することができる。しかし、車外が暗くなっていても、走行中の対向車両に対し、ハイビームによる眩惑(グレア)を与えてはならない。そこで、撮像装置を通じて取得した画像から高輝度領域(ヘッドランプ)を抽出し、その高輝度領域に基づいて対向車両を認識すると、ハイビームをロービームに切り換えたり(HBA)、その対向車両が位置する領域を避けてハイビームを照射する(ADB)ようにしている。   By adopting the autolight as described above, the headlamp can be turned on uniformly according to the environment outside the vehicle regardless of the judgment of the driver. However, even when the outside of the vehicle is dark, the oncoming vehicle must not be dazzled (glare) by the high beam. Therefore, when a high brightness area (headlamp) is extracted from the image acquired through the imaging device and the oncoming vehicle is recognized based on the high brightness area, the high beam is switched to the low beam (HBA), or the area where the oncoming vehicle is located. The high beam is irradiated (ADB) avoiding the above.

しかし、進行路の路肩に位置する高輝度な視線誘導灯(スノーポール)を、誤ってヘッドランプと認識してしまうと、本来ハイビームを照射するのが望ましい視線誘導灯近傍に対し、ハイビームを照射しないといった制御が働いてしまう。   However, if a high-intensity gaze guidance lamp (snow pole) located on the shoulder of the traveling path is mistakenly recognized as a headlamp, a high beam is emitted to the vicinity of the gaze guidance lamp that should originally be illuminated with a high beam. Control such as not working.

本発明は、このような課題に鑑み、視線誘導灯の誤認識を回避し、ヘッドランプを適切に配光制御することが可能な、車外環境認識装置を提供することを目的としている。   The present invention has been made in view of such a problem, and an object of the present invention is to provide a vehicle environment recognition device that can avoid erroneous recognition of a line-of-sight guide light and can appropriately control light distribution of a headlamp.

上記課題を解決するために、本発明の車外環境認識装置は、コンピュータが、少なくとも画素の輝度が所定の輝度閾値以上であることを条件に、画像から対向車両のヘッドランプ候補を抽出する対向車両抽出部と、抽出されたヘッドランプ候補から視線誘導灯を抽出し、視線誘導灯をヘッドランプ候補から除外する視線誘導灯抽出部と、ヘッドランプ候補に基づいて対向車両を認識する対向車両認識部と、視線誘導灯の抽出に基づいて、視線誘導灯が存在するシーンであるか判定し、視線誘導灯が存在するシーンであると判定すると、視線誘導灯が存在する存在領域を特定する走行シーン判定部、として機能し、対向車両抽出部は、視線誘導灯が存在するシーンであると判定されれば、存在領域における輝度閾値を、存在領域以外の領域より高くすることを特徴とする。   In order to solve the above-described problem, the vehicle exterior environment recognition apparatus according to the present invention is a vehicle on the other hand that extracts a headlamp candidate of an oncoming vehicle from an image on the condition that at least the luminance of a pixel is equal to or higher than a predetermined luminance threshold. An extraction unit, a line-of-sight guide light extraction unit that extracts a line-of-sight guide light from the extracted headlamp candidates and excludes the line-of-sight guide light from the headlamp candidates, and an oncoming vehicle recognition unit that recognizes an oncoming vehicle based on the headlamp candidates Based on the extraction of the line-of-sight guide light, it is determined whether the scene is a scene where the line-of-sight guide light is present. The oncoming vehicle extraction unit functions as a determination unit. And wherein the Kusuru.

対向車両抽出部は、視線誘導灯が存在するシーンであると判定されれば、存在領域以外の領域における輝度閾値を下げてもよい。   The oncoming vehicle extraction unit may lower the brightness threshold in the area other than the existing area if it is determined that the scene includes the line-of-sight guide light.

本発明によれば、視線誘導灯の誤認識を回避し、ヘッドランプを適切に配光制御することが可能となる。   According to the present invention, it is possible to avoid misrecognition of the line-of-sight guide light and appropriately control the light distribution of the headlamp.

車外環境認識システムの接続関係を示したブロック図である。It is the block diagram which showed the connection relation of the external environment recognition system. 車外環境認識装置の概略的な機能を示した機能ブロック図である。It is the functional block diagram which showed the schematic function of the external environment recognition apparatus. 車外環境認識処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a vehicle exterior environment recognition process. 輝度画像と距離画像を説明するための説明図である。It is explanatory drawing for demonstrating a luminance image and a distance image. 検出範囲を説明するための説明図である。It is explanatory drawing for demonstrating a detection range. 露光時間の異なる輝度画像を説明するための説明図である。It is explanatory drawing for demonstrating the brightness | luminance image from which exposure time differs. 視線誘導灯の設置状態を説明するための説明図である。It is explanatory drawing for demonstrating the installation state of a gaze guidance lamp. 色の特徴を説明するための説明図である。It is explanatory drawing for demonstrating the characteristic of a color. 色の特徴を説明するための説明図である。It is explanatory drawing for demonstrating the characteristic of a color. 遠方の対向車両を説明するための説明図である。It is explanatory drawing for demonstrating a distant oncoming vehicle. 視線誘導灯抽出部の動作を示す説明図である。It is explanatory drawing which shows operation | movement of a gaze guidance light extraction part. 視線誘導灯の再判定を説明するための説明図である。It is explanatory drawing for demonstrating re-determination of a line-of-sight guide light. 存在領域を説明するための説明図である。It is explanatory drawing for demonstrating an existing area. 色の特徴を説明するための説明図である。It is explanatory drawing for demonstrating the characteristic of a color. 走行シーン判定部の動作を説明するための説明図である。It is explanatory drawing for demonstrating operation | movement of a driving scene determination part. 走行シーン判定部の判定処理の一例を示した説明図である。It is explanatory drawing which showed an example of the determination process of a driving scene determination part. 走行シーン判定部の判定処理の一例を示した説明図である。It is explanatory drawing which showed an example of the determination process of a driving scene determination part. 配光制御部の動作を示した説明図である。It is explanatory drawing which showed operation | movement of the light distribution control part. ADBの配光制御を説明した説明図である。It is explanatory drawing explaining the light distribution control of ADB. カットライン角度を説明するための上視面図である。It is an upper surface figure for demonstrating a cut line angle.

以下に添付図面を参照しながら、本発明の好適な実施形態について詳細に説明する。かかる実施形態に示す寸法、材料、その他具体的な数値などは、発明の理解を容易とするための例示にすぎず、特に断る場合を除き、本発明を限定するものではない。なお、本明細書および図面において、実質的に同一の機能、構成を有する要素については、同一の符号を付することにより重複説明を省略し、また本発明に直接関係のない要素は図示を省略する。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. The dimensions, materials, and other specific numerical values shown in the embodiment are merely examples for facilitating understanding of the invention, and do not limit the present invention unless otherwise specified. In the present specification and drawings, elements having substantially the same function and configuration are denoted by the same reference numerals, and redundant description is omitted, and elements not directly related to the present invention are not illustrated. To do.

(車外環境認識システム100)
図1は、車外環境認識システム100の接続関係を示したブロック図である。車外環境認識システム100は、撮像装置110と、車外環境認識装置120と、車両制御装置(ECU:Engine Control Unit)130とを含んで構成される。
(External vehicle environment recognition system 100)
FIG. 1 is a block diagram showing a connection relationship of the external environment recognition system 100. The vehicle exterior environment recognition system 100 includes an imaging device 110, a vehicle exterior environment recognition device 120, and a vehicle control device (ECU: Engine Control Unit) 130.

撮像装置110は、CCD(Charge-Coupled Device)やCMOS(Complementary Metal-Oxide Semiconductor)等の撮像素子を含んで構成され、自車両1の前方の車外環境を撮像し、少なくとも輝度の情報が含まれる輝度画像(カラー画像やモノクロ画像)を生成することができる。また、撮像装置110は、自車両1の進行方向側において2つの撮像装置110それぞれの光軸が略平行になるように、略水平方向に離隔して配置される。撮像装置110は、自車両1の前方の検出領域に存在する立体物を撮像した輝度画像を、例えば1/60秒のフレーム毎(60fps)に連続して生成する。ここでは、2つの撮像装置110によって異なる視点の輝度画像が生成されるので、立体物の距離も把握することが可能となる。ここで、撮像装置110によって認識する立体物は、車両(先行車両、対向車両)、歩行者、街灯、信号機、道路(進行路)、道路標識、ガードレール、建物といった独立して存在する物のみならず、その一部として特定できる物も含む。   The imaging device 110 is configured to include an imaging element such as a charge-coupled device (CCD) or a complementary metal-oxide semiconductor (CMOS), captures an environment outside the host vehicle 1 and includes at least luminance information. A luminance image (color image or monochrome image) can be generated. In addition, the imaging devices 110 are arranged in a substantially horizontal direction so that the optical axes of the two imaging devices 110 are substantially parallel on the traveling direction side of the host vehicle 1. The imaging device 110 continuously generates a luminance image obtained by imaging a three-dimensional object existing in the detection area in front of the host vehicle 1, for example, every 1/60 second frame (60 fps). Here, since the luminance images of different viewpoints are generated by the two imaging devices 110, the distance of the three-dimensional object can be grasped. Here, solid objects recognized by the imaging device 110 are only objects that exist independently such as vehicles (preceding vehicles, oncoming vehicles), pedestrians, street lights, traffic lights, roads (traveling paths), road signs, guardrails, and buildings. The thing which can be specified as a part of it is also included.

車外環境認識装置120は、2つの撮像装置110それぞれから輝度画像を取得し、一方の輝度画像から任意に抽出したブロック(複数の画素の集合体)に対応するブロックを他方の輝度画像から検索する、所謂パターンマッチングを用いて視差(奥行き距離)、および、任意のブロックの画面内の位置を示す画面位置を導出し、各ブロックの3次元位置を導出する。そして、車外環境認識装置120は、車外環境に存在する立体物、例えば、同方向に走行する先行車両や、対向して走行する対向車両を特定する。また、車外環境認識装置120は、このように立体物を特定すると、立体物との衝突を回避したり(衝突回避制御)、先行車両との車間距離を安全な距離に保つように自車両1を制御する(クルーズコントロール)。   The vehicle exterior environment recognition device 120 acquires a luminance image from each of the two imaging devices 110, and searches the other luminance image for a block corresponding to a block (an aggregate of a plurality of pixels) arbitrarily extracted from one luminance image. The so-called pattern matching is used to derive parallax (depth distance) and a screen position indicating the position of an arbitrary block in the screen, and a three-dimensional position of each block is derived. Then, the outside environment recognition device 120 identifies a three-dimensional object existing in the outside environment, for example, a preceding vehicle that travels in the same direction or an oncoming vehicle that travels oppositely. Further, when the three-dimensional object is specified in this way, the vehicle exterior environment recognition device 120 avoids a collision with the three-dimensional object (collision avoidance control), or keeps the distance between the vehicle and the preceding vehicle at a safe distance. Control (cruise control).

また、車外環境認識装置120では、照明スイッチ122を通じて運転手の要求(意思)を受け付け、車外環境に応じ、照明機構124を通じてヘッドランプ等の配光制御を行う。かかる配光制御として、例えば、ハイビームを照射すべきではない、先行車両や対向車両等の立体物が前方に存在する場合はハイビームをOFFにし、そうでない場合はONにするHBA(High Beam Assist)や、ハイビームを照射する領域を可変とし、ハイビームを照射すべきではない立体物が存在する場合、その領域のみハイビームを照射せず、その他の、街灯、道路標識、看板、反射板等の立体物が存在するであろう領域にはハイビームを照射するADB(Adaptive Driving Beam)が挙げられる。このような配光制御を実現すべく、例えば、照明スイッチ122として、ランプの点灯状態を、消灯、スモールランプ(ポジションランプ)、点灯(ロービーム)、オートライトのいずれかにポジションを切り換えるメインスイッチと、ハイビーム不可、ハイビーム可のいずれかにポジションを切り換えるディマースイッチを設けている。そして、照明機構124としては、HBAの場合、ロービームとハイビームを切り換える機構を有し、ADBの場合、ハイビームの領域を可変させる機構を有している。   In addition, the outside environment recognition device 120 receives a driver's request (intention) through the lighting switch 122 and performs light distribution control such as a headlamp through the lighting mechanism 124 according to the outside environment. As such light distribution control, for example, an HBA (High Beam Assist) that should not be irradiated with a high beam is turned off when a three-dimensional object such as a preceding vehicle or an oncoming vehicle is ahead, and turned on otherwise. If there is a solid object that should not be irradiated with a high beam when the area to be irradiated with the high beam is variable, other solid objects such as street lights, road signs, signboards, reflectors, etc. An ADB (Adaptive Driving Beam) that irradiates a high beam is an example of a region in which there is likely to exist. In order to realize such light distribution control, for example, as the illumination switch 122, a main switch that switches the position of the lamp to any one of the off, small lamp (position lamp), on (low beam), and auto lights. A dimmer switch is provided to switch the position between high beam impossible and high beam possible. In the case of HBA, the illumination mechanism 124 has a mechanism for switching between a low beam and a high beam, and in the case of ADB, the illumination mechanism 124 has a mechanism for changing the region of the high beam.

また、車両制御装置130は、ステアリングホイール132、アクセルペダル134、ブレーキペダル136を通じて運転手の操作入力を受け付け、操舵機構142、駆動機構144、制動機構146に伝達することで自車両1を制御する。また、車両制御装置130は、車外環境認識装置120の指示に従い、操舵機構142、駆動機構144、制動機構146を制御する。   Further, the vehicle control device 130 receives the driver's operation input through the steering wheel 132, the accelerator pedal 134, and the brake pedal 136, and transmits the operation input to the steering mechanism 142, the drive mechanism 144, and the brake mechanism 146 to control the host vehicle 1. . Further, the vehicle control device 130 controls the steering mechanism 142, the drive mechanism 144, and the braking mechanism 146 in accordance with instructions from the outside environment recognition device 120.

上述したように、車外環境認識システム100では、先行車両に対しクルーズコントロールしたり、先行車両や対向車両へハイビームを照射するのを回避したりするために、先行車両や対向車両を迅速かつ正確に特定することが要求される。当該車外環境認識システム100では、2つの撮像装置110による輝度画像を通じ、3次元位置の情報やカラー情報を取得することで、先行車両や対向車両を迅速かつ正確に特定し、ヘッドランプを適切に配光制御することを目的とする。   As described above, in the outside environment recognition system 100, the preceding vehicle and the oncoming vehicle are quickly and accurately detected in order to cruise control the preceding vehicle and to avoid irradiating the preceding vehicle and the oncoming vehicle with a high beam. It is required to specify. In the outside environment recognition system 100, the information of the three-dimensional position and the color information are acquired through the luminance images obtained by the two imaging devices 110, so that the preceding vehicle and the oncoming vehicle can be quickly and accurately identified, and the headlamp is appropriately set. The purpose is to control light distribution.

以下、このような目的を実現するための車外環境認識装置120の構成について詳述する。ここでは、本実施形態に特徴的な、ヘッドランプの配光制御について詳細に説明し、本実施形態の特徴と無関係の構成については説明を省略する。   Hereinafter, the configuration of the outside environment recognition device 120 for realizing such an object will be described in detail. Here, the light distribution control of the headlamp, which is characteristic of the present embodiment, will be described in detail, and the description of the configuration unrelated to the characteristics of the present embodiment will be omitted.

(車外環境認識装置120)
図2は、車外環境認識装置120の概略的な機能を示した機能ブロック図である。図2に示すように、車外環境認識装置120は、I/F部150と、データ保持部152と、中央制御部154とを含んで構成される。
(Vehicle environment recognition device 120)
FIG. 2 is a functional block diagram showing a schematic function of the outside environment recognition device 120. As shown in FIG. 2, the vehicle exterior environment recognition device 120 includes an I / F unit 150, a data holding unit 152, and a central control unit 154.

I/F部150は、撮像装置110、および、車両制御装置130との双方向の情報交換を行うためのインターフェースである。データ保持部152は、RAM、フラッシュメモリ、HDD等で構成され、以下に示す各機能部の処理に必要な様々な情報を保持する。   The I / F unit 150 is an interface for performing bidirectional information exchange with the imaging device 110 and the vehicle control device 130. The data holding unit 152 includes a RAM, a flash memory, an HDD, and the like, and holds various pieces of information necessary for processing of each functional unit described below.

中央制御部154は、中央処理装置(CPU)、プログラム等が格納されたROM、ワークエリアとしてのRAM等を含む半導体集積回路で構成され、システムバス156を通じて、I/F部150、データ保持部152等を制御する。また、本実施形態において、中央制御部154は、画像処理部160、3次元位置導出部162、要否判定部164、検出範囲設定部166、先行車両抽出部168、先行車両認識部170、対向車両抽出部172、視線誘導灯抽出部174、対向車両認識部176、街灯抽出部178、街灯認識部180、走行シーン判定部182、配光制御部184としても機能する。以下、本実施形態に特徴的なヘッドランプを配光制御する車外環境認識処理について、当該中央制御部154の各機能部の動作も踏まえて詳述する。   The central control unit 154 is configured by a semiconductor integrated circuit including a central processing unit (CPU), a ROM storing a program, a RAM as a work area, and the like, and through the system bus 156, an I / F unit 150, a data holding unit 152 and the like are controlled. In the present embodiment, the central control unit 154 includes an image processing unit 160, a three-dimensional position deriving unit 162, a necessity determination unit 164, a detection range setting unit 166, a preceding vehicle extraction unit 168, a preceding vehicle recognition unit 170, It also functions as a vehicle extraction unit 172, a line-of-sight guidance light extraction unit 174, an oncoming vehicle recognition unit 176, a streetlight extraction unit 178, a streetlight recognition unit 180, a traveling scene determination unit 182 and a light distribution control unit 184. Hereinafter, the vehicle environment recognition processing for controlling the light distribution of the headlamp characteristic to the present embodiment will be described in detail based on the operation of each functional unit of the central control unit 154.

(車外環境認識処理)
図3は、車外環境認識処理の流れを示すフローチャートである。車外環境認識処理では、画像処理部160が、撮像装置110から取得した画像を処理し(S200)、3次元位置導出部162が、画像から3次元位置を導出し(S202)、要否判定部164が、ヘッドランプのハイビームが不要か否かを判定し(S204)、ハイビームが不要と判定されれば(S204におけるYES)、当該車外環境認識処理を終了する。
(External vehicle environment recognition processing)
FIG. 3 is a flowchart showing the flow of the external environment recognition process. In the outside environment recognition processing, the image processing unit 160 processes the image acquired from the imaging device 110 (S200), the three-dimensional position deriving unit 162 derives the three-dimensional position from the image (S202), and the necessity determining unit. 164 determines whether or not the high beam of the headlamp is unnecessary (S204). If it is determined that the high beam is not required (YES in S204), the vehicle exterior environment recognition process is terminated.

また、ハイビームが不要ではないと判定されれば(S204におけるNO)、検出範囲設定部166が、取得した画像において、テールランプ、ヘッドランプ、街灯それぞれの検出範囲を決定し(S206)、先行車両抽出部168が、先行車両検出範囲からテールランプを抽出し(S208)、先行車両認識部170が、先行車両を認識し(S210)、対向車両抽出部172が、対向車両検出範囲からヘッドランプを抽出し(S212)、対向車両認識部176が、対向車両を認識し(S214)、街灯抽出部178が、街灯検出範囲から街灯を抽出し(S216)、街灯認識部180が、街灯を認識し(S218)、走行シーン判定部182が、街灯の位置情報等からハイビームを照射可能な走行シーンであるか否か判定し(S220)、配光制御部184が、先行車両、対向車両、および、走行シーンに基づいてヘッドランプの配光制御を実行し(S222)、当該車外環境認識処理を終了する。以下、個々の処理を詳述する。   If it is determined that the high beam is not necessary (NO in S204), the detection range setting unit 166 determines the detection ranges of the tail lamp, the headlamp, and the streetlight in the acquired image (S206), and extracts the preceding vehicle. The unit 168 extracts the tail lamp from the preceding vehicle detection range (S208), the preceding vehicle recognition unit 170 recognizes the preceding vehicle (S210), and the oncoming vehicle extraction unit 172 extracts the headlamp from the oncoming vehicle detection range. (S212) The oncoming vehicle recognition unit 176 recognizes the oncoming vehicle (S214), the streetlight extraction unit 178 extracts the streetlight from the streetlight detection range (S216), and the streetlight recognition unit 180 recognizes the streetlight (S218). ), The traveling scene determination unit 182 determines whether or not the traveling scene can be irradiated with a high beam from the position information of the streetlight (S220). , The light distribution control unit 184, a preceding vehicle, an oncoming vehicle, and performs the light distribution control of the headlamp on the basis of the traveling scene (S222), and finishes the environment outside the vehicle recognition processing. Hereinafter, each process is explained in full detail.

(画像処理S200)
画像処理部160は、2つの撮像装置110それぞれから輝度画像を取得し、一方の輝度画像から任意に抽出したブロック(例えば水平4画素×垂直4画素の配列)に対応するブロックを他方の輝度画像から検索する、所謂パターンマッチングを用いて視差を導き出す。ここで、「水平」は画面横方向を示し、「垂直」は画面縦方向を示す。
(Image processing S200)
The image processing unit 160 acquires a luminance image from each of the two imaging devices 110, and selects a block corresponding to a block arbitrarily extracted from one luminance image (for example, an array of horizontal 4 pixels × vertical 4 pixels) as the other luminance image. The parallax is derived using so-called pattern matching that is searched from the above. Here, “horizontal” indicates the horizontal direction of the screen, and “vertical” indicates the vertical direction of the screen.

このパターンマッチングとしては、2つの輝度画像間において、任意の画像位置を示すブロック単位で輝度(Y色差信号)を比較することが考えられる。例えば、輝度の差分をとるSAD(Sum of Absolute Difference)、差分を2乗して用いるSSD(Sum of Squared intensity Difference)や、各画素の輝度から平均値を引いた分散値の類似度をとるNCC(Normalized Cross Correlation)等の手法がある。画像処理部160は、このようなブロック単位の視差導出処理を検出領域(例えば水平600画素×垂直180画素)に映し出されている全てのブロックについて行う。ここでは、ブロックを水平4画素×垂直4画素としているが、ブロック内の画素数は任意に設定することができる。   As this pattern matching, it is conceivable to compare the luminance (Y color difference signal) in units of blocks indicating an arbitrary image position between two luminance images. For example, SAD (Sum of Absolute Difference) that takes a luminance difference, SSD (Sum of Squared Intensity Difference) that uses the difference squared, or NCC that takes the similarity of a variance value obtained by subtracting an average value from the luminance of each pixel There are methods such as (Normalized Cross Correlation). The image processing unit 160 performs such a block-unit parallax derivation process for all blocks displayed in the detection area (for example, horizontal 600 pixels × vertical 180 pixels). Here, the block is assumed to be horizontal 4 pixels × vertical 4 pixels, but the number of pixels in the block can be arbitrarily set.

ただし、画像処理部160では、検出分解能単位であるブロック毎に視差を導出することはできるが、そのブロックがどのような立体物の一部であるかを認識できない。したがって、視差は、立体物単位ではなく、検出領域における検出分解能単位(例えばブロック単位)で独立して導出されることとなる。ここでは、このようにして導出された視差の情報(後述する奥行き距離zに相当)を輝度画像に対応付けた画像を距離画像という。   However, the image processing unit 160 can derive the parallax for each block, which is a detection resolution unit, but cannot recognize what kind of three-dimensional object the block is. Therefore, the parallax is independently derived not in units of solid objects but in units of detection resolution (for example, blocks) in the detection region. Here, an image in which parallax information (corresponding to a depth distance z described later) derived in this way is associated with a luminance image is referred to as a distance image.

図4は、輝度画像212と距離画像214を説明するための説明図である。例えば、2つの撮像装置110を通じ、画像領域216について図4(a)のような輝度画像212が生成されたとする。ただし、ここでは、理解を容易にするため、撮像装置110それぞれが生成した2つの輝度画像212の一方のみを模式的に示している。本実施形態において、画像処理部160は、このような輝度画像212からブロック毎の視差を求め、図4(b)のような距離画像214を形成する。距離画像214における各ブロックには、そのブロックの視差が関連付けられている。ここでは、説明の便宜上、視差が導出されたブロックを黒のドットで表している。   FIG. 4 is an explanatory diagram for explaining the luminance image 212 and the distance image 214. For example, assume that a luminance image 212 as shown in FIG. 4A is generated for the image region 216 through the two imaging devices 110. However, here, for easy understanding, only one of the two luminance images 212 generated by each of the imaging devices 110 is schematically illustrated. In the present embodiment, the image processing unit 160 obtains the parallax for each block from such a luminance image 212 and forms a distance image 214 as shown in FIG. Each block in the distance image 214 is associated with the parallax of the block. Here, for convenience of description, blocks from which parallax is derived are represented by black dots.

(3次元位置導出処理S202)
続いて、3次元位置導出部162は、画像処理部160で生成された距離画像214に基づいて画像領域216内のブロック毎の視差の情報を、所謂ステレオ法を用いて、水平距離x、高さyおよび奥行き距離(相対距離)zを含む実空間における3次元位置に変換する。ここで、ステレオ法は、三角測量法を用いることで、立体部位(画素または複数の画素からなるブロック)の距離画像214における視差からその立体部位の撮像装置110に対する奥行き距離zを導出する方法である。このとき、3次元位置導出部162は、立体部位の奥行き距離zと、立体部位と同奥行き距離zにある道路表面上の点と立体部位との距離画像214上の検出距離とに基づいて、立体部位の道路表面からの高さyを導出する。そして、導出された3次元位置を改めて距離画像214に対応付ける。かかる奥行き距離zの導出処理や3次元位置の特定処理は、様々な公知技術を適用できるので、ここでは、その説明を省略する。
(Three-dimensional position derivation process S202)
Subsequently, the three-dimensional position deriving unit 162 uses the so-called stereo method to calculate the parallax information for each block in the image area 216 based on the distance image 214 generated by the image processing unit 160, and the horizontal distance x, It is converted into a three-dimensional position in real space including depth y and depth distance (relative distance) z. Here, the stereo method is a method of deriving the depth distance z with respect to the imaging device 110 of the three-dimensional part from the parallax in the distance image 214 of the three-dimensional part (a pixel or a block composed of a plurality of pixels) by using a triangulation method. is there. At this time, the three-dimensional position deriving unit 162 is based on the depth distance z of the three-dimensional part and the detection distance on the distance image 214 between the point on the road surface at the same depth distance z as the three-dimensional part and the three-dimensional part. The height y of the three-dimensional part from the road surface is derived. Then, the derived three-dimensional position is associated with the distance image 214 again. Since various known techniques can be applied to the depth distance z deriving process and the three-dimensional position specifying process, description thereof is omitted here.

(要否判定処理S204)
次に、要否判定部164は、車外が明るいか否(昼か夜)か、すなわち、ヘッドランプのハイビームが不要か否かを判定する。そして、要否判定部164が、ハイビームが不要(以下、かかる状態を単にハイビーム不要状態という)と判定すれば、以降のヘッドランプの配光制御S206〜S222を省略する。
(Necessity determination processing S204)
Next, the necessity determination unit 164 determines whether the outside of the vehicle is bright (day or night), that is, whether the high beam of the headlamp is unnecessary. If the necessity determining unit 164 determines that the high beam is unnecessary (hereinafter, this state is simply referred to as a high beam unnecessary state), the subsequent headlamp light distribution control S206 to S222 is omitted.

ところで、撮像装置110では、露光量調整部(図示せず)が車外環境に基づいて露光量を調整している。ここで、露光量は、感度(本実施形態ではゲイン)と、絞りと、露光時間とに基づいて算出できる。例えば、露光量調整部は、生成された画像の一部の領域(例えば、路面領域)の輝度分布を用い、その領域の輝度が高ければゲインおよび露光時間を小さくし、その領域の輝度が低ければゲインおよび露光時間を大きくする。つまり、様々な立体物の認識に適した輝度となるように、ゲインおよび露光時間を調整している。   By the way, in the imaging device 110, an exposure adjustment unit (not shown) adjusts the exposure based on the environment outside the vehicle. Here, the exposure amount can be calculated based on the sensitivity (gain in this embodiment), the stop, and the exposure time. For example, the exposure adjustment unit uses the luminance distribution of a partial area (for example, a road surface area) of the generated image, and if the luminance of the area is high, the gain and the exposure time are reduced, and the luminance of the area is low. Increase the gain and exposure time. That is, the gain and the exposure time are adjusted so that the luminance is suitable for recognition of various three-dimensional objects.

したがって、要否判定部164は、撮像装置110の露光量調整部が調整している露光量を参照することで、外部の明るさを把握することができる。例えば、所定の閾値と比較し、ゲインが小さく、露光時間が短いと(露光量が小さいと)車外が明るくハイビーム不要状態であると判断でき、逆に、ゲインが大きく、露光時間が長いと(露光量が大きいと)車外が暗くハイビームが利用可能である(以下、かかる状態を単にハイビーム許可状態という)と判断できる。   Therefore, the necessity determination unit 164 can grasp the external brightness by referring to the exposure amount adjusted by the exposure amount adjustment unit of the imaging device 110. For example, when the gain is small and the exposure time is short (when the exposure amount is small) compared to a predetermined threshold, it can be determined that the outside of the vehicle is bright and the high beam is unnecessary, and conversely, when the gain is large and the exposure time is long ( When the exposure amount is large, it can be determined that the outside of the vehicle is dark and the high beam can be used (hereinafter, this state is simply referred to as a high beam permission state).

(検出範囲設定処理S206)
要否判定部164が、ハイビーム許可状態と判定すると(S204におけるNO)、検出範囲設定部166は、取得した画像において、先行車両(テールランプ)、対向車両(ヘッドランプ)、街灯それぞれを検出するための検出範囲を決定する。このように画像内で検出範囲を限定することで、処理時間の短縮を図るとともに、先行車両や対向車両が本来存在しない領域での誤検出を防止することができる。
(Detection range setting process S206)
When the necessity determination unit 164 determines that the high beam permission state is set (NO in S204), the detection range setting unit 166 detects the preceding vehicle (tail lamp), the oncoming vehicle (head lamp), and the streetlight in the acquired image. Determine the detection range. By limiting the detection range in the image in this way, it is possible to shorten the processing time and prevent erroneous detection in a region where the preceding vehicle and the oncoming vehicle do not originally exist.

図5は、検出範囲を説明するための説明図である。検出範囲設定部166は、検出する対象である先行車両、対向車両、街灯それぞれに対し、画像領域216のうちの図5に示す予め定められた位置に、破線の矩形で示す先行車両検出範囲220a、一点鎖線の矩形で示す対向車両検出範囲220b、二点鎖線の矩形で示す街灯検出範囲220cを設定する。図5を参照して理解できるように、先行車両検出範囲220aは、対向車両検出範囲220bに含まれ、両者と街灯検出範囲220cとは排他的になっている。   FIG. 5 is an explanatory diagram for explaining the detection range. The detection range setting unit 166 detects the preceding vehicle detection range 220a indicated by a broken-line rectangle at a predetermined position shown in FIG. 5 in the image area 216 for each of the preceding vehicle, the oncoming vehicle, and the streetlight to be detected. The oncoming vehicle detection range 220b indicated by the dashed-dotted rectangle and the streetlight detection range 220c indicated by the two-dot dashed rectangle are set. As can be understood with reference to FIG. 5, the preceding vehicle detection range 220a is included in the oncoming vehicle detection range 220b, and both and the streetlight detection range 220c are exclusive.

このような先行車両検出範囲220a、対向車両検出範囲220b、街灯検出範囲220cは、車外環境や進行路に応じてオフセット可能となっている。例えば、道路が湾曲していたり、勾配を有していると、その度合いに応じて先行車両検出範囲220a、対向車両検出範囲220b、街灯検出範囲220cをオフセットさせる。例えば、進行路が左カーブであれば、検出範囲設定部166は、先行車両検出範囲220a、対向車両検出範囲220b、街灯検出範囲220cそれぞれを、進行路に応じた分だけ左にオフセットする。こうして、先行車両、対向車両、街灯が存在する可能性が最も高い位置を検出範囲として設定することが可能となる。   The preceding vehicle detection range 220a, the oncoming vehicle detection range 220b, and the streetlight detection range 220c can be offset according to the environment outside the vehicle and the traveling path. For example, if the road is curved or has a slope, the preceding vehicle detection range 220a, the oncoming vehicle detection range 220b, and the streetlight detection range 220c are offset according to the degree. For example, if the travel path is a left curve, the detection range setting unit 166 offsets the preceding vehicle detection range 220a, the oncoming vehicle detection range 220b, and the streetlight detection range 220c to the left by an amount corresponding to the travel path. In this way, it is possible to set as a detection range a position where the possibility of the presence of a preceding vehicle, an oncoming vehicle, and a streetlight is highest.

(先行車両抽出処理S208)
続いて、先行車両抽出部168は、先行車両検出範囲220aから、輝度およびカラー情報ならびに3次元位置に応じてテールランプを抽出する。ただし、先行車両のテールランプは、後述する対向車両のヘッドランプや街灯と光量が異なる。そうすると、撮像装置110において、テールランプを取得可能な露光時間で撮像すると、ヘッドランプや街灯の輝度が飽和し、逆にヘッドランプや街灯を取得可能な露光時間で撮像すると、テールランプを検出できなくなってしまう。そこで、撮像装置110は、フレームを異にして、少なくとも長短2つの露光時間で画像を生成する。
(Preceding vehicle extraction process S208)
Subsequently, the preceding vehicle extraction unit 168 extracts a tail lamp from the preceding vehicle detection range 220a according to the luminance and color information and the three-dimensional position. However, the tail lamp of the preceding vehicle is different in light quantity from the head lamp and street lamp of the oncoming vehicle described later. Then, when the imaging device 110 captures images with an exposure time in which the tail lamp can be acquired, the brightness of the headlamps and street lamps is saturated, and conversely, if the imaging is performed with the exposure time in which the head lamps and street lights can be acquired, the tail lamp cannot be detected. End up. Therefore, the imaging apparatus 110 generates an image with at least two exposure times with different frames.

図6は、露光時間の異なる輝度画像212を説明するための説明図である。例えば、図6(a)は、露光時間が長く、図6(b)は、露光時間が短い。したがって、図6(a)の輝度画像212を用いると、ヘッドランプや街灯の輝度が飽和するおそれはあるものの、テールランプを適切に抽出でき、図6(b)の輝度画像212を用いると、テールランプを抽出できないおそれはあるものの、ヘッドランプや街灯を適切に抽出できる。   FIG. 6 is an explanatory diagram for explaining luminance images 212 having different exposure times. For example, FIG. 6A shows a long exposure time, and FIG. 6B shows a short exposure time. Therefore, if the luminance image 212 in FIG. 6A is used, the luminance of the headlamp and the streetlight may be saturated, but the tail lamp can be appropriately extracted. If the luminance image 212 in FIG. 6B is used, the tail lamp is used. Although there is a possibility that it cannot be extracted, headlamps and street lamps can be appropriately extracted.

そして、先行車両抽出部168は、先行車両検出範囲220aにおいて、カラー情報(RGBまたはYUV)が、赤色を示す所定の色範囲内にあり、3次元位置が所定の距離範囲(例えば1.5画素)内にある画素同士をグループ化する。ただし、先行車両抽出部168は、この条件を満たす画素を全て含む、水平線および垂直線からなる矩形状に画素同士をグループ化する。グループ化したテールランプ候補では、グループの上下左右座標、グループ内画素数、グループ内最大輝度値、最小輝度値、グループの平均奥行き距離(平均視差)といった基本特徴量を有する。   In the preceding vehicle detection range 220a, the preceding vehicle extraction unit 168 has color information (RGB or YUV) within a predetermined color range indicating red, and a three-dimensional position within a predetermined distance range (for example, 1.5 pixels). ) Group the pixels in the parentheses. However, the preceding vehicle extraction unit 168 groups the pixels into a rectangular shape including a horizontal line and a vertical line that includes all the pixels that satisfy this condition. The grouped tail lamp candidates have basic feature amounts such as the vertical and horizontal coordinates of the group, the number of pixels in the group, the maximum luminance value in the group, the minimum luminance value, and the average depth distance (average parallax) of the group.

ここで、先行車両抽出部168は、グループの上下左右座標の差分(サイズ)が所定値(例えば2画素)以下、グループの上下左右座標の差分(サイズ)が所定値(奥行き距離によって決定)以上、グループ内画素数が所定値(例えば2)以下といった除外条件のいずれかを満たす場合、テールランプ候補として除外する。   Here, the preceding vehicle extraction unit 168 determines that the difference (size) between the vertical and horizontal coordinates of the group is a predetermined value (for example, two pixels) or less, and the difference (size) between the vertical and horizontal coordinates of the group is a predetermined value (determined by the depth distance). If any of the exclusion conditions such as the number of pixels in the group satisfying a predetermined value (for example, 2) or less is satisfied, it is excluded as a tail lamp candidate.

ところで、テールランプや後述するヘッドランプ(以下、簡潔に説明するためテールランプを対象に述べる)は、画像中の特徴量(輝度やカラー情報)に基づいて抽出されるが、その特徴量が閾値付近で変動した場合、テールランプの抽出自体が不安定になる場合がある。例えば、実際に存在する先行車両に対し、そのテールランプを、任意のフレームではテールランプであると判定するが、他のフレームではテールランプではないと判定するといった状況を繰り返す。このようにテールランプが不安定に抽出されると、それに伴って自車両1のヘッドランプの配光制御がハイビームとロービームとを繰り返すハンチングが生じる。   By the way, a tail lamp and a head lamp (to be described below for the sake of brevity) will be extracted based on feature values (luminance and color information) in the image. If it fluctuates, the tail lamp extraction itself may become unstable. For example, for a preceding vehicle that actually exists, a situation is repeated in which the tail lamp is determined to be a tail lamp in an arbitrary frame but is not a tail lamp in another frame. When the tail lamp is extracted in an unstable manner as described above, hunting in which the light distribution control of the head lamp of the host vehicle 1 repeats a high beam and a low beam occurs.

また、進行路近傍に位置する反射板等、自発光しない立体物は、自車両1のヘッドランプの当たり方で、画像の特徴量が異なることとなり、テールランプ(先行車両)やヘッドランプ(対向車両)と誤認識し易くなる。例えば、自車両1がハイビームに設定されると、その反射によりテールランプ(先行車両)と誤認識され、先行車両にハイビームを照射しないように、ハイビームがロービームに切り換わる。しかし、ロービームに切り換わることでハイビームの反射が無くなり、テールランプとは認識されなくなると、再びハイビームになるといったようにハンチングが生じ得る。   In addition, a three-dimensional object that does not emit light, such as a reflector located in the vicinity of the traveling path, has different image feature amounts depending on how the headlamp of the host vehicle 1 hits, and a tail lamp (preceding vehicle) or a headlamp (oncoming vehicle). ). For example, when the host vehicle 1 is set to a high beam, the reflection is misrecognized as a tail lamp (preceding vehicle), and the high beam is switched to a low beam so that the preceding vehicle is not irradiated with the high beam. However, when switching to the low beam, the reflection of the high beam disappears, and when it is not recognized as the tail lamp, hunting may occur such that the beam becomes a high beam again.

このようなハンチングに対し、先行車両や対向車両の認識後の配光制御において対策処理を実行することもできるが、配光制御の元となる認識自体が不安定であると、配光制御自体を複雑にせざるを得ず、結果としてロバスト性を失うこととなる。   For such hunting, countermeasure processing can also be executed in light distribution control after recognition of the preceding vehicle or oncoming vehicle, but if the recognition itself that is the basis of light distribution control is unstable, the light distribution control itself Must be complicated, resulting in loss of robustness.

そこで、本実施形態では、テールランプ等の抽出時点で、認識処理にヒステリシス特性を組み込んだ処理を行う。具体的には、抽出する対象にハイビームが当たっているか否かに応じて、特徴量を比較する閾値を異ならせる。   Therefore, in the present embodiment, at the time of extraction of the tail lamp or the like, processing in which hysteresis characteristics are incorporated into the recognition processing is performed. Specifically, the threshold value for comparing the feature amounts is varied depending on whether or not the target to be extracted is hit with a high beam.

例えば、ハイビームが当たっている領域では、ハイビームが当たっていない領域より閾値を高く(厳しく)して、テールランプ等の誤検出を防止する。もしくは、ハイビームが当たっていない領域では、ハイビームが当たっている領域より閾値を低く(緩く)して、テールランプ等を抽出し易くする。こうして、テールランプ等を適切に抽出し、ハンチングを防止することができる。   For example, in a region where a high beam is hit, a threshold value is set higher (stricter) than in a region where a high beam is not hit, thereby preventing erroneous detection of a tail lamp or the like. Alternatively, in a region where the high beam is not applied, the threshold is set lower (relaxed) than in a region where the high beam is applied, so that the tail lamp or the like can be easily extracted. In this way, tail lamps and the like can be appropriately extracted and hunting can be prevented.

こうして、ハイビームとロービームのハンチングを防止するとともに、先行車両に対し、ハイビームを当ててしまう可能性を削減することが可能となる。   In this way, hunting of the high beam and the low beam can be prevented, and the possibility of hitting the high beam with respect to the preceding vehicle can be reduced.

(先行車両認識処理S210)
続いて、先行車両認識部170は、先行車両抽出部168が抽出したテールランプ同士をグループ化し、先行車両検出範囲220a中の先行車両を認識する。
(Preceding vehicle recognition process S210)
Subsequently, the preceding vehicle recognition unit 170 groups the tail lamps extracted by the preceding vehicle extraction unit 168 and recognizes the preceding vehicle in the preceding vehicle detection range 220a.

具体的に、テールランプ(グループ)間の画像上の距離が同一の自動車に含まれる距離範囲(先行車両抽出処理S208の所定の距離範囲より長い)にあるか、平均奥行き距離(平均視差)の差が同一の自動車に含まれる距離範囲にあるか、最大輝度値の比が所定範囲にあるかの条件を全て満たした場合に、テールランプ同士をグループ化して先行車両候補とする。   Specifically, the distance on the image between the tail lamps (groups) is within a distance range (longer than the predetermined distance range in the preceding vehicle extraction process S208) included in the same vehicle, or a difference in average depth distance (average parallax) Are all within the distance range included in the same vehicle, or the ratio of the maximum luminance value is within a predetermined range, the tail lamps are grouped together as a preceding vehicle candidate.

このようにグループ化した先行車両候補は、グループ化する前のテールランプの基本特徴量を受け継ぐ。例えば、先行車両候補の上下左右座標は、先行車両候補外方に相当するテールランプの上下左右座標を受け継ぎ、先行車両候補のうち最大輝度値、最小輝度値はテールランプのうち最大輝度値、最小輝度値のいずれも大きい方を受け継ぎ、先行車両候補の平均奥行き距離はテールランプの平均奥行き距離が短い方(平均視差の大きい方)を受け継ぐ。そして、先行車両候補に含まれるテールランプ数も計数する。   The preceding vehicle candidates grouped in this way inherit the basic feature values of the tail lamps before grouping. For example, the up / down / left / right coordinates of the preceding vehicle candidate inherit the up / down / left / right coordinates of the tail lamp corresponding to the outside of the preceding vehicle candidate, and the maximum brightness value and the minimum brightness value of the preceding vehicle candidate are the maximum brightness value and the minimum brightness value of the tail lamp. Both of these are inherited, and the average depth distance of the preceding vehicle candidate is inherited that the tail lamp has the shorter average depth distance (the one with the larger average parallax). Then, the number of tail lamps included in the preceding vehicle candidates is also counted.

また、先行車両認識部170は、過去のフレームにおいて同等の3次元位置に先行車両の存在が確認できていたか否か判定し、確認できた存在回数を計数する。かかる存在回数は先行車両らしさの信頼度に影響する。そして、先行車両認識部170は、先行車両としての信頼性があることを示す条件を満たすか、および、先行車両としての信頼性がないことを示す条件を満たすか判断し、その結果に応じて先行車両候補を先行車両として特定、もしくは、先行車両候補から除外する。このような先行車両認識処理S210は、例えば、特願2014−232431号等、既存の様々な技術を採用可能なので、ここでは、その詳細な説明を省略する。   In addition, the preceding vehicle recognition unit 170 determines whether or not the presence of the preceding vehicle has been confirmed at an equivalent three-dimensional position in the past frame, and counts the number of existences that have been confirmed. The number of such times affects the reliability of the likelihood of the preceding vehicle. Then, the preceding vehicle recognition unit 170 determines whether the condition indicating that the preceding vehicle is reliable or the condition indicating that the preceding vehicle is not reliable is satisfied, and according to the result A preceding vehicle candidate is specified as a preceding vehicle, or excluded from a preceding vehicle candidate. Such a preceding vehicle recognition process S210 can employ various existing technologies such as Japanese Patent Application No. 2014-232431, and a detailed description thereof will be omitted here.

(対向車両抽出処理S212)
続いて、対向車両抽出部172は、対向車両検出範囲220bから、輝度およびカラー情報ならびに3次元位置に応じてヘッドランプを抽出する。ただし、上述したように、対向車両のヘッドランプは、先行車両のテールランプと光量が異なるので、図6(b)に示した露光時間の短い輝度画像212を用いる。
(Oncoming vehicle extraction process S212)
Subsequently, the oncoming vehicle extraction unit 172 extracts a headlamp from the oncoming vehicle detection range 220b according to the luminance and color information and the three-dimensional position. However, as described above, since the headlamp of the oncoming vehicle has a different light amount from the tail lamp of the preceding vehicle, the luminance image 212 having a short exposure time shown in FIG. 6B is used.

次に、対向車両抽出部172は、対向車両検出範囲220b内において、輝度が所定の輝度閾値(例えば256段階の5〜10)以上であり、3次元位置が所定の距離範囲(例えば1.5画素)内にある画素同士をグループ化する。ただし、対向車両抽出部172は、この条件を満たす画素を全て含む、水平線および垂直線からなる矩形状に画素同士をグループ化する。グループ化したヘッドランプ候補では、グループの上下左右座標、グループ内画素数、グループ内最大輝度値、最小輝度値、グループの平均奥行き距離(平均視差)、YUVカラー平均値といった基本特徴量を有する。   Next, in the oncoming vehicle detection range 220b, the oncoming vehicle extraction unit 172 has a luminance that is equal to or higher than a predetermined luminance threshold (for example, 5 to 10 in 256 steps), and the three-dimensional position has a predetermined distance range (for example, 1.5). Pixels) are grouped together. However, the oncoming vehicle extraction unit 172 groups the pixels into a rectangular shape including a horizontal line and a vertical line that includes all the pixels that satisfy this condition. The grouped headlamp candidates have basic feature amounts such as the vertical and horizontal coordinates of the group, the number of pixels in the group, the maximum luminance value in the group, the minimum luminance value, the average depth distance (average parallax) of the group, and the YUV color average value.

ここで、対向車両抽出部172は、グループの上下左右座標の差分(サイズ)が所定値(例えば2画素)以下、グループの上下左右座標の差分(サイズ)が所定値(奥行き距離によって決定)以上、グループ内画素数が所定値(例えば2)以下といった除外条件のいずれかを満たす場合、ヘッドランプ候補として除外してもよい。ここで、輝度と比較する所定値は、前回フレームでの所定値を踏まえて調整される。このような対向車両抽出処理S212は、例えば、特願2014−232430号等、既存の様々な技術を採用可能なので、ここでは、その詳細な説明を省略する。   Here, the oncoming vehicle extraction unit 172 has a difference (size) between the vertical and horizontal coordinates of the group equal to or smaller than a predetermined value (for example, two pixels), and a difference (size) between the vertical and horizontal coordinates of the group is equal to or larger than a predetermined value (determined by the depth distance) If any of the exclusion conditions such that the number of pixels in the group satisfies a predetermined value (for example, 2) or less may be excluded as a headlamp candidate. Here, the predetermined value to be compared with the luminance is adjusted based on the predetermined value in the previous frame. Such an oncoming vehicle extraction process S212 can employ various existing technologies such as Japanese Patent Application No. 2014-232430, and a detailed description thereof will be omitted here.

ところで、進行路の路肩には、高輝度な視線誘導灯(スノーポール)が存在している場合がある。   By the way, a high-luminance line-of-sight guide light (snow pole) may exist on the shoulder of the traveling path.

図7は、視線誘導灯の設置状態を説明するための説明図である。視線誘導灯は、例えば、緑色等のLEDで構成され、図7に破線で示したように、進行路の路肩に設置されて、視界不良時の道路端や道路線形などを明示し、運転手の視線を誘導するものである。このような視線誘導灯を、誤ってヘッドランプとして抽出し、それが対向車両と誤認識されてしまうと、本来ハイビームを照射するのが望ましい視線誘導灯近傍にハイビームを照射しないといった制御が働いてしまう。   FIG. 7 is an explanatory diagram for explaining an installation state of the line-of-sight guide lamp. The line-of-sight guide light is composed of, for example, a green LED, and is installed on the shoulder of the traveling path as shown by the broken line in FIG. 7 to clearly indicate the road edge or road alignment at the time of poor visibility, etc. It is intended to guide the eyes. If such a line-of-sight guide light is mistakenly extracted as a headlamp, and it is mistakenly recognized as an oncoming vehicle, control such as not irradiating the high-beam in the vicinity of the line-of-sight guide light that should originally be irradiated with a high beam works. End up.

そこで、視線誘導灯抽出部174は、ヘッドランプ候補が視線誘導灯であるか否か判定し、視線誘導灯であると判定すると、最終的にヘッドランプ候補から除外する。視線誘導灯抽出部174は、例えば、ブロックの色の特徴(YUVカラー平均値)および輝度分布に基づいて視線誘導灯の候補(視線誘導灯候補)であるか否か認識する。   Therefore, the line-of-sight guide light extraction unit 174 determines whether or not the headlamp candidate is a line-of-sight guide light, and if it is determined that it is a line-of-sight guide light, it finally excludes it from the headlamp candidate. For example, the line-of-sight guide light extraction unit 174 recognizes whether or not the candidate is a line-of-sight guide lamp candidate (line-of-sight guide light candidate) based on the color characteristics (YUV color average value) of the block and the luminance distribution.

図8は、色の特徴を説明するための説明図である。視線誘導灯は、自発光しており、輝度のみではヘッドランプと区別するのは困難であった。しかし、視線誘導灯の緑色LEDと、ヘッドランプのハロゲンランプとは、以下のような色の特徴を有する。例えば、図8(a)のUV平面図において、緑色LEDは、破線で囲んだように、青色差Uおよび赤色差Vがいずれも負となる領域で表され、青色差Uの変化に対し、赤色差Vも大凡線系に変化する。これに対し、ハロゲンランプは、実線で囲んだように、少なくとも青色差Uが負となる領域で表され、青色差Uの変化に対し、赤色差Vが0からほとんど変化しない。   FIG. 8 is an explanatory diagram for explaining the feature of the color. The line-of-sight guide lamp emits light by itself, and it is difficult to distinguish it from a headlamp only by luminance. However, the green LED of the line-of-sight guide lamp and the halogen lamp of the headlamp have the following color characteristics. For example, in the UV plan view of FIG. 8A, the green LED is represented by a region in which the blue difference U and the red difference V are both negative as surrounded by a broken line. The red color difference V also changes to a general line system. In contrast, the halogen lamp is represented by at least a region where the blue difference U is negative as surrounded by a solid line, and the red difference V hardly changes from 0 with respect to the change of the blue difference U.

また、図8(b)のYV平面図において、緑色LEDは、破線で囲んだように、少なくとも赤色差Vが負となる領域で表され、輝度Yの変化に対し、赤色差Vも大凡線系に変化するが、ハロゲンランプは、実線で囲んだように、輝度Yの変化に対し、赤色差Vが緑色LEDほどは変化しない。ただし、緑色LEDおよびハロゲンランプのいずれにおいても青色差Uは輝度Yの影響を受けにくいので、YU平面図(図示せず)では、UV平面図、YV平面図ほど、緑色LEDとハロゲンランプとの差異が生じない。   Further, in the YV plan view of FIG. 8B, the green LED is represented by at least a region where the red difference V is negative as surrounded by a broken line. Although the halogen lamp changes in the system, the red difference V does not change as much as the green LED with respect to the change in the luminance Y as surrounded by the solid line. However, in both the green LED and the halogen lamp, the blue difference U is not easily affected by the luminance Y. Therefore, in the YU plan view (not shown), the UV plan view and the YV plan view show the difference between the green LED and the halogen lamp. There is no difference.

そして、視線誘導灯抽出部174は、図8(a)、(b)において緑色LEDの領域を表す識別範囲を設け、ヘッドランプ候補の色の特徴が、その識別範囲に含まれていれば、緑色LEDと判定する。具体的に、図8(a)のUV平面図において、ヘッドランプ候補のUV平均値が識別範囲230に含まれる場合、そのヘッドランプ候補は視線誘導灯候補(緑色LED)であると判定する。また、図8(b)のYV平面図において、ヘッドランプ候補のYV平均値が識別範囲232に含まれていれば、そのヘッドランプ候補は視線誘導灯候補(緑色LED)であると判定する。   Then, the line-of-sight guide light extraction unit 174 provides an identification range representing the green LED region in FIGS. 8A and 8B, and if the color characteristics of the headlamp candidate are included in the identification range, It determines with green LED. Specifically, in the UV plan view of FIG. 8A, when the UV average value of the headlamp candidate is included in the identification range 230, it is determined that the headlamp candidate is a line-of-sight guide lamp candidate (green LED). Further, in the YV plan view of FIG. 8B, if the YV average value of the headlamp candidate is included in the identification range 232, it is determined that the headlamp candidate is a line-of-sight guide lamp candidate (green LED).

ただし、対向車両の奥行き距離が短い場合、ヘッドランプ中の比較的低輝度の領域にボンネットやバンパー等の色が含まれてしまい、実際はヘッドランプであるにも拘わらず、ヘッドランプ候補全体の赤色差Vの平均値が高くなり、視線誘導灯と誤認識される場合がある。そこで、ヘッドランプ候補の奥行き距離が短い場合、高輝度領域のみ抽出して視線誘導灯であるか否か判定する。   However, if the depth distance of the oncoming vehicle is short, colors such as bonnets and bumpers are included in the relatively low-luminance area in the headlamp, and the red color of the entire headlamp candidate is actually a headlamp. The average value of the difference V becomes high and may be erroneously recognized as a line-of-sight guide light. Therefore, when the depth distance of the headlamp candidate is short, only the high luminance region is extracted to determine whether it is a line-of-sight guide light.

図9は、色の特徴を説明するための説明図である。ここでは、ヘッドランプ候補が所定の奥行き閾値(例えば50m)未満に存在する場合、ヘッドランプ候補の全画素のうち、輝度Yが所定の高輝度成分の範囲(例えば256段階の50以上、100未満)にある部分のみ抽出して、そのYV平均値によって視線誘導灯候補であるか否か判定する。   FIG. 9 is an explanatory diagram for explaining the feature of the color. Here, when the headlamp candidate is present below a predetermined depth threshold (for example, 50 m), the luminance Y is within a predetermined high-luminance component range (for example, 256 levels of 50 or more and less than 100) among all the pixels of the headlamp candidate. ) Is extracted, and it is determined whether or not it is a line-of-sight guide lamp candidate based on the YV average value.

具体的に、図9のYV平面図において、ヘッドランプ候補のYVの平均値が識別線234より左下にあれば、すなわち、V<a×Y+b(a,bは一次直線を示す定数)であれば、そのヘッドランプ候補は視線誘導灯候補(緑色LED)であると判定する。ここで、高輝度成分に上限(例えば100)を採用しているのは、あまりに高輝度すぎると赤色差Vが飽和する場合があり、赤色差Vの情報を有効利用できなくなるからである。   Specifically, in the YV plan view of FIG. 9, if the average value of YV of the headlamp candidates is at the lower left of the identification line 234, that is, V <a × Y + b (a and b are constants indicating a primary line). For example, it is determined that the headlamp candidate is a line-of-sight guide lamp candidate (green LED). Here, the upper limit (for example, 100) is adopted for the high luminance component because if the luminance is too high, the red difference V may be saturated, and information on the red difference V cannot be effectively used.

続いて、視線誘導灯抽出部174は、色の特徴に基づいて視線誘導灯候補であると判定されたヘッドランプ候補に対し、さらに、輝度分布に基づいて視線誘導灯候補であるか否か識別する。   Subsequently, the line-of-sight guide light extraction unit 174 further identifies whether or not the headlamp candidate is determined to be a line-of-sight guide lamp candidate based on the color characteristics based on the luminance distribution. To do.

図10は、遠方の対向車両を説明するための説明図である。対向車両が遠方に位置している場合、図10に示すように対向車両に備わる左右2つのヘッドランプや路面の反射部分が結合して単一領域の光源と認識されることがある。このとき、ヘッドランプ近傍のバンパー部分や路面の反射部分が高輝度かつ色成分が強く出ることがあり、あたかも視線誘導灯のような色成分を示す場合がある。そこで、視線誘導灯抽出部174は、ヘッドランプ候補の輝度分布が左右2つの光源を示しているか、単一の光源を示しているか判定する。   FIG. 10 is an explanatory diagram for explaining a distant oncoming vehicle. When the oncoming vehicle is located far away, as shown in FIG. 10, the left and right headlamps provided on the oncoming vehicle and the reflective portions of the road surface may be combined and recognized as a light source in a single region. At this time, the bumper portion in the vicinity of the headlamp and the reflective portion of the road surface may have high luminance and a strong color component, and may show a color component as if it is a line-of-sight guide light. Therefore, the line-of-sight guide light extraction unit 174 determines whether the luminance distribution of the headlamp candidate indicates two light sources on the left and right or a single light source.

図11は、視線誘導灯抽出部174の動作を示す説明図である。ここでは、図11(a)に矩形で示したヘッドランプ候補の各画素の輝度Yが図11(b)に示すように分布しているとする。視線誘導灯抽出部174は、まず、図11(b)に示すように、ヘッドランプ候補の水平方向における画素列毎の輝度Yの総和を求める。したがって、垂直方向の画素に相当する数の総和が導出される。   FIG. 11 is an explanatory diagram illustrating the operation of the line-of-sight guide light extraction unit 174. Here, it is assumed that the luminance Y of each pixel of the headlamp candidate shown by a rectangle in FIG. 11A is distributed as shown in FIG. First, as shown in FIG. 11B, the line-of-sight guide light extraction unit 174 obtains the sum of luminance Y for each pixel column in the horizontal direction of the headlamp candidates. Therefore, the sum of the numbers corresponding to the pixels in the vertical direction is derived.

次に、視線誘導灯抽出部174は、垂直方向の画素数分の総和のうち最大値となる総和を特定し、その総和が最大となる水平方向の画素列について、図11(c)に示すように座標と輝度とをプロットする。そして、視線誘導灯抽出部174は、ノイズを排除すべく、プロットした点を平滑化して図11(c)のように、近似曲線を導出する。続いて、視線誘導灯抽出部174は、図11(d)のように、その近似曲線を一次微分し、正から負へのゼロクロス点の数、すなわち、近似曲線のピークの数を求める。ここで、図11(d)のように、ゼロクロス点が2以上あれば、そのヘッドランプ候補は、視線誘導灯候補ではないと判断できる。   Next, the line-of-sight guide light extraction unit 174 identifies the sum total that is the maximum value among the sum totals for the number of pixels in the vertical direction, and FIG. 11C illustrates the pixel row in the horizontal direction that maximizes the sum. Plot the coordinates and brightness. Then, the line-of-sight guide light extraction unit 174 smoothes the plotted points so as to eliminate noise and derives an approximate curve as shown in FIG. Subsequently, as shown in FIG. 11D, the line-of-sight guide light extraction unit 174 performs first-order differentiation on the approximate curve to obtain the number of zero-cross points from positive to negative, that is, the number of peaks of the approximate curve. Here, as shown in FIG. 11D, if there are two or more zero-cross points, it can be determined that the headlamp candidate is not a line-of-sight guide lamp candidate.

また、他のヘッドランプ候補について、図11(e)のような近似曲線を一次微分した図11(f)では、正から負へのゼロクロス点が1つしかなく、そのヘッドランプ候補は、視線誘導灯候補であると判定できる。このとき、視線誘導灯抽出部174は、後の処理のため、視線誘導灯候補であると判定されたヘッドランプ候補の数を計数する。   Further, in FIG. 11 (f) obtained by linearly differentiating the approximate curve as shown in FIG. 11 (e) for other headlamp candidates, there is only one zero-cross point from positive to negative. It can be determined that it is a guide light candidate. At this time, the line-of-sight guide light extraction unit 174 counts the number of headlamp candidates determined to be line-of-sight guide light candidates for later processing.

続いて、視線誘導灯抽出部174は、視線誘導灯候補の数および配置に基づき、それらを視線誘導灯と特定するとともに、ヘッドランプ候補から除外する。   Subsequently, the line-of-sight guide light extraction unit 174 identifies the line-of-sight guide light candidates as line-of-sight guide lights based on the number and arrangement of the line-of-sight guide lamp candidates and excludes them from the head lamp candidates.

視線誘導灯は、進行路の路肩に、等しい高さで複数等間隔に連続して配置されていることが多い。そこで、視線誘導灯抽出部174は、まず、視線誘導灯候補であると判定されたヘッドランプ候補の数が所定値(例えば2)以上存在することをもって、その視線誘導灯候補を視線誘導灯と特定する。このように、数の制限を設けることで、ヘッドランプを視線誘導灯と誤認識するのを回避できる。   In many cases, the line-of-sight guide lights are continuously arranged at equal heights at a plurality of equal intervals on the shoulder of the traveling path. Therefore, the line-of-sight guide light extraction unit 174 first determines that the line-of-sight guide lamp candidate is a line-of-sight guide lamp when the number of headlamp candidates determined to be line-of-sight guide lamp candidates is greater than or equal to a predetermined value (for example, 2). Identify. In this way, by setting the number limit, it is possible to avoid erroneously recognizing the headlamp as a line-of-sight guide lamp.

続いて、視線誘導灯抽出部174は、特定された視線誘導灯の配置に基づき、視線誘導灯候補とならなかったヘッドランプ候補の再判定を行う。   Subsequently, the line-of-sight guide light extraction unit 174 re-determines headlamp candidates that have not become line-of-sight guide lamp candidates based on the specified arrangement of the line-of-sight guide lights.

図12は、視線誘導灯の再判定を説明するための説明図である。具体的に、図12に示した水平距離xと奥行き距離zの平面上で、「×」で示した、視線誘導灯として特定されたヘッドランプ候補の最小二乗直線240を導出する。そして、視線誘導灯抽出部174は、当該最小二乗直線240からの距離が所定距離閾値(例えば、2画素)未満である、図12中「○」で示した、ヘッドランプ候補を、改めて視線誘導灯として特定する。こうして、ヘッドランプ候補の奥行き距離が近すぎてサチュレーションが生じ、色情報が正確に取得できない場合等、視線誘導灯候補の判定が適切に行われなかった光源についても適切に視線誘導灯と特定することが可能となる。   FIG. 12 is an explanatory diagram for explaining re-determination of the line-of-sight guide light. Specifically, on the plane of the horizontal distance x and the depth distance z shown in FIG. 12, the least square line 240 of the headlamp candidate identified as the line-of-sight guidance lamp, denoted by “x”, is derived. Then, the line-of-sight guidance light extraction unit 174 re-guides the line-of-sight guidance for the headlamp candidate indicated by “◯” in FIG. 12 whose distance from the least square line 240 is less than a predetermined distance threshold (for example, 2 pixels). Identify as a light. In this way, when the depth distance of the headlamp candidate is too close, saturation occurs, and color information cannot be acquired accurately, the light source that has not been properly determined as a candidate for the visual guidance light is appropriately identified as the visual guidance light. It becomes possible.

なお、ここでは、水平距離xと奥行き距離zの平面上でヘッドランプ候補の再判定を行う例を挙げて説明したが、かかる場合に限らず、高さyを含む3次元位置に関して、最小二乗直線を導出し、再判定を行うとしてもよい。また、最小二乗直線に限らず、複数次の近似曲線でもよく、また、複数の最小二乗直線に基づいて再判定してもよい。   Here, an example in which the headlamp candidate is re-determined on the plane of the horizontal distance x and the depth distance z has been described. However, the present invention is not limited to this, and the least-squares regarding the three-dimensional position including the height y is used. A straight line may be derived and re-determination may be performed. Further, the determination is not limited to the least square line, and may be a multiple-order approximate curve, or may be re-determined based on a plurality of least square lines.

視線誘導灯抽出部174は、このように視線誘導灯と特定されたヘッドランプ候補に、それが視線誘導灯である旨の情報を追加して、ヘッドランプ候補から除外する。また、視線誘導灯と特定されなかったヘッドランプ候補については、そのままヘッドランプ候補である旨の情報を維持する。   The line-of-sight guide light extraction unit 174 adds information indicating that it is a line-of-sight guide light to the headlamp candidate thus identified as the line-of-sight guide light, and excludes it from the headlamp candidate. For headlamp candidates that are not identified as line-of-sight guide lights, information indicating that they are headlamp candidates is maintained.

上記の構成により、ヘッドランプと視線誘導灯とを区別し、視線誘導灯をヘッドランプ候補から適切に除外することができる。しかし、かかる判定のみでは、遠方で色味(色の特徴)を取得できない視線誘導灯や、急カーブや先行車両の存在により視認できない視線誘導灯を一時的に喪失することがある。   With the above-described configuration, it is possible to distinguish between the headlamp and the line-of-sight guide lamp, and appropriately exclude the line-of-sight guide lamp from the headlamp candidates. However, with such determination alone, there may be a temporary loss of a gaze guidance light that cannot acquire a color (characteristic characteristic) at a distance or a gaze guidance light that cannot be seen due to the presence of a sharp curve or a preceding vehicle.

例えば、視線誘導灯の色の特徴が弱すぎて、視線誘導灯と判定する閾値に至らない場合、本来視線誘導灯と認識すべきところ、ヘッドランプと誤認識することとなる。しかし、その閾値を徒に低く設定すると、今度は、ヘッドランプを視線誘導灯と誤認識する可能性が高くなってしまう。また、視線誘導灯は、本来、濃霧や強い吹雪状態で運転手の視線を誘導するものであるが、そのような状況下ではヘッドランプ候補自体の抽出が難しいことが多く、誤認識が生じる可能性が高くなる。   For example, if the color characteristic of the line-of-sight guide light is too weak to reach the threshold value for determining the line-of-sight guide light, it should be recognized as a line-of-sight guide light, but it will be erroneously recognized as a headlamp. However, if the threshold is set to a low value, there is a high possibility that the headlamp will be erroneously recognized as a line-of-sight guide lamp. In addition, the gaze guidance light is originally intended to guide the driver's gaze in a dense fog or strong snowstorm, but under such circumstances, it is often difficult to extract the headlamp candidate itself, which may cause misrecognition. Increases nature.

このように視線誘導灯を適切に抽出できないと、それに伴って、視線誘導灯であると判定されたヘッドランプ候補の数が所定値以上とならず、その視線誘導灯候補を視線誘導灯と特定できなくなってしまう。そうすると、視線誘導灯の抽出が不安定になり、ハイビームとロービームとのハンチングが生じ得る。   If the line-of-sight guide light cannot be appropriately extracted in this way, the number of headlamp candidates determined to be line-of-sight guide lights does not exceed the predetermined value, and the line-of-sight guide lamp candidate is identified as the line-of-sight guide light. It becomes impossible. If it does so, extraction of a gaze guidance lamp will become unstable and hunting of a high beam and a low beam may arise.

そこで、本実施形態においては、対向車両抽出処理S212より後段の処理である走行シーン判定処理S220において、視線誘導灯が存在するシーンであるか否かを判定し、視線誘導灯が存在するシーンであれば、その存在領域を特定する。   Therefore, in the present embodiment, in the driving scene determination process S220, which is a process subsequent to the oncoming vehicle extraction process S212, it is determined whether or not the scene includes a line-of-sight guide light, and the scene includes a line-of-sight guide light. If there is, the existence area is specified.

図13は、存在領域248を説明するための説明図である。前回のフレームで、視線誘導灯が存在するシーンであること、および、その視線誘導灯が存在する領域である存在領域248が特定されると、次のフレーム以降の対向車両抽出処理S212において、視線誘導灯が存在するシーンであるといった結果、および、特定された存在領域248を用いて、視線誘導灯を適切に抽出する。したがって、ここでは、前回以前のフレームで視線誘導灯が存在するシーンであると判定されたか否かが判定され、視線誘導灯が存在するシーンと判定されていれば、その存在領域248が特定されていることを前提に処理が遂行される。   FIG. 13 is an explanatory diagram for explaining the existence region 248. When the previous frame is a scene where the line-of-sight guide light exists and the existence area 248 that is the area where the line-of-sight guide light exists is specified, the line of sight is extracted in the oncoming vehicle extraction process S212 in the next frame and thereafter. The line-of-sight guide light is appropriately extracted by using the result indicating that the guide light is present and the specified existence region 248. Therefore, here, it is determined whether or not it is determined that the scene includes the line-of-sight guide light in the frame before the previous time, and if it is determined that the scene includes the line-of-sight guide light, the existence area 248 is specified. Processing is performed on the assumption that

上述したように、対向車両抽出処理S212において、対向車両抽出部172は、対向車両検出範囲220b内の輝度が所定の輝度閾値(例えば256段階の5〜10)以上である画素をグループ化し、ヘッドランプ候補としている。ここでは、輝度があまり高くなくともヘッドランプ候補として抽出されることとなる。   As described above, in the oncoming vehicle extraction process S212, the oncoming vehicle extraction unit 172 groups pixels in which the luminance within the oncoming vehicle detection range 220b is equal to or higher than a predetermined luminance threshold (for example, 5 to 10 in 256 steps). The lamp candidate. Here, even if the brightness is not so high, it is extracted as a headlamp candidate.

しかし、視線誘導灯が存在することが予め把握されており、さらに、その存在領域248が把握されている場合、存在領域248中に視線誘導灯が位置している可能性は高く、また、対向車両のヘッドランプが位置している可能性は低い。   However, if it is known in advance that the line-of-sight guide light exists, and if the existence area 248 is grasped, the possibility that the line-of-sight guide light is located in the existence area 248 is high, and It is unlikely that the vehicle headlamp is located.

本実施形態で視線誘導灯を特定しているのは、ヘッドランプ候補として誤認識された視線誘導灯をヘッドランプ候補から除外するためであり、予め視線誘導灯と把握できるのであれば、そもそもヘッドランプ候補としても抽出しなくてもよい。そこで、対向車両抽出部172は、視線誘導灯が存在するシーンであれば、特定された存在領域248における輝度閾値を、存在領域248以外の領域より高くする。したがって、存在領域248内の各画素は、存在領域248以外の領域の画素に比べ、ある程度輝度が高くないとヘッドランプ候補として抽出されない。   The reason why the line-of-sight guide light is specified in the present embodiment is to exclude the line-of-sight guide light erroneously recognized as the head lamp candidate from the head lamp candidate. It is not necessary to extract it as a lamp candidate. Therefore, the oncoming vehicle extraction unit 172 sets the luminance threshold value in the specified existence area 248 higher than the area other than the existence area 248 if the scene has a line-of-sight guide light. Therefore, each pixel in the existence region 248 is not extracted as a headlamp candidate unless the luminance is somewhat higher than that of pixels in the region other than the existence region 248.

かかる構成により、存在領域248内の輝度の低い視線誘導灯の色の特徴が視線誘導灯と判定する閾値に至らない状況下であっても、そもそもヘッドランプ候補として抽出(誤認識)されなくなるので、視線誘導灯をヘッドランプ候補から適切に排除することができる。   With this configuration, even if the color characteristic of the low-intensity visual guide light in the existence area 248 does not reach the threshold value for determining the visual guide light, it is not extracted (misrecognized) as a headlamp candidate in the first place. The line-of-sight guide light can be appropriately excluded from the head lamp candidates.

また、視線誘導灯は、本来、濃霧や強い吹雪状態で運転手の視線を誘導するものであるが、そのような状況下では輝度が低くなり、ヘッドランプ候補自体の抽出が困難となる。そこで、対向車両抽出部172は、視線誘導灯が存在するシーンであれば、特定された存在領域248以外における輝度閾値を一時的に下げるとしてもよい。したがって、濃霧や強い吹雪により、存在領域248以外の領域内の各画素の輝度が低下した場合であっても、ヘッドランプ候補を適切に抽出することが可能となる。   In addition, the line-of-sight guide lamp is originally intended to guide the driver's line of sight in a dense fog or strong snowstorm, but under such circumstances, the luminance is low and it is difficult to extract the headlamp candidate itself. Therefore, the oncoming vehicle extraction unit 172 may temporarily lower the brightness threshold in areas other than the specified existence area 248 if the scene includes a line-of-sight guide light. Therefore, even when the brightness of each pixel in the area other than the existence area 248 is reduced due to dense fog or strong snowstorm, it is possible to appropriately extract headlamp candidates.

また、上述したように、視線誘導灯が存在するシーンであることが予め把握されており、さらに、その存在領域248が把握されている場合、存在領域248中に視線誘導灯が位置している可能性は高くなる。そこで、視線誘導灯抽出部174は、視線誘導灯が存在するシーンであれば、図8(a)のUV平面図や、図8(b)のYV平面図を用いた視線誘導灯の抽出態様を変更する。   In addition, as described above, it is known in advance that the scene includes a line-of-sight guide light, and when the existence area 248 is recognized, the line-of-sight guide light is located in the existence area 248. The possibility is high. Therefore, the line-of-sight guide light extraction unit 174 extracts a line-of-sight guide light using the UV plan view of FIG. 8A or the YV plan view of FIG. To change.

図14は、色の特徴を説明するための説明図であり、図14(a)は、UV平面図を示し、図14(b)は、YV平面図を示している。具体的に、視線誘導灯が存在するシーンであれば、視線誘導灯抽出部174は、図14(a)、図14(b)に示すように、特定された存在領域248内のブロックについて、識別範囲230、232を、その領域が例えば2倍以上となるように、一点鎖線から実線のように拡大する。   FIGS. 14A and 14B are explanatory diagrams for explaining the characteristics of colors. FIG. 14A shows a UV plan view, and FIG. 14B shows a YV plan view. Specifically, if it is a scene in which a line-of-sight guide light exists, the line-of-sight guide light extraction unit 174, as shown in FIGS. 14 (a) and 14 (b), for blocks in the specified existence area 248, The identification ranges 230 and 232 are expanded from the alternate long and short dash line to a solid line so that the area becomes, for example, twice or more.

したがって、図14(a)のUV平面図において、存在領域248内のヘッドランプ候補のUV平均値が、拡大された識別範囲230に含まれる場合、そのヘッドランプ候補は視線誘導灯候補であると判定する。また、図14(b)のYV平面図において、存在領域248内のヘッドランプ候補のYV平均値が、拡大された識別範囲232に含まれていれば、そのヘッドランプ候補は視線誘導灯候補であると判定する。   Accordingly, in the UV plan view of FIG. 14A, when the UV average value of the headlamp candidate in the existence region 248 is included in the expanded identification range 230, the headlamp candidate is a line-of-sight guide lamp candidate. judge. Further, in the YV plan view of FIG. 14B, if the YV average value of the headlamp candidates in the existence region 248 is included in the enlarged identification range 232, the headlamp candidate is a line-of-sight guide lamp candidate. Judge that there is.

こうして、存在領域248中において視線誘導灯としての色の特徴が強くでていない光源を適切に視線誘導灯として認識することが可能となり、視線誘導灯をヘッドランプ候補から適切に排除することができる。   In this way, it becomes possible to appropriately recognize a light source that does not have strong color characteristics as a line-of-sight guide lamp in the existence region 248 as a line-of-sight guide lamp, and can appropriately exclude the line-of-sight guide lamp from headlamp candidates. .

(対向車両認識処理S214)
図3の説明に戻り、対向車両認識部176は、対向車両抽出部172が抽出したヘッドランプ同士をグループ化し、対向車両検出範囲220b中の対向車両を認識する。
(Oncoming vehicle recognition process S214)
Returning to the description of FIG. 3, the oncoming vehicle recognition unit 176 groups the headlamps extracted by the oncoming vehicle extraction unit 172, and recognizes the oncoming vehicle in the oncoming vehicle detection range 220b.

具体的に、ヘッドランプ(グループ)間の画像上の距離が同一の自動車に含まれる距離範囲(対向車両抽出処理S212の所定の距離範囲より長い)にあるか、平均奥行き距離の差が同一の自動車に含まれる距離範囲にあるか、最大輝度値の比が所定範囲にあるかの条件を全て満たした場合に、ヘッドランプ同士をグループ化して対向車両候補とする。   Specifically, the distance on the image between the headlamps (groups) is in a distance range (longer than the predetermined distance range in the oncoming vehicle extraction process S212) included in the same vehicle, or the difference in average depth distance is the same. When all the conditions that the vehicle is within the distance range or the ratio of the maximum luminance value is within the predetermined range are satisfied, the headlamps are grouped to be the oncoming vehicle candidate.

このようにグループ化した対向車両候補は、グループ化する前のヘッドランプの基本特徴量を受け継ぐ。例えば、対向車両候補の上下左右座標は、対向車両候補外方に相当するヘッドランプの上下左右座標を受け継ぎ、対向車両候補のうち最大輝度値、最小輝度値はヘッドランプのうち最大輝度値、最小輝度値のいずれも大きい方を受け継ぎ、対向車両候補の平均視差(奥行き距離)はヘッドランプの平均奥行き距離が短い方(平均視差の大きい方)を受け継ぐ。そして、対向車両候補に含まれるヘッドランプ数も計数する。   The oncoming vehicle candidates grouped in this way inherit the basic feature values of the headlamps before grouping. For example, the up / down / left / right coordinates of the oncoming vehicle candidate inherit the up / down / left / right coordinates of the headlamp corresponding to the outside of the oncoming vehicle candidate, and the maximum luminance value and the minimum luminance value of the oncoming vehicle candidate are the maximum luminance value and the minimum of the headlamp. All of the luminance values are inherited, and the average parallax (depth distance) of the oncoming vehicle candidate is inherited that has the shorter average depth distance of the headlamp (the one with the larger average parallax). The number of headlamps included in the oncoming vehicle candidate is also counted.

また、対向車両認識部176は、過去のフレームにおいて同等の3次元位置に対向車両の存在が確認できていたか否か判定し、確認できた存在回数を計数する。かかる存在回数は対向車両らしさの信頼度に影響する。そして、対向車両認識部176は、対向車両としての信頼性があることを示す条件を満たすか、および、対向車両としての信頼性がないことを示す条件を満たすか判断し、その結果に応じて対向車両候補を対向車両として特定、もしくは、対向車両候補から除外する。このような対向車両認識処理S214は、例えば、特願2014−231301号等、既存の様々な技術を採用可能なので、ここでは、その詳細な説明を省略する。   Further, the oncoming vehicle recognition unit 176 determines whether or not the presence of the oncoming vehicle has been confirmed at an equivalent three-dimensional position in the past frame, and counts the number of times that the oncoming vehicle has been confirmed. The number of such presences affects the reliability of the oncoming vehicle quality. Then, the oncoming vehicle recognition unit 176 determines whether the condition indicating that the oncoming vehicle is reliable or the condition indicating that the oncoming vehicle is not reliable is satisfied, and according to the result The oncoming vehicle candidate is specified as an oncoming vehicle or excluded from the oncoming vehicle candidate. Such an oncoming vehicle recognition process S214 can employ various existing technologies such as Japanese Patent Application No. 2014-231301, and a detailed description thereof will be omitted here.

(街灯抽出処理S216)
続いて、街灯抽出部178は、対向車両抽出処理S212と同様の処理により、街灯検出範囲220cから、輝度およびカラー情報ならびに3次元位置に応じて街灯を抽出する。
(Street lamp extraction process S216)
Subsequently, the streetlight extraction unit 178 extracts streetlights from the streetlight detection range 220c according to the luminance and color information and the three-dimensional position by the same processing as the oncoming vehicle extraction processing S212.

(街灯認識処理S218)
街灯認識部180は、街灯抽出部178が抽出した街灯を認識する。ここで、街灯はハイビームを照射すべきでない立体物ではないが、後段の走行シーン判定処理S220において利用される。
(Street lamp recognition process S218)
The streetlight recognition unit 180 recognizes the streetlight extracted by the streetlight extraction unit 178. Here, the streetlight is not a three-dimensional object that should not be irradiated with a high beam, but is used in the subsequent travel scene determination process S220.

(走行シーン判定処理S220)
走行シーン判定部182は、ハイビームを照射可能な走行シーンであるか否か判定する。例えば、走行シーン判定部182は、車速が所定値(例えば20km/h)以下である場合、ハイビームが不要なシーンであると判定する。また、走行シーン判定部182は、自車両1が左右折する場合、ハイビームが不要なシーンであると判定する。さらに、走行シーン判定部182は、街灯の数が所定数(例えば3)以上存在する場合、車外が十分明るいとしてハイビームが不要なシーンであると判定する。このような走行シーン判定処理S220は、例えば、特願2014−232408号、特願2014−232409号等、既存の様々な技術を採用可能なので、ここでは、その詳細な説明を省略する。
(Running scene determination process S220)
The traveling scene determination unit 182 determines whether or not the traveling scene can be irradiated with a high beam. For example, when the vehicle speed is a predetermined value (for example, 20 km / h) or less, the traveling scene determination unit 182 determines that the scene does not require a high beam. Moreover, the traveling scene determination unit 182 determines that the high beam is unnecessary when the host vehicle 1 turns left or right. Furthermore, when the number of street lamps is greater than or equal to a predetermined number (for example, 3), the traveling scene determination unit 182 determines that the scene outside the vehicle is sufficiently bright and does not require a high beam. Such a traveling scene determination process S220 can employ various existing technologies such as Japanese Patent Application No. 2014-232408 and Japanese Patent Application No. 2014-232409, and therefore detailed description thereof will be omitted here.

また、上述したように、本実施形態において、走行シーン判定部182は、上記のシーン判定に加えて、視線誘導灯が存在するシーンであるか否かを判定する。これは、上述の対向車両抽出処理S212において、視線誘導灯が存在するシーンであるか否かの判定に基づき視線誘導灯を適切に抽出するためである。ここで、走行シーン判定部182は、対向車両抽出部172が抽出した複数の視線誘導灯が長方形状に分布しているか否か判定し、長方形状に分布している状態の継続性に応じて視線誘導灯が存在するシーンであるか否か判定する。そして、視線誘導灯が存在するシーンであれば、その存在領域248を特定する。   In addition, as described above, in the present embodiment, the traveling scene determination unit 182 determines whether or not it is a scene in which a line-of-sight guide light exists in addition to the above-described scene determination. This is because, in the oncoming vehicle extraction process S212 described above, the line-of-sight guide light is appropriately extracted based on the determination as to whether or not the scene includes the line-of-sight guide light. Here, the traveling scene determination unit 182 determines whether or not the plurality of line-of-sight guide lights extracted by the oncoming vehicle extraction unit 172 are distributed in a rectangular shape, and according to the continuity of the state distributed in the rectangular shape. It is determined whether the scene includes a line-of-sight guide light. And if it is a scene where a line-of-sight guide light exists, the existence area 248 is specified.

図15は、走行シーン判定部182の動作を説明するための説明図である。図12に示した水平距離xと奥行き距離zの平面上で、対向車両抽出部172に抽出された「×」で示す視線誘導灯の最小二乗直線250を導出する。そして、走行シーン判定部182は、当該最小二乗直線250における重心252を求め、当該重心252を通り、最小二乗直線250と垂直となる垂直線254を導出する。   FIG. 15 is an explanatory diagram for explaining the operation of the traveling scene determination unit 182. On the plane of the horizontal distance x and the depth distance z shown in FIG. 12, the least square line 250 of the line-of-sight guide light indicated by “x” extracted by the oncoming vehicle extraction unit 172 is derived. Then, the traveling scene determination unit 182 obtains the center of gravity 252 in the least square line 250 and derives a vertical line 254 that passes through the center of gravity 252 and is perpendicular to the least square line 250.

次に、走行シーン判定部182は、対向車両抽出部172に抽出された視線誘導灯それぞれについて、視線誘導灯から垂直線254までの距離d1と、視線誘導灯から最小二乗直線までの距離d2とを導出する。そして、走行シーン判定部182は、距離d1と距離d2それぞれの総和の比率(Σd1/Σd2)が所定の比率閾値(例えば1.8)以上であるか否か判定する。その結果、比率閾値以上であれば、複数の視線誘導灯が長方形状に分布していると判定し、比率閾値未満であれば、複数の視線誘導灯が長方形状に分布していないと判定する。   Next, for each of the line-of-sight guide lights extracted by the oncoming vehicle extraction unit 172, the traveling scene determination unit 182 includes a distance d1 from the line-of-sight guide light to the vertical line 254, and a distance d2 from the line-of-sight guide light to the least square line. Is derived. Then, the traveling scene determination unit 182 determines whether or not the ratio (Σd1 / Σd2) of each of the distances d1 and d2 is equal to or greater than a predetermined ratio threshold (for example, 1.8). As a result, if it is equal to or greater than the ratio threshold value, it is determined that the plurality of line-of-sight guide lights are distributed in a rectangular shape, and if it is less than the ratio threshold value, it is determined that the plurality of line-of-sight guide lights are not distributed in a rectangular shape. .

次に、走行シーン判定部182は、長方形状に分布している状態の継続性、例えば、視線誘導灯が長方形状に分布していると判定された回数に応じて視線誘導灯が存在するシーンであるか否か判定する。具体的に、走行シーン判定部182は、視線誘導灯が長方形状に分布していると判定されると、積算値に所定値(例えば1)を加算し、視線誘導灯が長方形状に分布していないと判定されると、積算値から所定値(例えば1)を減算する。かかる積算値は0〜100の値をとることができる。したがって、積算値が100に到達すると、加算は行われず、積算値が0となると、減算は行われない。   Next, the traveling scene determination unit 182 includes a line-of-sight guide lamp according to the continuity of the state distributed in a rectangular shape, for example, the number of times that the line-of-sight guide light is determined to be distributed in a rectangular shape. It is determined whether or not. Specifically, when it is determined that the line-of-sight guide light is distributed in a rectangular shape, the traveling scene determination unit 182 adds a predetermined value (for example, 1) to the integrated value, and the line-of-sight guide light is distributed in a rectangular shape. If it is determined that it is not, a predetermined value (for example, 1) is subtracted from the integrated value. Such an integrated value can take a value of 0-100. Therefore, when the integrated value reaches 100, no addition is performed, and when the integrated value becomes 0, no subtraction is performed.

また、視線誘導灯が存在するシーンであるか否かの判定が頻繁に反転するのを回避すべく、積算値を比較する閾値にヒステリシス特性を設ける。   In addition, a hysteresis characteristic is provided in the threshold value for comparing the integrated values in order to avoid frequent reversal of the determination as to whether or not the scene has a line-of-sight guide light.

図16は、走行シーン判定部182の判定処理の一例を示した説明図である。例えば、走行シーン判定部182は、積算値が、所定の第1積算閾値(例えば20)以上となると視線誘導灯が存在するシーンであると判定し、積算値が、第1積算閾値より小さい第2積算閾値(例えば10)未満となると視線誘導灯が存在するシーンではないと判定する。   FIG. 16 is an explanatory diagram showing an example of the determination process of the traveling scene determination unit 182. For example, the traveling scene determination unit 182 determines that the line of sight guide light exists when the integrated value is equal to or greater than a predetermined first integrated threshold (for example, 20), and the integrated value is smaller than the first integrated threshold. If it is less than 2 integration threshold (for example, 10), it is determined that the scene does not have a gaze guidance lamp.

こうして、図16のように、積算値が第1積算閾値以上となり、走行シーン判定部182が、一旦視線誘導灯が存在するシーンであると判定すると、積算値が第2積算閾値未満となるまでは、視線誘導灯が存在するシーンではないと判定される(判定が反転する)ことがなくなる。また、積算値が第2積算閾値未満となり、走行シーン判定部182が、一旦視線誘導灯が存在するシーンではないと判定すると、積算値が第1積算閾値以上となるまでは、視線誘導灯が存在するシーンであると判定されることもなくなる。   Thus, as shown in FIG. 16, when the integrated value becomes equal to or greater than the first integrated threshold and the traveling scene determination unit 182 determines that the scene is a scene in which a line-of-sight guide light is present, until the integrated value becomes less than the second integrated threshold. Is determined not to be a scene in which a line-of-sight guide light exists (determination is reversed). Further, if the integrated value is less than the second integrated threshold value and the traveling scene determination unit 182 determines that the scene is not a scene where the visual guide light exists, the visual guide light is not changed until the integrated value is equal to or greater than the first integrated threshold value. It is no longer determined that the scene exists.

かかる構成により、視線誘導灯が存在しているにも拘わらず、視線誘導灯が先行車両等と重なる等、一時的に、存在しないと判定された場合であっても、過去の履歴に基づき、安定的に視線誘導灯が存在するシーンであると判定することが可能となる。   With this configuration, even if it is determined that the line-of-sight guide light does not exist temporarily, such as when the line-of-sight guide light overlaps with the preceding vehicle, even though the line-of-sight guide light exists, based on the past history, It is possible to determine that the scene stably includes the line-of-sight guide light.

このように、視線誘導灯が存在するシーンであると判定すると、走行シーン判定部182は、視線誘導灯が存在する存在領域248を特定する。   Thus, if it determines with it being a scene where a gaze guidance light exists, the driving | running | working scene determination part 182 will specify the presence area | region 248 where a gaze guidance light exists.

図17は、走行シーン判定部182の判定処理の一例を示した説明図である。具体的に、走行シーン判定部182は、複数の視線誘導灯が長方形状に分布しているか否かを判定するための、図15に示した最小二乗直線250から所定距離離隔した、破線で示す平行直線256a、256bを導出する。そして、両平行直線256a、256bに挟まれた領域を視線誘導灯の存在領域248とする。これを輝度画像212上に座標変換すると、図17(b)のようになる。かかる存在領域248は、図13の如く、次のフレーム以降、対向車両抽出処理S212で利用される。   FIG. 17 is an explanatory diagram showing an example of the determination process of the traveling scene determination unit 182. Specifically, the traveling scene determination unit 182 is indicated by a broken line separated from the least square line 250 illustrated in FIG. 15 by a predetermined distance for determining whether or not the plurality of line-of-sight guide lights are distributed in a rectangular shape. Parallel straight lines 256a and 256b are derived. A region sandwiched between the two parallel straight lines 256a and 256b is defined as a region 248 where the line-of-sight guide lamp exists. When coordinates are converted onto the luminance image 212, the result is as shown in FIG. As shown in FIG. 13, the presence area 248 is used in the oncoming vehicle extraction process S212 after the next frame.

なお、存在領域248における最小二乗直線250方向の右端は、対向車両抽出部172に抽出された視線誘導灯の右端より所定距離右側に延在した(マージンをとった)位置に設定し、存在領域248における最小二乗直線250方向の左端は、対向車両抽出部172に抽出された視線誘導灯の左端より所定距離左側に延在した(マージンをとった)位置に設定する。   Note that the right end of the existence area 248 in the direction of the least square line 250 is set to a position extending to the right by a predetermined distance from the right end of the line-of-sight guide light extracted by the oncoming vehicle extraction unit 172 (taking a margin). The left end of 248 in the direction of the least square line 250 is set to a position extending to the left by a predetermined distance from the left end of the line-of-sight guide light extracted by the oncoming vehicle extraction unit 172 (with a margin).

ここで、視線誘導灯が存在するシーンではハイビームを照射するのが望ましい。したがって、走行シーン判定部182は、視線誘導灯が存在するシーンをハイビームが利用可能なシーンであると判定する。   Here, it is desirable to irradiate a high beam in a scene where a line-of-sight guide lamp exists. Therefore, the traveling scene determination unit 182 determines that the scene where the line-of-sight guide light exists is a scene where the high beam can be used.

(配光制御処理S222)
最後に、配光制御部184は、先行車両、対向車両、および、走行シーンに基づいて自車両1のヘッドランプの配光制御を実行する。
(Light distribution control process S222)
Finally, the light distribution control unit 184 performs light distribution control of the headlamps of the host vehicle 1 based on the preceding vehicle, the oncoming vehicle, and the traveling scene.

図18は、配光制御部184の動作を示した説明図である。図18に示すように、走行シーン判定部182が、ハイビームが不要なシーンであると判定すると、HBAであるかADBであるか、および、照射すべきではない立体物(先行車両、対向車両)の数に拘わらず、ハイビームの照射を行わない。また、走行シーン判定部182が、ハイビームの利用を許可するシーンであると判定すると、HBAの場合、照射すべきではない立体物が1以上あれば、ハイビームの照射を行わず、照射すべきではない立体物がなければ、ハイビームの照射を行う。また、ADBの場合、照射すべきではない立体物が1以上あれば、その立体物への照射を回避しつつ、一部の範囲にハイビームの照射を行い、照射すべきではない立体物がなければ、全範囲にハイビームの照射を行う。   FIG. 18 is an explanatory diagram showing the operation of the light distribution control unit 184. As shown in FIG. 18, when the traveling scene determination unit 182 determines that the scene does not require a high beam, it is an HBA or ADB, and a solid object that should not be irradiated (preceding vehicle, oncoming vehicle). Irrespective of the number, high beam irradiation is not performed. Also, if the traveling scene determination unit 182 determines that the scene permits the use of the high beam, in the case of the HBA, if there is one or more solid objects that should not be irradiated, the high beam should not be irradiated and should be irradiated. If there is no solid object, high beam irradiation is performed. In addition, in the case of ADB, if there is one or more solid objects that should not be irradiated, high beam irradiation should be performed on a part of the range while avoiding irradiation of the solid objects, and there should be no solid objects that should not be irradiated. For example, a high beam is irradiated over the entire range.

図19は、ADBの配光制御を説明した説明図である。ここで、ADBにおいて、照射すべきではない立体物が1以上あれば、図19(a)のように、立体物全てにおける水平方向の最大幅Wを計算し、その位置より外側のみハイビームの照射を行う。ただし、ADBのハイビームを分割させて中央部分にも照射可能であれば、図19(b)のように、照射すべきではない先行車両と対向車両とのそれぞれ水平方向の最大幅W1、W2を計算し、中央および外側にハイビームの照射を行う。   FIG. 19 is an explanatory diagram for explaining ADB light distribution control. Here, if there are one or more solid objects that should not be irradiated in the ADB, as shown in FIG. 19A, the horizontal maximum width W of all the three-dimensional objects is calculated, and high beam irradiation is performed only outside the position. I do. However, if the ADB high beam can be divided and irradiated to the central portion, the maximum horizontal widths W1 and W2 of the preceding vehicle and the oncoming vehicle, which should not be irradiated, as shown in FIG. Calculate and irradiate the center and outside with a high beam.

なお、ADBの場合、対向車両が自車両1に非常に近くなると、対向車両検出範囲220b外となる場合がある。そのため、対向車両がある程度の奥行き距離(例えば50m)まで近づくと、すれ違いが予想される方向への照射は一定期間(例えば1sec)行わないこととする。   In the case of ADB, when the oncoming vehicle is very close to the host vehicle 1, it may be outside the oncoming vehicle detection range 220b. For this reason, when the oncoming vehicle approaches a certain depth distance (for example, 50 m), irradiation in a direction in which passing is expected is not performed for a certain period (for example, 1 sec).

このようなADBでは、ハイビームの照射範囲を、カットライン角度を切り換えることで調整することができる。また、走行シーン判定部182が、視線誘導灯が存在するシーンであると判定した場合、カットライン角度の切換態様を変更する。   In such an ADB, the high beam irradiation range can be adjusted by switching the cut line angle. In addition, when the traveling scene determination unit 182 determines that the scene has a line-of-sight guide light, the cut line angle switching mode is changed.

図20は、カットライン角度を説明するための上視面図である。図20に示すように、カットライン角度が定まれば、ハイビームの照射範囲も定まる。また、先行車両や対向車両を認識すると、配光制御部184は、カットライン角度を切り換えてハイビームの照射範囲を変更する。ここで、カットライン角度の急激な変化を抑制すべく、カットライン角度の切換には遅延を伴う低域通過フィルタ(LPF)が設けられている。   FIG. 20 is a top view for explaining the cut line angle. As shown in FIG. 20, when the cut line angle is determined, the irradiation range of the high beam is also determined. In addition, when recognizing a preceding vehicle or an oncoming vehicle, the light distribution control unit 184 changes the high beam irradiation range by switching the cut line angle. Here, in order to suppress a sudden change in the cut line angle, a low-pass filter (LPF) with a delay is provided for switching the cut line angle.

ところで、上述したように、視線誘導灯は、本来ハイビームを照射するのが望ましいが、視線誘導灯をヘッドランプと誤認識してしまうと、その領域へのハイビームの照射を回避する制御が行われる。したがって、光源が視線誘導灯であるにも拘わらず、視線誘導灯である認識が不安定になると、ハイビームとロービームとのハンチングが生じ得る。ここで、視線誘導灯が存在することが予め把握されている場合、存在領域248中に視線誘導灯が位置している可能性は高く、ヘッドランプ候補が抽出されても、それは視線誘導灯である可能性が高い。   By the way, as described above, it is desirable that the line-of-sight guide lamp originally emits a high beam. However, if the line-of-sight guide lamp is misrecognized as a headlamp, control is performed to avoid irradiation of the high beam to that region. . Therefore, if the recognition that the light source is a line-of-sight guide lamp becomes unstable even though the light source is a line-of-sight guide lamp, hunting between the high beam and the low beam may occur. Here, when it is known in advance that the line-of-sight guide light exists, it is highly likely that the line-of-sight guide lamp is located in the existence area 248, and even if a headlamp candidate is extracted, it is the line-of-sight guide light. There is a high possibility.

そこで、配光制御部184は、走行シーン判定部182が視線誘導灯が存在するシーンであると判定すると、カットライン角度の切換に用いる低域通過フィルタの時定数をさらに大きくし、視線誘導灯が存在するシーンではないと判定された場合より、カットライン角度を遅延させて切り換える。こうすることで、視線誘導灯をヘッドランプ候補と誤認識した場合であっても、カットライン角度が煩雑に切り換わる事態を回避することが可能となる。   Therefore, when the light distribution control unit 184 determines that the traveling scene determination unit 182 is a scene where the line-of-sight guide light exists, the time constant of the low-pass filter used for switching the cut line angle is further increased, and the line-of-sight guide light When the scene is determined not to exist, the cut line angle is delayed and switched. By doing so, even when the line-of-sight guide light is erroneously recognized as a headlamp candidate, it is possible to avoid a situation in which the cut line angle is changed in a complicated manner.

かかる車外環境認識装置120によって、ヘッドランプの配光制御を適切に実行することが可能となる。   The vehicle exterior environment recognition device 120 can appropriately execute the light distribution control of the headlamp.

また、コンピュータを車外環境認識装置120として機能させるプログラムや、当該プログラムを記録した、コンピュータで読み取り可能なフレキシブルディスク、光磁気ディスク、ROM、CD、DVD、BD等の記憶媒体も提供される。ここで、プログラムは、任意の言語や記述方法にて記述されたデータ処理手段をいう。   Also provided are a program for causing a computer to function as the vehicle environment recognition device 120, and a computer-readable storage medium such as a flexible disk, magneto-optical disk, ROM, CD, DVD, or BD on which the program is recorded. Here, the program refers to data processing means described in an arbitrary language or description method.

以上、添付図面を参照しながら本発明の好適な実施形態について説明したが、本発明はかかる実施形態に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。   As mentioned above, although preferred embodiment of this invention was described referring an accompanying drawing, it cannot be overemphasized that this invention is not limited to this embodiment. It will be apparent to those skilled in the art that various changes and modifications can be made within the scope of the claims, and these are naturally within the technical scope of the present invention. Is done.

例えば、上述した実施形態では、その都度、HBAやADBによる配光制御を説明しているが、全ての処理がいずれの配光制御にも適用できる。   For example, in the above-described embodiment, the light distribution control by HBA or ADB is described each time, but all the processes can be applied to any light distribution control.

また、上述した実施形態では、様々な閾値を設定しているが、かかる値は、適宜変更可能であり、経験値や実験値によって設定することもできる。   In the above-described embodiment, various threshold values are set, but such values can be changed as appropriate, and can be set based on experience values and experimental values.

なお、本明細書の車外環境認識処理の各工程は、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はなく、並列的あるいはサブルーチンによる処理を含んでもよい。   It should be noted that each step of the vehicle environment recognition processing in the present specification does not necessarily have to be processed in time series in the order described in the flowchart, and may include processing in parallel or by a subroutine.

本発明は、車外環境に応じてヘッドランプの配光制御を行う車外環境認識装置に利用することができる。   INDUSTRIAL APPLICABILITY The present invention can be used for an external environment recognition device that performs light distribution control of a headlamp according to the external environment.

120 車外環境認識装置
124 照明機構
164 要否判定部
166 検出範囲設定部
168 先行車両抽出部
170 先行車両認識部
172 対向車両抽出部
174 視線誘導灯抽出部
176 対向車両認識部
178 街灯抽出部
180 街灯認識部
182 走行シーン判定部
184 配光制御部
120 Outside vehicle environment recognition device 124 Illumination mechanism 164 Necessity determining unit 166 Detection range setting unit 168 Leading vehicle extraction unit 170 Leading vehicle recognition unit 172 Oncoming vehicle extraction unit 174 Line-of-sight guidance light extraction unit 176 Oncoming vehicle recognition unit 178 Streetlight extraction unit 180 Streetlight Recognition unit 182 Travel scene determination unit 184 Light distribution control unit

Claims (2)

コンピュータが、
少なくとも画素の輝度が所定の輝度閾値以上であることを条件に、画像から対向車両のヘッドランプ候補を抽出する対向車両抽出部と、
抽出された前記ヘッドランプ候補から視線誘導灯を抽出し、該視線誘導灯をヘッドランプ候補から除外する視線誘導灯抽出部と、
前記ヘッドランプ候補に基づいて対向車両を認識する対向車両認識部と、
前記視線誘導灯の抽出に基づいて、視線誘導灯が存在するシーンであるか判定し、視線誘導灯が存在するシーンであると判定すると、視線誘導灯が存在する存在領域を特定する走行シーン判定部、
として機能し、
前記対向車両抽出部は、視線誘導灯が存在するシーンであると判定されれば、前記存在領域における前記輝度閾値を、該存在領域以外の領域より高くすることを特徴とする車外環境認識装置。
Computer
An oncoming vehicle extraction unit that extracts a headlamp candidate of the oncoming vehicle from the image, on the condition that at least the luminance of the pixel is equal to or higher than a predetermined luminance threshold;
A line-of-sight guide light extraction unit that extracts a line-of-sight guide light from the extracted head lamp candidates and excludes the line-of-sight guide light from the head lamp candidates;
An oncoming vehicle recognition unit for recognizing an oncoming vehicle based on the headlamp candidates;
Based on the extraction of the line-of-sight guide light, it is determined whether it is a scene where the line-of-sight guide light exists, and if it is determined that the line-of-sight guide light exists, a running scene determination that specifies an existing area where the line-of-sight guide light exists Part,
Function as
If the oncoming vehicle extraction unit determines that the scene has a line-of-sight guide light, the on-vehicle environment recognition device is characterized in that the brightness threshold value in the presence area is set higher than the area other than the presence area.
前記対向車両抽出部は、視線誘導灯が存在するシーンであると判定されれば、前記存在領域以外の領域における前記輝度閾値を下げることを特徴とする請求項1に記載の車外環境認識装置。   The on-vehicle environment recognition device according to claim 1, wherein the oncoming vehicle extraction unit lowers the luminance threshold in a region other than the presence region when it is determined that the scene includes a line-of-sight guide light.
JP2015236022A 2015-12-02 2015-12-02 Outside environment recognition device Active JP6670085B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015236022A JP6670085B2 (en) 2015-12-02 2015-12-02 Outside environment recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015236022A JP6670085B2 (en) 2015-12-02 2015-12-02 Outside environment recognition device

Publications (2)

Publication Number Publication Date
JP2017100593A true JP2017100593A (en) 2017-06-08
JP6670085B2 JP6670085B2 (en) 2020-03-18

Family

ID=59015907

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015236022A Active JP6670085B2 (en) 2015-12-02 2015-12-02 Outside environment recognition device

Country Status (1)

Country Link
JP (1) JP6670085B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017100594A (en) * 2015-12-02 2017-06-08 株式会社Subaru Outside-car environment recognition device
JP2017100595A (en) * 2015-12-02 2017-06-08 株式会社Subaru Outside-car environment recognition device
CN110020575A (en) * 2018-01-10 2019-07-16 富士通株式会社 Vehicle detection apparatus and method, electronic equipment
JP2020023227A (en) * 2018-08-06 2020-02-13 株式会社小糸製作所 Vehicle lamp fitting
CN113489972A (en) * 2020-08-18 2021-10-08 杭州海康汽车软件有限公司 Method and device for testing picture brightness consistency
JP2021163476A (en) * 2020-04-03 2021-10-11 中信戴▲か▼股▲ふん▼有限公司CITIC Dicastal Co., Ltd Travel scene determination method, device, computer, storage medium and system
CN115175409A (en) * 2022-05-26 2022-10-11 江苏灵敏智控科技有限公司 Street lamp control system and control method based on Internet of things
JP7356319B2 (en) 2019-10-17 2023-10-04 株式会社Subaru Vehicle exterior environment recognition device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07210795A (en) * 1994-01-24 1995-08-11 Babcock Hitachi Kk Method and instrument for image type traffic flow measurement
JP2008033676A (en) * 2006-07-28 2008-02-14 Denso Corp Vehicle detecting device
JP2011253222A (en) * 2010-05-31 2011-12-15 Denso Corp Front region detection device and vehicle control device
JP2013209035A (en) * 2012-03-30 2013-10-10 Clarion Co Ltd Light distribution control device of headlight

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07210795A (en) * 1994-01-24 1995-08-11 Babcock Hitachi Kk Method and instrument for image type traffic flow measurement
JP2008033676A (en) * 2006-07-28 2008-02-14 Denso Corp Vehicle detecting device
JP2011253222A (en) * 2010-05-31 2011-12-15 Denso Corp Front region detection device and vehicle control device
JP2013209035A (en) * 2012-03-30 2013-10-10 Clarion Co Ltd Light distribution control device of headlight

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017100594A (en) * 2015-12-02 2017-06-08 株式会社Subaru Outside-car environment recognition device
JP2017100595A (en) * 2015-12-02 2017-06-08 株式会社Subaru Outside-car environment recognition device
CN110020575A (en) * 2018-01-10 2019-07-16 富士通株式会社 Vehicle detection apparatus and method, electronic equipment
CN110020575B (en) * 2018-01-10 2022-10-21 富士通株式会社 Vehicle detection device and method and electronic equipment
JP2020023227A (en) * 2018-08-06 2020-02-13 株式会社小糸製作所 Vehicle lamp fitting
JP7173780B2 (en) 2018-08-06 2022-11-16 株式会社小糸製作所 vehicle lamp
JP7356319B2 (en) 2019-10-17 2023-10-04 株式会社Subaru Vehicle exterior environment recognition device
JP2021163476A (en) * 2020-04-03 2021-10-11 中信戴▲か▼股▲ふん▼有限公司CITIC Dicastal Co., Ltd Travel scene determination method, device, computer, storage medium and system
US11691625B2 (en) 2020-04-03 2023-07-04 Citic Dicastal Co., Ltd. Driving scene determining method and apparatus, computer, storage medium, and system
CN113489972A (en) * 2020-08-18 2021-10-08 杭州海康汽车软件有限公司 Method and device for testing picture brightness consistency
CN115175409A (en) * 2022-05-26 2022-10-11 江苏灵敏智控科技有限公司 Street lamp control system and control method based on Internet of things
CN115175409B (en) * 2022-05-26 2023-07-18 江苏灵敏智控科技有限公司 Street lamp control system and control method based on Internet of things

Also Published As

Publication number Publication date
JP6670085B2 (en) 2020-03-18

Similar Documents

Publication Publication Date Title
JP6310899B2 (en) Outside environment recognition device
JP6200481B2 (en) Outside environment recognition device
JP6670085B2 (en) Outside environment recognition device
US10252662B2 (en) Method for controlling a headlight
US9821706B2 (en) Illuminating device, illuminating method, program, and medium
US20120027255A1 (en) Vehicle detection apparatus
JPWO2012140752A1 (en) On-vehicle peripheral object recognition device and driving support device using the same
JP6660162B2 (en) Outside environment recognition device
KR102135901B1 (en) Control system of high-beam assist system of vehicle and method the same
JP5955291B2 (en) Filtering device and environment recognition system
JP6214290B2 (en) Headlight control device
CN108367703B (en) Headlamp control device
JP7356319B2 (en) Vehicle exterior environment recognition device
JP6527455B2 (en) Outside environment recognition device
JP6549974B2 (en) Outside environment recognition device
JP6539191B2 (en) Outside environment recognition device
JP6975270B2 (en) External environment recognition device
JP6190210B2 (en) Headlight control device
JP6527456B2 (en) Outside environment recognition device
JP6378594B2 (en) Outside environment recognition device
JP2015232846A5 (en)
WO2019156087A1 (en) Image processing device and vehicle light fixture
JP6549973B2 (en) Outside environment recognition device
JP2012240523A (en) Light distribution control device
KR102465335B1 (en) Headlamp detecting apparatus and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180910

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190710

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190716

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190903

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200228

R150 Certificate of patent or registration of utility model

Ref document number: 6670085

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250