JP6085522B2 - Image processing device - Google Patents

Image processing device Download PDF

Info

Publication number
JP6085522B2
JP6085522B2 JP2013112954A JP2013112954A JP6085522B2 JP 6085522 B2 JP6085522 B2 JP 6085522B2 JP 2013112954 A JP2013112954 A JP 2013112954A JP 2013112954 A JP2013112954 A JP 2013112954A JP 6085522 B2 JP6085522 B2 JP 6085522B2
Authority
JP
Japan
Prior art keywords
value
image
tail lamp
target
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013112954A
Other languages
Japanese (ja)
Other versions
JP2014232431A (en
Inventor
原也 小川
原也 小川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Fuji Jukogyo KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Jukogyo KK filed Critical Fuji Jukogyo KK
Priority to JP2013112954A priority Critical patent/JP6085522B2/en
Publication of JP2014232431A publication Critical patent/JP2014232431A/en
Application granted granted Critical
Publication of JP6085522B2 publication Critical patent/JP6085522B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、自車両の前方を撮像して得られる撮像画像についての画像処理を行う画像処理装置の技術分野に関する。   The present invention relates to a technical field of an image processing apparatus that performs image processing on a captured image obtained by imaging the front of a host vehicle.

特許第4666049号公報Japanese Patent No. 4666049

ヘッドライト配光制御として、いわゆるAHB(Auto High Beam)やADB(Adaptive Driving Beam)が知られている。これらのヘッドライト配光制御を行うにあたっては、自車両の前方に存在する先行車、対向車を認識することが要求される。仮に、先行車、対向車に対してハイビームが照射されてしまうと、先行車、対向車の運転者が眩惑されて運転に支障を来す虞があり、これを防止するためである。
先行車の検出のためには、自車両の前方を撮像して得られる撮像画像上で先行車のテールランプを検出することが考えられる。
なお、上記特許文献1には、車両のヘッドライト等の発光体と反射物を識別する技術が開示されている。
As headlight light distribution control, so-called AHB (Auto High Beam) and ADB (Adaptive Driving Beam) are known. In performing these headlight light distribution controls, it is required to recognize a preceding vehicle and an oncoming vehicle that are in front of the host vehicle. If a high beam is irradiated to the preceding vehicle and the oncoming vehicle, the driver of the preceding vehicle and the oncoming vehicle may be dazzled and hinder driving. This is to prevent this.
In order to detect the preceding vehicle, it is conceivable to detect the tail lamp of the preceding vehicle on a captured image obtained by imaging the front of the host vehicle.
Patent Document 1 discloses a technique for identifying a light emitter such as a headlight of a vehicle and a reflector.

先行車検出に関しては撮像画像上でテールランプとしての発光体を検出することが有効である。例えば撮像画像上の高輝度領域を発光体として検出する。しかし撮像画像上で検出される高輝度領域としては、実際にはヘッドライト等の光が反射した標識等の場合もある。
発光体と、反射体を切り分ける技術として上記特許文献1では、発光体と反射体の映り方の違いを元に、対象の輝度の頻度分布の傾向(低輝度から高輝度になるほど頻度が減少しているか)により切り分けを行っている。この手法では、対象に充分な画素数がある(つまり距離が近い)場面では有効ではあるが、画素数が少ない場合では頻度分布が信頼できる頻度の数とならずうまくいかない。また、対象ごと頻度分布処理を行っているため、処理量も課題となる。
For detection of a preceding vehicle, it is effective to detect a light emitter as a tail lamp on a captured image. For example, a high luminance area on the captured image is detected as a light emitter. However, the high-intensity area detected on the captured image may actually be a sign or the like that reflects light such as a headlight.
As a technique for separating the light emitter and the reflector, in Patent Document 1 described above, based on the difference in how the light emitter and the reflector are reflected, the frequency distribution tendency of the target luminance (the frequency decreases as the luminance increases from low to high). Or the like). This method is effective in a scene where the target has a sufficient number of pixels (that is, the distance is short), but when the number of pixels is small, the frequency distribution does not become a reliable number of frequencies and does not work. Moreover, since the frequency distribution processing is performed for each target, the processing amount is also an issue.

そこで本発明は、テールランプの検出・識別を精度よく、また処理負担を少なくして実現することを目的とする。   Therefore, an object of the present invention is to realize tail lamp detection / identification with high accuracy and with a small processing load.

第1に、本発明に係る画像処理装置は、自車両の前方を撮像した撮像画像を得る撮像部と、前記撮像画像内で赤色領域を検出する赤色領域検出処理と、前記赤色領域検出処理で検出された赤色領域に含まれる複数の画素の輝度値のうちの高輝度代表値と低輝度代表値との乖離値を求め、前記乖離値と閾値との大小関係を判定する判定処理とを行い、前記判定処理の結果を、当該赤色領域が先行車両のテールランプ画像であるか否かの識別処理に用いる画像処理部と、を備えるものである。
この場合、先行車検出は、まず撮像画像の赤色領域を抽出する。赤色領域を対象とすることで、赤色以外の発光体の影響を排除するとともに画像上での処理範囲や、赤色検出の範囲となる輝度範囲を限定する。
但し、検出される赤色領域はすべてが先行車のテールランプとは限らず、自車両のヘッドライトが制限速度など赤色を有する標識に反射しているものが撮像された領域も存在する。
ここで車両のテールランプなどの自発光の光源では、光が拡散するため輝度分布が広くなる傾向があり、一方、自車両のヘッドライトなどが標識等に反射した光は、輝度分布が狭くなる傾向にある。このため赤色領域における高輝度代表値と低輝度代表値の乖離値はテールランプ光と反射光で異なる。これを利用してテールランプ検出を行う。
1stly, the image processing apparatus which concerns on this invention is the imaging part which acquires the captured image which imaged the front of the own vehicle, the red area detection process which detects a red area in the said captured image, and the said red area detection process A determination process for obtaining a divergence value between a high luminance representative value and a low luminance representative value among luminance values of a plurality of pixels included in the detected red region, and determining a magnitude relationship between the divergence value and a threshold value is performed. And an image processing unit that uses the result of the determination processing for identification processing as to whether or not the red region is a tail lamp image of a preceding vehicle.
In this case, the preceding vehicle detection first extracts the red region of the captured image. By targeting the red region, the influence of light emitters other than red is excluded, and the processing range on the image and the luminance range that is the red detection range are limited.
However, the detected red area is not necessarily the tail lamp of the preceding vehicle, and there is an area where the headlight of the own vehicle is reflected by a sign having red color such as a speed limit.
Here, a self-luminous light source such as a tail lamp of a vehicle tends to have a wide luminance distribution because light diffuses, while a light distribution reflected by a headlight of the own vehicle on a sign or the like tends to have a narrow luminance distribution. It is in. For this reason, the difference value between the high luminance representative value and the low luminance representative value in the red region is different between the tail lamp light and the reflected light. Using this, tail lamp detection is performed.

第2に、上記した本発明に係る画像処理装置においては、前記画像処理部は、前記高輝度代表値の値に応じて、前記閾値を変更することが望ましい。
即ち高輝度代表値と低輝度代表値の乖離値は、輝度値の影響を受けて増減することを考慮して、高輝度代表値の値に応じて、乖離値と比較する閾値を変更する。
Second, in the above-described image processing apparatus according to the present invention, it is preferable that the image processing unit changes the threshold value in accordance with the value of the high luminance representative value.
That is, considering that the divergence value between the high luminance representative value and the low luminance representative value increases or decreases under the influence of the luminance value, the threshold value to be compared with the divergence value is changed according to the value of the high luminance representative value.

第3に、上記した本発明に係る画像処理装置においては、前記画像処理部は、前記識別処理を、自車両のヘッドライトがハイビーム状態である期間に実行することが望ましい。
標識灯の反射光は、ハイビームの期間に主に画像上に現れるためである。
Thirdly, in the above-described image processing apparatus according to the present invention, it is desirable that the image processing unit executes the identification process during a period in which the headlight of the host vehicle is in a high beam state.
This is because the reflected light of the marker lamp mainly appears on the image during the high beam period.

第4に、上記した本発明に係る画像処理装置においては、前記画像処理部は、前記撮像画像内でテールランプ検出範囲を設定し、該テールランプ検出範囲内で赤色領域を検出することが望ましい。
即ちテールランプとして存在し得る検出範囲を限定して赤色領域検出を行う。
Fourthly, in the above-described image processing apparatus according to the present invention, it is preferable that the image processing unit sets a tail lamp detection range in the captured image and detects a red region within the tail lamp detection range.
That is, the red region detection is performed by limiting the detection range that can exist as a tail lamp.

第5に、上記した本発明に係る画像処理装置においては、前記画像処理部は、前記識別処理において、赤色領域が先行車両のテールランプ画像であることの信頼度を各種条件に応じて加減算し、前記信頼度の値に応じて当該赤色領域が先行車両のテールランプ画像であるか否かを識別するとともに、前記判定処理の結果に応じて前記信頼度の値を減算又は加算することが望ましい。
各種条件により信頼度の値を加減することで、テールランプ識別の信頼性を高める。この場合に、乖離値についての閾値との比較結果を信頼度の値に反映させる。
Fifth, in the above-described image processing device according to the present invention, the image processing unit adds or subtracts the reliability that the red region is the tail lamp image of the preceding vehicle in the identification processing according to various conditions, It is desirable to identify whether the red region is a tail lamp image of a preceding vehicle according to the reliability value, and to subtract or add the reliability value according to the result of the determination process.
The reliability of tail lamp identification is improved by adjusting the reliability value according to various conditions. In this case, the comparison result of the deviation value with the threshold value is reflected in the reliability value.

本発明によれば、負担の少ない処理で画像上での先行車のテールランプ識別を適切に行うことができる。   According to the present invention, it is possible to appropriately identify the tail lamp of the preceding vehicle on the image by processing with less burden.

実施の形態の車両制御システムの構成を示した図である。It is the figure which showed the structure of the vehicle control system of embodiment. 実施の形態で実行される画像処理について説明するための図である。It is a figure for demonstrating the image processing performed in embodiment. 明画像、暗画像の例を示した図である。It is the figure which showed the example of the bright image and the dark image. テールランプ検出範囲、ヘッドライト検出範囲、及び街灯検出範囲についての説明図である。It is explanatory drawing about a tail lamp detection range, a headlight detection range, and a streetlight detection range. 実施の形態に係る各処理の全体的な流れを示したフローチャートである。It is the flowchart which showed the whole flow of each process which concerns on embodiment. テールランプ検出処理を説明するためのフローチャートである。It is a flowchart for demonstrating a tail lamp detection process. 要素グループと対象グループの説明図である。It is explanatory drawing of an element group and an object group. 対象認識・識別処理の全体的な流れを説明するためのフローチャートである。It is a flowchart for demonstrating the whole flow of object recognition and identification processing. 対象領域算出処理の流れを示したフローチャートである。It is the flowchart which showed the flow of the object area | region calculation process. 対象グループトラッキング処理の流れを示したフローチャートである。It is the flowchart which showed the flow of the object group tracking process. 対象識別処理の流れを示したフローチャートである。It is the flowchart which showed the flow of the object identification process. 制御情報算出処理の内容を示したフローチャートである。It is the flowchart which showed the content of the control information calculation process. 対象以外ハイビームONを表す制御情報に応じて実現されるハイビームの照射態様についての説明図である。It is explanatory drawing about the irradiation aspect of the high beam implement | achieved according to the control information showing high beam ON other than object. 近接時における対向車とヘッドライト検出範囲との関係の説明図である。It is explanatory drawing of the relationship between the oncoming vehicle and headlight detection range at the time of proximity | contact.

<1.システム全体構成>
図1は、本発明に係る実施の形態としての画像処理装置を備えた車両制御システム1の構成を示している。なお、図1では、車両制御システム1の構成のうち主に本発明に係る要部の構成のみを抽出して示している。
車両制御システム1は、自車両に対して設けられた撮像部2、画像処理部3、メモリ4、運転支援制御部5、表示制御部6、エンジン制御部7、トランスミッション制御部8、ブレーキ制御部9、ライト制御部10、表示部11、エンジン関連アクチュエータ12、トランスミッション関連アクチュエータ13、ブレーキ関連アクチュエータ14、ヘッドライト15、ADB(Adaptive Driving Beam)アクチュエータ16、センサ・操作子類17、及びバス18を備えている。
<1. Overall system configuration>
FIG. 1 shows a configuration of a vehicle control system 1 including an image processing apparatus as an embodiment according to the present invention. In FIG. 1, only the configuration of the main part according to the present invention is extracted and shown from the configuration of the vehicle control system 1.
The vehicle control system 1 includes an imaging unit 2, an image processing unit 3, a memory 4, a driving support control unit 5, a display control unit 6, an engine control unit 7, a transmission control unit 8, and a brake control unit provided for the host vehicle. 9. Light control unit 10, display unit 11, engine-related actuator 12, transmission-related actuator 13, brake-related actuator 14, headlight 15, ADB (Adaptive Driving Beam) actuator 16, sensor / operator 17 and bus 18. I have.

撮像部2は、車両において進行方向(前方)を撮像可能に設置された第1カメラ部2A、第2カメラ部2Bを備えている。第1カメラ部2A、第2カメラ部2Bは、いわゆるステレオ法による測距が可能となるように、例えば自車両のフロントガラスの上部付近において車幅方向に所定間隔を空けて配置されている。第1カメラ部2A、第2カメラ部2Bの光軸は平行とされ、焦点距離はそれぞれ同値とされる。また、フレーム周期は同期し、フレームレートも一致している。撮像素子の画素数は例えば640×480程度である。   The imaging unit 2 includes a first camera unit 2A and a second camera unit 2B that are installed so as to be able to capture the traveling direction (front) of the vehicle. The first camera unit 2A and the second camera unit 2B are arranged, for example, at a predetermined interval in the vehicle width direction in the vicinity of the upper part of the windshield of the host vehicle so that distance measurement by a so-called stereo method is possible. The optical axes of the first camera unit 2A and the second camera unit 2B are parallel, and the focal lengths are the same. Also, the frame periods are synchronized and the frame rates are the same. The number of pixels of the image sensor is, for example, about 640 × 480.

第1カメラ部2A,第2カメラ部2Bの各撮像素子で得られた電気信号(撮像画像信号)はそれぞれA/D変換され、画素単位で所定階調による輝度値を表すデジタル画像信号(撮像画像データ)とされる。本実施の形態の場合、これらの撮像画像データはカラー画像データとされ、従って1画素につきR(赤)、G(緑)、B(青)の3つのデータ(輝度値)が得られる。輝度値の階調は、例えば256階調とされる。
以下、第1カメラ部2Aで得られた撮像画像データを「第1撮像画像データ」、第2カメラ部2Bで得られた撮像画像データを「第2撮像画像データ」と表記する。
Electrical signals (captured image signals) obtained by the image sensors of the first camera unit 2A and the second camera unit 2B are each A / D converted, and digital image signals (imaging images) representing luminance values with a predetermined gradation in pixel units. Image data). In the present embodiment, these captured image data are color image data, and therefore, three data (luminance values) of R (red), G (green), and B (blue) are obtained for each pixel. The gradation of the luminance value is, for example, 256 gradations.
Hereinafter, the captured image data obtained by the first camera unit 2A is referred to as “first captured image data”, and the captured image data obtained by the second camera unit 2B is referred to as “second captured image data”.

本例における撮像部2は、第1カメラ部2A、第2カメラ部2Bのシャッタースピードやゲイン(ISO感度)についての自動調整機能を有している。また、撮像部2は、画像処理部3からの指示に基づき第1カメラ部2A、第2カメラ部2Bのシャッタースピードやゲインを調整することも可能とされている。   The imaging unit 2 in this example has an automatic adjustment function for the shutter speed and gain (ISO sensitivity) of the first camera unit 2A and the second camera unit 2B. The imaging unit 2 is also capable of adjusting the shutter speed and gain of the first camera unit 2A and the second camera unit 2B based on an instruction from the image processing unit 3.

画像処理部3は、例えばCPU(Central Processing Unit)、ROM(Read Only Memory)及びワークエリアとしてのRAM(Random Access Memory)を備えたマイクロコンピュータで構成され、ROMに格納されたプログラムに従った各種の処理を実行する。
画像処理部3は、撮像部2が自車両の前方を撮像して得た第1撮像画像データ、第2撮像画像データとしての各フレーム画像データをメモリ部4に格納していく。そして各フレームの第1撮像画像データ、第2撮像画像データに基づき、外部環境として車両前方に存在する物体を認識・識別するための各種処理を実行する。
なお、画像処理部3が実行する具体的な処理の詳細については後述する。
The image processing unit 3 is configured by a microcomputer including, for example, a CPU (Central Processing Unit), a ROM (Read Only Memory), and a RAM (Random Access Memory) as a work area, and various types of programs according to programs stored in the ROM. Execute the process.
The image processing unit 3 stores the first captured image data and the frame image data as the second captured image data obtained by the imaging unit 2 imaging the front of the host vehicle in the memory unit 4. Based on the first captured image data and the second captured image data of each frame, various processes for recognizing and identifying an object existing in front of the vehicle as an external environment are executed.
Details of specific processing executed by the image processing unit 3 will be described later.

運転支援制御部5は、例えばマイクロコンピュータで構成され、画像処理部3による画像処理の結果やセンサ・操作子類17で得られる検出情報や操作入力情報等に基づき、運転支援のための各種の制御処理を実行する。
運転支援制御部5は、同じくマイクロコンピュータで構成された表示制御部6、エンジン制御部7、トランスミッション制御部8、ブレーキ制御部9、及びライト制御部10の各制御部とバス18を介して接続されており、これら各制御部との間で相互にデータ通信を行うことが可能とされる。運転支援制御部5は、上記の各制御部のうち必要な制御部に対して指示を行って運転支援に係る動作を実行させる。
本実施の形態の場合、運転支援制御部5は、ヘッドライト15についての配光制御を行う。図中では、運転支援制御部5が有する配光制御のための処理機能を、「配光制御処理部5A」としての機能ブロックにより表している。配光制御処理部5Aは、画像処理部3が対向車や先行車、街灯等の認識・識別結果から生成した制御情報に基づき、ライト制御部10にADB制御のための指示を行う。
The driving support control unit 5 is composed of, for example, a microcomputer, and is based on the results of image processing by the image processing unit 3, detection information obtained by the sensor / operator 17 and operation input information, and the like. Execute control processing.
The driving support control unit 5 is connected to each control unit of the display control unit 6, the engine control unit 7, the transmission control unit 8, the brake control unit 9, and the light control unit 10, which are also configured by a microcomputer, via the bus 18. Thus, data communication can be performed with each of these control units. The driving support control unit 5 instructs a necessary control unit among the above control units to execute an operation related to driving support.
In the case of the present embodiment, the driving support control unit 5 performs light distribution control for the headlight 15. In the drawing, the processing function for the light distribution control of the driving support control unit 5 is represented by a functional block as “light distribution control processing unit 5A”. The light distribution control processing unit 5A instructs the light control unit 10 for ADB control based on the control information generated from the recognition / identification result of the oncoming vehicle, the preceding vehicle, the streetlight, and the like by the image processing unit 3.

センサ・操作子類17は、自車両に設けられた各種のセンサや操作子を包括的に表している。センサ・操作子類17が有するセンサとしては、例えばエンジン回転数センサ、吸入空気量を検出する吸入空気量センサ、アクセルペダルの踏込み量からアクセル開度を検出するアクセル開度センサ、吸気通路に介装されてエンジンの各気筒に供給する吸入空気量を調整するスロットル弁の開度を検出するスロットル開度センサ、エンジン温度を示す冷却水温を検出する水温センサ、車外の気温を検出する外気温センサ等がある。
また、操作子としては、エンジンの始動/停止を指示するためのイグニッションスイッチや、AT(オートマティックトランスミッション)車における自動変速モード/手動変速モードの選択や手動変速モード時におけるシフトアップ/ダウンの指示を行うためのセレクトレバーや、後述する表示部11に設けられたMFD(Multi Function Display)における表示情報の切り換えを行うための表示切換スイッチなどがある。
特に本実施の形態の場合、センサ・操作子類17においては、車速センサ17A、舵角センサ17B、アクセル開度センサ17C、ヘッドライトスイッチ17D、ウィンカースイッチ17Eが設けられている。ヘッドライトスイッチ17Dは、ヘッドライト15のロービームのON/OFFやハイビームのON/OFFの指示を行うための操作子を表す。ここで、本例の場合、ハイビームのON/OFF操作に応じてADB機能もON/OFFされる。
The sensors / operators 17 comprehensively represent various sensors and operators provided in the host vehicle. Sensors / operators 17 include, for example, an engine speed sensor, an intake air amount sensor that detects the intake air amount, an accelerator opening sensor that detects the accelerator opening amount from the depression amount of the accelerator pedal, and an intake passage. A throttle opening sensor that detects the opening of a throttle valve that adjusts the amount of intake air supplied to each cylinder of the engine, a water temperature sensor that detects the cooling water temperature that indicates the engine temperature, and an outside air temperature sensor that detects the temperature outside the vehicle Etc.
In addition, as an operator, an ignition switch for instructing start / stop of the engine, selection of an automatic transmission mode / manual transmission mode in an AT (automatic transmission) vehicle, and an instruction for up / down in the manual transmission mode are given. There are a select lever for performing, a display changeover switch for switching display information in an MFD (Multi Function Display) provided in the display unit 11 described later, and the like.
Particularly in the case of the present embodiment, the sensor / operator 17 is provided with a vehicle speed sensor 17A, a rudder angle sensor 17B, an accelerator opening sensor 17C, a headlight switch 17D, and a winker switch 17E. The headlight switch 17D represents an operator for instructing ON / OFF of the low beam of the headlight 15 and ON / OFF of the high beam. Here, in the case of this example, the ADB function is also turned ON / OFF according to the ON / OFF operation of the high beam.

表示部11は、運転者の前方に設置されたメータパネル内に設けられるスピードメータやタコメータ等の各種メータやMFD、及びその他運転者に情報提示を行うための表示デバイスを包括的に表す。MFDには、自車両の総走行距離や外気温、瞬間燃費等といった各種の情報を同時又は切り換えて表示可能とされる。   The display unit 11 comprehensively represents various meters such as a speedometer and a tachometer provided in a meter panel installed in front of the driver, an MFD, and other display devices for presenting information to the driver. Various information such as the total travel distance of the host vehicle, the outside air temperature, and instantaneous fuel consumption can be displayed on the MFD simultaneously or by switching.

表示制御部6は、センサ・操作子類17における所定のセンサからの検出信号や操作子による操作入力情報等に基づき、表示部11による表示動作を制御する。   The display control unit 6 controls the display operation by the display unit 11 based on a detection signal from a predetermined sensor in the sensor / operation element 17, operation input information by the operation element, and the like.

エンジン制御部7は、センサ・操作子類17における所定のセンサからの検出信号や操作子による操作入力情報等に基づき、エンジン関連アクチュエータ12として設けられた各種アクチュエータを制御する。エンジン関連アクチュエータ12としては、例えばスロットル弁を駆動するスロットルアクチュエータや燃料噴射を行うインジェクタ等のエンジン駆動に係る各種のアクチュエータが設けられる。
例えばエンジン制御部7は、前述したイグニッションスイッチの操作に応じてエンジンの始動/停止制御を行う。また、エンジン制御部7は、エンジン回転数センサやアクセル開度センサ等の所定のセンサからの検出信号に基づき、燃料噴射タイミング、燃料噴射パルス幅、スロットル開度等の制御も行う。
The engine control unit 7 controls various actuators provided as the engine-related actuator 12 based on a detection signal from a predetermined sensor in the sensor / operator 17 or operation input information by the operator. As the engine-related actuator 12, for example, various actuators related to engine driving such as a throttle actuator that drives a throttle valve and an injector that performs fuel injection are provided.
For example, the engine control unit 7 performs engine start / stop control according to the operation of the ignition switch described above. The engine control unit 7 also controls the fuel injection timing, the fuel injection pulse width, the throttle opening, and the like based on detection signals from predetermined sensors such as an engine speed sensor and an accelerator opening sensor.

トランスミッション制御部8は、センサ・操作子類17における所定のセンサからの検出信号や操作子による操作入力情報等に基づき、トランスミッション関連アクチュエータ13として設けられた各種のアクチュエータを制御する。トランスミッション関連アクチュエータ13としては、例えば自動変速機の変速制御を行うコントロールバルブや、ロックアップクラッチをロックアップ動作させるロックアップアクチュエータ等のトランスミッション関連の各種アクチュエータが設けられる。
例えばトランスミッション制御部8は、前述したセレクトレバーによって自動変速モードが選択されている際には、所定の変速パターンに従い変速信号をコントロールバルブに出力して変速制御を行う。また、トランスミッション制御部8は、手動変速モードの設定時には、セレクトレバーによるシフトアップ/ダウン指示に従った変速信号をコントロールバルブに出力して変速制御を行う。
The transmission control unit 8 controls various actuators provided as the transmission-related actuator 13 based on a detection signal from a predetermined sensor in the sensor / operator 17 or operation input information by the operator. As the transmission-related actuator 13, there are provided various transmission-related actuators such as a control valve that performs shift control of an automatic transmission and a lockup actuator that locks up a lockup clutch.
For example, when the automatic shift mode is selected by the select lever described above, the transmission control unit 8 performs a shift control by outputting a shift signal to the control valve according to a predetermined shift pattern. Further, when the manual shift mode is set, the transmission control unit 8 performs a shift control by outputting a shift signal according to a shift up / down instruction from the select lever to the control valve.

ブレーキ制御部9は、センサ・操作子類17における所定のセンサからの検出信号や操作子による操作入力情報等に基づき、ブレーキ関連アクチュエータ14として設けられた各種のアクチュエータを制御する。ブレーキ関連アクチュエータ14としては、例えばブレーキブースターからマスターシリンダへの出力液圧やブレーキ液配管内の液圧をコントロールするための液圧制御アクチュエータ等、ブレーキ関連の各種のアクチュエータが設けられる。
例えばブレーキ制御部9は、運転支援制御部5よりブレーキをONする指示が為された場合に上記の液圧制御アクチュエータを制御して自車両を制動させる。またブレーキ制御部9は、所定のセンサ(例えば車軸の回転速度センサや車速センサ)の検出情報から車輪のスリップ率を計算し、スリップ率に応じて上記の液圧制御アクチュエータにより液圧を加減圧させることで、所謂ABS(Antilock Brake System)制御を実現する。
The brake control unit 9 controls various actuators provided as the brake-related actuator 14 based on a detection signal from a predetermined sensor in the sensor / operator 17 or operation input information by the operator. As the brake-related actuator 14, for example, various brake-related actuators such as a hydraulic pressure control actuator for controlling the hydraulic pressure output from the brake booster to the master cylinder and the hydraulic pressure in the brake fluid piping are provided.
For example, when an instruction to turn on the brake is issued from the driving support control unit 5, the brake control unit 9 controls the hydraulic pressure control actuator to brake the host vehicle. Further, the brake control unit 9 calculates a wheel slip ratio from detection information of a predetermined sensor (for example, an axle rotation speed sensor or a vehicle speed sensor), and increases or decreases the hydraulic pressure by the hydraulic pressure control actuator according to the slip ratio. By so doing, so-called ABS (Antilock Brake System) control is realized.

ライト制御部10は、センサ・操作子類17における所定のセンサからの検出信号や操作子による操作入力情報等に基づき、ヘッドライト15の点消灯制御やADBアクチュエータ16の制御を行う。
具体的に、ライト制御部10は、照度センサ等の所定のセンサによる検出信号に基づきヘッドライト15の点消灯を行うオートヘッドライト制御等を行う。また、ライト制御部10は、前述したヘッドライトスイッチ17Dによる操作入力情報に基づきヘッドライト15のロービーム、ハイビームのON/OFF制御も行う。また、特に本実施の形態のライト制御部10は、運転支援制御部5における配光制御処理部5Aからの指示に基づきADBアクチュエータ16を制御することで、ADB機能を実現する。本例におけるADBアクチュエータ16は、例えば遮光板を駆動するアクチュエータとされ、ライト制御部10からの制御に基づき遮光板を駆動することで、ハイビームの配光領域の一部に遮光領域を形成するか、或いは遮光領域を非形成(つまりハイビームを全照状態)とする。
The light control unit 10 controls turning on / off of the headlight 15 and control of the ADB actuator 16 based on a detection signal from a predetermined sensor in the sensor / operator 17 or operation input information by the operator.
Specifically, the light control unit 10 performs auto headlight control for turning on and off the headlight 15 based on a detection signal from a predetermined sensor such as an illuminance sensor. The light control unit 10 also performs ON / OFF control of the low beam and the high beam of the headlight 15 based on the operation input information from the headlight switch 17D described above. In particular, the light control unit 10 of the present embodiment realizes the ADB function by controlling the ADB actuator 16 based on an instruction from the light distribution control processing unit 5A in the driving support control unit 5. The ADB actuator 16 in this example is, for example, an actuator that drives a light shielding plate. Whether the light shielding region is formed in a part of the high beam light distribution region by driving the light shielding plate based on the control from the light control unit 10. Alternatively, the light-shielding region is not formed (that is, the high beam is fully illuminated).

<2.本実施の形態で実行される処理の概要>
図2により、本実施の形態で実行される各種処理の概要について説明する。
なお、図2においては、画像処理部3が第1撮像画像データ、第2撮像画像データに基づき実行する各種の画像処理を機能ごとに分けてブロック化して示している。また、図2では、運転支援制御部5が有する配光制御処理部5A、及びメモリ4も併せて示している。
<2. Overview of processing executed in this embodiment>
With reference to FIG. 2, an outline of various processes executed in the present embodiment will be described.
In FIG. 2, various types of image processing executed by the image processing unit 3 based on the first captured image data and the second captured image data are shown in blocks for each function. 2 also shows the light distribution control processing unit 5A and the memory 4 included in the driving support control unit 5.

図のように画像処理部3は、機能ごとに大別すると、距離画像生成処理部3A、車線検出処理部3B、車線モデル形成処理部3C、テールランプ検出処理部3D、ヘッドライト検出処理部3E、街灯検出処理部3F、対象認識・識別処理部3G、シーン判定処理部3H、及び制御情報算出処理部3Iを有していると表すことができる。   As shown in the figure, the image processing unit 3 is roughly classified according to function. The distance image generation processing unit 3A, the lane detection processing unit 3B, the lane model formation processing unit 3C, the tail lamp detection processing unit 3D, the headlight detection processing unit 3E, It can be expressed as having a streetlight detection processing unit 3F, an object recognition / identification processing unit 3G, a scene determination processing unit 3H, and a control information calculation processing unit 3I.

画像処理部3において、距離画像生成処理部3Aが実行する距離画像生成処理は、メモリ4に保持された第1撮像画像データ、第2撮像画像データに基づき距離画像を生成する処理となる。具体的に、距離画像生成処理は、第1撮像画像データと第2撮像画像データ(つまりステレオ撮像された一対の画像データ)の間の対応点をパターンマッチングにより検出し、検出された対応点間の座標のずれを視差Mとして算出し、該視差Mを用いて三角測量の原理により実空間上における対応点までの距離を画像上に表した距離画像データを生成する処理である。   In the image processing unit 3, the distance image generation processing executed by the distance image generation processing unit 3 </ b> A is a process of generating a distance image based on the first captured image data and the second captured image data held in the memory 4. Specifically, the distance image generation process detects the corresponding points between the first captured image data and the second captured image data (that is, a pair of image data captured in stereo) by pattern matching, and between the detected corresponding points. Is calculated as a parallax M, and distance image data is generated using the parallax M and representing the distance to the corresponding point in real space on the image by the principle of triangulation.

車線検出処理部3Bが実行する車線検出処理は、基準画像(つまり第1撮像画像データ又は第2撮像画像データのうち予め設定された方の画像データ)と、上記の距離画像生成処理で生成された距離画像データ(対応点としての画素ごとの距離情報)とに基づき、自車両が走行する路面上に形成された車線を検出する処理となる。具体的に、車線検出処理では、先ず基準画像の各画素の輝度値と各画素の実空間における距離とに基づいて基準画像上に車線候補点を検出し、検出した車線候補点に基づいて自車両の左右の車線位置を検出する。例えば、基準画像上の1画素幅の水平ライン上を左右方向に1画素ずつオフセットしながら探索し、基準画像の各画素の輝度値に基づいて各画素の輝度微分値(=エッジ強度)が閾値以上に大きく変化する条件を満たす画素を車線候補点として検出する。この処理を、上記探索の対象とする水平ラインを基準画像の例えば下側から上向きに1画素幅ずつオフセットさせながら順次行う。これにより、自車両の右側領域及び左側領域のそれぞれに車線候補点を検出する。   The lane detection processing executed by the lane detection processing unit 3B is generated by a reference image (that is, image data set in advance among the first captured image data or the second captured image data) and the distance image generation processing described above. Based on the distance image data (distance information for each pixel as a corresponding point), the lane formed on the road surface on which the host vehicle travels is detected. Specifically, in the lane detection process, first, a lane candidate point is detected on the reference image based on the luminance value of each pixel of the reference image and the distance in the real space of each pixel, and the lane detection point is automatically detected based on the detected lane candidate point. The left and right lane positions of the vehicle are detected. For example, a search is performed by offsetting a horizontal line having a width of one pixel on the reference image by one pixel in the left-right direction, and the luminance differential value (= edge strength) of each pixel is a threshold value based on the luminance value of each pixel of the reference image. Pixels that satisfy the conditions that change greatly as described above are detected as lane candidate points. This process is sequentially performed while offsetting the horizontal line to be searched for by one pixel width upward, for example, from the lower side of the reference image. Thereby, a lane candidate point is detected in each of the right region and the left region of the host vehicle.

車線モデル形成処理部3Cが実行する車線モデル形成処理は、上記の車線検出で検出された左右の車線候補点の情報に基づき、X,Y,Zの各軸(X軸は左右方向、Y軸は高さ方向、Z軸は車両進行方向)で定義される三次元空間上における車線モデルを形成する処理である。具体的には、車線検出部で検出された車線候補点の実空間上の位置(X,Y,Z)を例えば最小二乗法等で直線近似して、三次元空間上における車線モデルを形成する。
このように形成された車線モデルにより、自車両が走行する路面の高さ情報も得られたことになる。
なお、上記の距離画像生成処理、車線検出処理、及び車線モデル形成処理の手法は、特開2008−33750号公報に開示された手法と同様であり、詳しくは該文献を参照されたい。
The lane model formation process executed by the lane model formation processing unit 3C is based on the information on the left and right lane candidate points detected by the above lane detection, and the X, Y, and Z axes (the X axis is the left and right direction, the Y axis Is a process for forming a lane model in a three-dimensional space defined by the height direction and the Z-axis the vehicle traveling direction). Specifically, the lane model in the three-dimensional space is formed by linearly approximating the position (X, Y, Z) of the lane candidate point detected by the lane detection unit in the real space by, for example, the least square method. .
With the lane model formed in this way, the height information of the road surface on which the host vehicle travels can also be obtained.
Note that the method of the distance image generation process, the lane detection process, and the lane model formation process is the same as the technique disclosed in Japanese Patent Application Laid-Open No. 2008-33750.

テールランプ検出処理部3D、ヘッドライト検出処理部3E、街灯検出処理部3F、対象認識・識別処理部3G、シーン判定処理部3H、及び制御情報算出処理部3Iがそれぞれ実行するテールランプ検出処理、ヘッドライト検出処理、街灯検出処理、対象認識・識別処理、シーン判定処理、及び制御情報算出処理は、特に本実施の形態に係る処理となる。これら実施の形態に係る各処理については後に改めて説明する。   Tail lamp detection processing unit 3D, headlight detection processing unit 3E, streetlight detection processing unit 3F, object recognition / identification processing unit 3G, scene determination processing unit 3H, and control information calculation processing unit 3I respectively execute tail lamp detection processing, headlights The detection process, the streetlight detection process, the object recognition / identification process, the scene determination process, and the control information calculation process are particularly processes according to the present embodiment. Each processing according to these embodiments will be described later.

ここで、メモリ4には、ロービーム時距離閾値関係情報4A、及びハイビーム時距離閾値関係情報4Bが記憶されている。これらの情報は、対象認識・識別処理において用いられるものであるが、その詳細については後述する。   Here, the memory 4 stores low beam time distance threshold relationship information 4A and high beam time distance threshold relationship information 4B. These pieces of information are used in the object recognition / identification process, and details thereof will be described later.

<3.明画像・暗画像及び検出範囲について>
先ず、実施の形態に係る各処理の説明に先立ち、各処理で扱う2種の撮像画像(フレーム画像)、及び各対象の検出範囲について説明しておく。
<3. Bright and dark images and detection range>
First, prior to description of each process according to the embodiment, two types of captured images (frame images) handled in each process and detection ranges of each target will be described.

後述するように、本実施の形態では、ハイビームを照射すべきではない対象として先行車と対向車とを認識・識別する。先行車の認識・識別は、テールランプの検出結果に基づき行い、対向車の認識・識別はヘッドライトの検出結果に基づき行う。
ここで、ヘッドライトとテールランプはそれぞれ光量が大きく異なるため、同一のシャッタースピードで撮像された画像を用いてしまうと両者とも鮮明な像を検出できないという問題がある。例えば、テールランプに合わせたシャッタースピードで撮像された画像では、ヘッドライトの輝度が飽和して適正な検出ができなくなる。
As will be described later, in the present embodiment, the preceding vehicle and the oncoming vehicle are recognized and identified as targets that should not be irradiated with the high beam. The preceding vehicle is recognized and identified based on the detection result of the tail lamp, and the oncoming vehicle is recognized and identified based on the detection result of the headlight.
Here, since the headlight and the tail lamp have different amounts of light, there is a problem that a clear image cannot be detected by using both images captured at the same shutter speed. For example, in an image captured at a shutter speed according to the tail lamp, the brightness of the headlight is saturated and proper detection cannot be performed.

そこで、本実施の形態では、シャッタースピードをフレームごとに変更し、テールランプに合わせたシャッタースピード、ヘッドライトに合わせたシャッタースピードでそれぞれ撮像した画像によって各対象の検出処理を行う。以下、テールランプ用のシャッタースピード(ヘッドライト用よりも遅いシャッタースピード)で撮像して得られた撮像画像データを「明画像G1」、ヘッドライト用のシャッタースピード(テールランプ用よりも速いシャッタースピード)で撮像して得られた撮像画像データを「暗画像G2」と表記する。
同一シーンについて撮像された明画像G1、暗画像G2の例を図3A、図3Bにそれぞれに示す。
Therefore, in the present embodiment, the shutter speed is changed for each frame, and each object is detected using images captured with the shutter speed matched to the tail lamp and the shutter speed matched to the headlight. Hereinafter, the captured image data obtained by capturing at the shutter speed for the tail lamp (slower shutter speed than that for the headlight) is “bright image G1”, and the shutter speed for the headlight (faster shutter speed than that for the taillight). The captured image data obtained by imaging is denoted as “dark image G2”.
Examples of a bright image G1 and a dark image G2 captured for the same scene are shown in FIGS. 3A and 3B, respectively.

画像処理部3は、第1カメラ部2A、第2カメラ部2Bがそれぞれ明画像G1、暗画像G2を交互に出力するように撮像部2に指示を行う。これにより、第1カメラ部2Aにより得られる第1撮像画像データ、及び第2カメラ部2Bにより得られる第2撮像画像データとしては、それぞれ明画像G1、暗画像G2が1フレーム期間ごとに交互に切り替わることになる。このとき、明画像G1については、前述した自動調整機能で設定されたシャッタースピードで撮像させる。また、暗画像G2については、明画像G1のシャッタースピードに所定のオフセットを与えたシャッタースピードで撮像させる。
なお、前述した距離画像は、明画像G1に基づき生成される。
The image processing unit 3 instructs the imaging unit 2 so that the first camera unit 2A and the second camera unit 2B alternately output the bright image G1 and the dark image G2, respectively. As a result, as the first captured image data obtained by the first camera unit 2A and the second captured image data obtained by the second camera unit 2B, the bright image G1 and the dark image G2 are alternately displayed every frame period. It will be switched. At this time, the bright image G1 is imaged at the shutter speed set by the automatic adjustment function described above. The dark image G2 is imaged at a shutter speed obtained by adding a predetermined offset to the shutter speed of the bright image G1.
Note that the above-described distance image is generated based on the bright image G1.

ここで、本例の場合、暗画像G2は、ヘッドライト検出に用いられると共に、街灯検出処理部3Fによる街灯検出処理にも用いられる。この点を考慮し、本例における暗画像G2は明画像G1よりも上方向にオフセットされた画像とされている。
なお、撮像画像上での街灯の輝度は、テールランプとヘッドライトとの中間程度である場合が多いので、街灯検出処理は必ずしも暗画像G2に基づき行うことに限定されず、明画像G1に基づき行うこともできる。
Here, in the case of this example, the dark image G2 is used for headlight detection and also for streetlight detection processing by the streetlight detection processing unit 3F. Considering this point, the dark image G2 in this example is an image offset upward from the bright image G1.
In many cases, the brightness of the streetlight on the captured image is about halfway between the taillight and the headlight. Therefore, the streetlight detection process is not necessarily performed based on the dark image G2, but is performed based on the bright image G1. You can also.

また、本実施の形態では、テールランプ(先行車)、ヘッドライト(対向車)、街灯の各対象について検出範囲が定められている。すなわち、これらの各対象についての検出処理は明画像G1や暗画像G2の全画素を対象として行われるのではなく、テールランプ検出処理の対象範囲としてのテールランプ検出範囲As、ヘッドライト検出処理の対象範囲としてのヘッドライト検出範囲At、及び街灯検出処理の対象範囲としての街灯検出範囲Agに対してそれぞれ行われる。   Further, in the present embodiment, detection ranges are determined for each target of the tail lamp (preceding vehicle), the headlight (oncoming vehicle), and the streetlight. That is, the detection process for each of these targets is not performed for all the pixels of the bright image G1 and the dark image G2, but the tail lamp detection range As as the target range of the tail lamp detection process and the target range of the headlight detection process. Is performed for the headlight detection range At and the streetlight detection range Ag as the target range of the streetlight detection process.

図4Aは、明画像G1に対して定められたテールランプ検出範囲Asの例を、図4Bは暗画像G2に対して定められたヘッドライト検出範囲At及び街灯検出範囲Agの例を示している。これら各検出範囲は、それぞれ矩形範囲として設定されている。各検出範囲の位置は、画像内で対象が存在する領域がカバーされるようにそれぞれ設定されている。   4A shows an example of the tail lamp detection range As defined for the bright image G1, and FIG. 4B shows an example of the headlight detection range At and the streetlight detection range Ag defined for the dark image G2. Each of these detection ranges is set as a rectangular range. The position of each detection range is set so as to cover the area where the target exists in the image.

上記のようなテールランプ検出範囲As、ヘッドライト検出範囲At、及び街灯検出範囲Agの各検出範囲を設定しておくことで、対象を検出する範囲が限定されて、処理時間の短縮化や処理負担の低減が図られると共に、本来検出対象が存在しない場所での誤検出を防止することができる。   By setting the detection ranges of the tail lamp detection range As, the headlight detection range At, and the streetlight detection range Ag as described above, the target detection range is limited, and the processing time is shortened and the processing load is reduced. Can be reduced, and erroneous detection in a place where the detection target does not exist can be prevented.

<4.処理の全体的な流れ>
図5は、実施の形態に係る各処理の全体的な流れを示したフローチャートである。
なお、図5に示す一連の処理は、画像処理部3が1フレーム期間ごとに繰り返し実行するものである。
<4. Overall flow of processing>
FIG. 5 is a flowchart showing the overall flow of each process according to the embodiment.
Note that the series of processing shown in FIG. 5 is repeatedly executed by the image processing unit 3 every frame period.

先ず、画像処理部3は、ステップS101で夜間であるか否かを判別する。夜間でない場合はそもそも各対象を検出・認識する必要性はないことから、当該ステップS101の判別処理により各対象を検出・認識する必要性があるか否かを判別している。
なお、夜間であるか否かは、撮像画像データのシャッタースピード及びゲイン値に基づき行う。或いは、夜間であるか否かの判別は、ハイビームがONであるか否かを判別した結果に基づき行うこともできる。
ステップS101において、夜間ではないとの否定結果が得られた場合は現フレーム期間での処理を終了し、夜間であるとの肯定結果が得られた場合はステップS102に進む。
First, the image processing unit 3 determines whether or not it is nighttime in step S101. When it is not nighttime, it is not necessary to detect and recognize each object in the first place, and therefore it is determined whether or not each object needs to be detected and recognized by the determination processing in step S101.
Whether it is night or not is determined based on the shutter speed and gain value of the captured image data. Alternatively, whether or not it is nighttime can be determined based on the result of determining whether or not the high beam is ON.
In step S101, if a negative result indicating that it is not nighttime is obtained, the process in the current frame period is terminated, and if a positive result that it is nighttime is obtained, the process proceeds to step S102.

ステップS102では画像タイプを判別する。すなわち、現フレーム期間において撮像部2から取り込んだ撮像画像データが明画像G1か暗画像G2かを判別する。
画像タイプが明画像G1であれば、ステップS103でテールランプ検出処理を実行した後、現フレーム期間での処理を終了する。
In step S102, the image type is determined. That is, it is determined whether the captured image data captured from the imaging unit 2 in the current frame period is the bright image G1 or the dark image G2.
If the image type is the bright image G1, after performing the tail lamp detection process in step S103, the process in the current frame period is terminated.

一方、画像タイプが暗画像G2であるとされた場合は、ステップS104でヘッドライト検出処理を行った後、ステップS105で街灯検出処理を行う。   On the other hand, when it is determined that the image type is the dark image G2, the headlight detection process is performed in step S104, and then the streetlight detection process is performed in step S105.

続くステップS106では、対象認識・識別処理を実行する。詳細は後述するが、対象認識・識別処理は、ステップS103で実行したテールランプ検出処理の結果と、ステップS104、S105でそれぞれ実行したヘッドライト検出処理、街灯検出処理の各結果とに基づき、先行車、対向車、街灯の各対象を認識・識別する処理となる。   In subsequent step S106, object recognition / identification processing is executed. Although details will be described later, the object recognition / identification process is based on the result of the tail lamp detection process executed in step S103 and the results of the headlight detection process and the street lamp detection process executed in steps S104 and S105, respectively. This is a process for recognizing and identifying each object of an oncoming vehicle and a streetlight.

対象認識・識別処理を実行した後は、ステップS107でシーン判定処理、ステップS108で制御情報算出処理をそれぞれ実行し、処理を終了する。   After executing the object recognition / identification process, a scene determination process is executed in step S107, and a control information calculation process is executed in step S108, and the process ends.

以下に、ステップS103〜S108として実行されるテールランプ検出処理、ヘッドライト検出処理、街灯検出処理、対象認識・識別処理、シーン判定処理、制御情報算出処理の各処理の内容を説明する。   The contents of the tail lamp detection process, headlight detection process, streetlight detection process, object recognition / identification process, scene determination process, and control information calculation process executed as steps S103 to S108 will be described below.

<5.テールランプ検出処理>
テールランプ検出処理は、先行車のテールランプ部分と推測される領域(テールランプ領域)を検出する処理である。大まかな処理の流れは次の通りである。
先ず、テールランプ検出処理では、明画像G1に対してテールランプ検出範囲Asを設定し、当該テールランプ検出範囲As内の画素を対象として赤色の画素を検出する。そして、検出した赤色の画素をグループ化し、要素グループを作成する。
<5. Tail lamp detection processing>
The tail lamp detection process is a process for detecting an area (tail lamp area) that is estimated to be a tail lamp portion of a preceding vehicle. The general processing flow is as follows.
First, in the tail lamp detection process, a tail lamp detection range As is set for the bright image G1, and red pixels are detected for pixels in the tail lamp detection range As. Then, the detected red pixels are grouped to create an element group.

その上で、要素グループの基本特徴量を求める。基本特徴量としては、
・要素グループの上下左右座標(要素グループを矩形で囲った場合の各辺の位置)
・要素グループ内画素数
・要素グループ内最大輝度値、最小輝度値
・要素グループの平均視差(要素グループ内の各画素の視差Mの平均値)
なお、視差Mは、前述した距離画像生成処理で得られる値を用いる。
Then, the basic feature amount of the element group is obtained. As basic features,
・ Up / down / left / right coordinates of the element group (position of each side when the element group is enclosed in a rectangle)
-Number of pixels in element group-Maximum luminance value and minimum luminance value in element group-Average parallax of element group (average value of parallax M of each pixel in element group)
Note that the parallax M uses a value obtained by the above-described distance image generation processing.

そして、要素グループの基本特徴量の情報に基づき、要素グループの選別を行う。つまり、基本特徴量が後述の設定条件外の要素グループを削除する。   Then, the element group is selected based on the basic feature amount information of the element group. That is, element groups whose basic feature values are outside the setting conditions described later are deleted.

以上を踏まえて、図6のフローチャートによりテールランプ検出処理として実行される具体的な処理内容を説明する。
図6において、画像処理部3は、ステップS201で明画像G1に対するテールランプ検出範囲Asの設定を行い、続くステップS202で対象画素識別子P=0とする。対象画素識別子Pは、テールランプ検出範囲As内の画素のうち当該テールランプ検出処理の対象とする画素を特定するための識別子であり、上限値はテールランプ検出範囲Asを構成する画素数−1である。
Based on the above, specific processing contents executed as tail lamp detection processing will be described with reference to the flowchart of FIG.
In FIG. 6, the image processing unit 3 sets the tail lamp detection range As for the bright image G1 in step S201, and sets the target pixel identifier P = 0 in the subsequent step S202. The target pixel identifier P is an identifier for specifying a pixel that is a target of the tail lamp detection process among the pixels in the tail lamp detection range As, and the upper limit value is the number of pixels −1 constituting the tail lamp detection range As.

次いで、ステップS203で画素識別子Pで特定される画素(現在対象としている画素)が赤色か否かを判別する。
画素が赤色であるとの肯定結果が得られた場合は、ステップS204で既存グループと隣接しているか否かを判別する。すなわち、現在対象としている画素が現フレーム期間での処理において既に作成済みの何れかの要素グループに隣接しているか否かを判別する。
ここで、現在対象としている画素が作成済みの要素グループに隣接しているか否かは、それらの画像上での距離がA1ピクセル以下であるか否かにより判別する。例えばA1=1.5ピクセルとする。
Next, in step S203, it is determined whether or not the pixel specified by the pixel identifier P (currently targeted pixel) is red.
If a positive result is obtained that the pixel is red, it is determined in step S204 whether the pixel is adjacent to the existing group. In other words, it is determined whether or not the current pixel is adjacent to any element group that has already been created in the processing in the current frame period.
Here, whether or not the current target pixel is adjacent to the created element group is determined based on whether or not the distance on the image is A1 pixel or less. For example, A1 = 1.5 pixels.

ステップS204において、既存グループと隣接していないとの否定結果が得られた場合は、ステップS205に進んで新グループ作成処理を実行する。すなわち、新たな要素グループを作成し、該要素グループの構成画素として現在対象としている画素(識別子Pで特定される画素)を追加する。このとき、当該要素グループについての基本特徴量の情報も新たに作成する。   If a negative result is obtained in step S204 that it is not adjacent to the existing group, the process proceeds to step S205 to execute a new group creation process. That is, a new element group is created, and the pixel currently targeted (the pixel specified by the identifier P) is added as a constituent pixel of the element group. At this time, information on basic feature values for the element group is also newly created.

一方、ステップS204において既存グループと隣接しているとの肯定結果が得られた場合は、ステップS206で基本特徴量の更新処理を実行する。すなわち、該当する要素グループについての基本特徴量の情報を更新する。なお、基本特徴量の情報うち、要素グループ内最大輝度値、最小輝度値の情報については必要に応じて更新する。   On the other hand, if an affirmative result that it is adjacent to the existing group is obtained in step S204, the basic feature amount updating process is executed in step S206. That is, the basic feature amount information for the corresponding element group is updated. Of the basic feature information, the information on the maximum luminance value and the minimum luminance value in the element group is updated as necessary.

ステップS205の作成処理又はステップS206の更新処理を実行した後は、ステップS2207に進む。   After executing the creation process in step S205 or the update process in step S206, the process proceeds to step S2207.

また、先のステップS203において、画素が赤色ではないとの否定結果が得られた場合は、上記によるステップS204〜S206のグループ化のための処理は経ずにステップS207に進む。これにより、赤色以外の画素が除外される。   If a negative result that the pixel is not red is obtained in the previous step S203, the process proceeds to step S207 without performing the grouping process in steps S204 to S206 described above. Thereby, pixels other than red are excluded.

ステップS207では、処理範囲が終了したか否か、すなわち対象画素識別子Pの値が前述した上限値(テールランプ検出範囲Asを構成する画素数−1)に達したか否かを判別する。処理範囲が終了していないとの否定結果が得られた場合は、ステップS208で対象画素識別子Pの値をインクリメント(P←P+1)した後、ステップS203に戻る。これにより、テールランプ検出範囲As内の新たな画素について、上述したステップS203〜S206の処理が実行される。   In step S207, it is determined whether or not the processing range has ended, that is, whether or not the value of the target pixel identifier P has reached the above-described upper limit (the number of pixels constituting the tail lamp detection range As−1). If a negative result that the processing range has not ended is obtained, the value of the target pixel identifier P is incremented (P ← P + 1) in step S208, and the process returns to step S203. As a result, the processes in steps S203 to S206 described above are executed for new pixels in the tail lamp detection range As.

一方、処理範囲が終了したとの肯定結果が得られた場合は、ステップS209でグループ選別処理を実行する。すなわち、基本特徴量が以下の設定条件外とされる要素グループを削除する。
条件1):要素グループの縦・横サイズがB1ピクセル以下。B1は例えば2ピクセル。
条件2):要素グループ内画素数がC1ピクセル以下。C1は例えば2ピクセル。
その他、要素グループのサイズが大きすぎる場合に削除を行ってもよい。但し、その場合の閾値は距離(視差M)により変化させる。
On the other hand, if an affirmative result that the processing range has ended is obtained, group selection processing is executed in step S209. That is, element groups whose basic feature values are outside the following setting conditions are deleted.
Condition 1): The vertical / horizontal size of the element group is B1 pixels or less. B1 is 2 pixels, for example.
Condition 2): The number of pixels in the element group is C1 pixels or less. C1 is, for example, 2 pixels.
In addition, deletion may be performed when the size of the element group is too large. However, the threshold value in that case is changed by the distance (parallax M).

ステップS209のグループ選別処理を以て、画像処理部3はテールランプ検出処理を終了する。   With the group selection process in step S209, the image processing unit 3 ends the tail lamp detection process.

上記のようなテールランプ検出処理で検出された(最終的に選別された)要素グループの模式図を図7Aに示す。
図中の灰色で示した領域が、テールランプ検出範囲As内における先行車に相当する領域(先行車領域)を表し、黒色で示した領域が赤色画素として検出された領域を表す。上記のテールランプ検出処理によれば、図中の破線で示す矩形状の領域が要素グループとしてグループ化される。
FIG. 7A shows a schematic diagram of element groups detected (finally selected) by the tail lamp detection process as described above.
The area shown in gray in the figure represents the area corresponding to the preceding vehicle (the preceding vehicle area) in the tail lamp detection range As, and the area shown in black represents the area detected as a red pixel. According to the tail lamp detection process described above, rectangular regions indicated by broken lines in the drawing are grouped as element groups.

このようにテールランプ検出処理によれば、先行車のテールランプ部分に相当する領域が要素グループとして検出される。   As described above, according to the tail lamp detection process, a region corresponding to the tail lamp portion of the preceding vehicle is detected as an element group.

なお、上記の説明から理解されるように、要素グループとは、認識すべき対象に含まれる特徴部分をグループ化したものと定義できる。後述する対象認識・識別処理では、これらの要素グループの検出結果を基に、認識すべき対象に対応する範囲が対象グループとしてグループ化される(図7Bを参照)。   As can be understood from the above description, an element group can be defined as a group of characteristic parts included in a target to be recognized. In object recognition / identification processing described later, based on the detection results of these element groups, ranges corresponding to objects to be recognized are grouped as object groups (see FIG. 7B).

<6.ヘッドライト検出処理>
ヘッドライト検出処理は、対向車のヘッドライト部分と推測される領域(ヘッドライト領域)を検出する処理である。
ヘッドライト検出処理では、先ず、暗画像G2に対しヘッドライト検出範囲Atを設定した上で、当該ヘッドライト検出範囲At内の各画素ごとに、輝度値についての閾値D2を用いた二値化処理を行う。そして、二値化処理で抽出された画素について、テールランプ検出処理と同様に要素グループのグループ化及び要素グループの選別を行う。
処理の基本的な流れは
i)輝度値が閾値D2以上である画素を検出する
ii)検出した画素をグループ化し、要素グループを作成する
iii)要素グループの基本特徴量を求める
iv)要素グループ選別
である。なお、本例の場合、ii)〜iv)の処理はテールランプ検出処理の場合と同様の処理となるため、説明は省略する。
<6. Headlight detection process>
The headlight detection process is a process for detecting an area (headlight area) that is estimated to be a headlight part of an oncoming vehicle.
In the headlight detection process, first, a headlight detection range At is set for the dark image G2, and then a binarization process using a threshold value D2 for the luminance value for each pixel in the headlight detection range At. I do. Then, with respect to the pixels extracted by the binarization process, element groups are grouped and element groups are selected as in the tail lamp detection process.
The basic flow of processing is: i) Detect a pixel whose luminance value is greater than or equal to the threshold value D2.
ii) Group the detected pixels and create an element group
iii) Find basic feature values of element groups
iv) Element group selection. In the case of this example, the processing of ii) to iv) is the same as that of the tail lamp detection processing, and thus the description thereof is omitted.

ここで、i)の処理において用いる閾値D2は、撮像条件に応じて適応的に変化させることもできる。これにより、検出のロバスト性を向上できる。   Here, the threshold value D2 used in the process i) can be adaptively changed according to the imaging condition. Thereby, the robustness of detection can be improved.

<7.街灯検出処理>
街灯検出処理は、街灯と推測される領域(街灯領域)を検出する処理である。
本例の場合、街灯検出処理は、処理対象とする画素が街灯検出範囲Ag内の画素となる以外はヘッドライト検出処理と同様となるため、説明は省略する。
<7. Streetlight detection processing>
The streetlight detection process is a process for detecting an area (a streetlight area) that is presumed to be a streetlight.
In the case of this example, the streetlight detection process is the same as the headlight detection process except that the pixel to be processed is a pixel in the streetlight detection range Ag, and thus description thereof is omitted.

<8.対象認識・識別処理>
対象認識・識別処理は、少なくとも上記のテールランプ検出処理、ヘッドライト検出処理の各処理結果に基づいて、対象(先行車、対向車)の認識・識別を行う処理である。
ここで言う「認識」とは、対象の範囲を認識することを意味する。「識別」とは、「認識」された範囲内に存在する物体が対象であるかどうかの確からしさ(例えば後述する信頼度α)を算出し、その確からしさに基づいて対象であるか否かの切り分けを行うことを意味する。
<8. Object recognition / identification process>
The object recognition / identification process is a process for recognizing and identifying a target (preceding vehicle, oncoming vehicle) based on at least the processing results of the tail lamp detection process and the headlight detection process.
Here, “recognition” means recognizing a target range. “Identification” refers to whether or not an object existing in the “recognized” range is a target (for example, reliability α described later), and whether or not the target is based on the probability. It means to perform the separation.

[8-1.対象認識・識別処理の全体的な流れ]
図8は、対象認識・識別処理の全体的な流れを説明するためのフローチャートである。
図8に示すように、対象認識・識別処理では、ステップS301の対象領域算出処理、ステップS302の対象グループ3次元位置算出処理、ステップS303の対象グループトラッキング処理、ステップS304の対象識別処理、及びステップS305の前回結果受け継ぎ処理が順に行われる。
これらのうち、ステップS301の対象領域算出処理が上記の「認識」の処理に相当し、ステップS304の対象識別処理が上記の「識別」の処理に相当する。
[8-1. Overall flow of object recognition / identification process]
FIG. 8 is a flowchart for explaining the overall flow of object recognition / identification processing.
As shown in FIG. 8, in the target recognition / identification process, the target area calculation process in step S301, the target group three-dimensional position calculation process in step S302, the target group tracking process in step S303, the target identification process in step S304, and the step The previous result inheriting process of S305 is performed in order.
Among these, the target area calculation process in step S301 corresponds to the above-described “recognition” process, and the target identification process in step S304 corresponds to the “identification” process.

[8-2.対象領域算出処理]
先ず、ステップS301の対象領域算出処理について説明する。
対象領域算出処理は、テールランプ検出処理、ヘッドライト検出処理で求まった各要素グループを、基本特徴量の情報に基づいてそれぞれ対象グループとしてグループ化する処理である。対象領域算出処理は、テールランプ検出処理の結果に基づく処理(つまり先行車の「認識」処理)とヘッドライト検出処理の結果に基づく処理(対向車の「認識」処理)とが個別に行われるが、本例ではそれらの具体的な処理内容は共通とされることから、以下では纏めて説明を行う。
[8-2. Target area calculation process]
First, the target area calculation process in step S301 will be described.
The target area calculation process is a process of grouping each element group obtained by the tail lamp detection process and the headlight detection process as a target group based on the basic feature information. In the target area calculation processing, processing based on the result of the tail lamp detection processing (that is, “recognition” processing of the preceding vehicle) and processing based on the result of the headlight detection processing (“recognition processing” of the oncoming vehicle) are individually performed. In this example, since the specific processing contents are common, the following will be described collectively.

なお、街灯については、1つの発光体としての要素グループそのものが認識されるべき対象であることから、本例では街灯についての対象領域算出処理は実行せず、要素グループをそのまま対象グループとして扱う。   In addition, since the element group itself as one light emitter is an object to be recognized for the street lamp, in this example, the target area calculation process for the street lamp is not executed, and the element group is handled as the target group as it is.

図9は、対象領域算出処理の流れを示したフローチャートである。
図9において、画像処理部3はステップS401で、要素グループ識別子E=0に設定する。要素グループ識別子Eは、テールランプ検出処理、ヘッドライト検出処理でそれぞれ検出されて対象領域算出処理で処理対象とされる個々の要素グループを特定するための識別子である。要素グループ識別子Eは、テールランプ検出処理の結果に基づく対象領域算出処理とヘッドライト検出処理の結果に基づく対象領域算出処理とで個別に用いられる。
FIG. 9 is a flowchart showing the flow of the target area calculation process.
In FIG. 9, the image processing unit 3 sets the element group identifier E = 0 in step S401. The element group identifier E is an identifier for identifying individual element groups that are detected in the tail lamp detection process and the headlight detection process and are processed in the target area calculation process. The element group identifier E is individually used in the target area calculation process based on the result of the tail lamp detection process and the target area calculation process based on the result of the headlight detection process.

ステップS402では、グループ化条件を満たす他の要素グループがあるか否かについて判別処理を行う。すなわち、要素グループ識別子Eで特定される要素グループについて、対象グループのグループ化のための条件を満たす他の要素グループが存在するか否かについて判別処理を行う。
ステップS402において、グループ化条件を満たす他の要素グループが存在しないとされた場合には、ステップS403で新グループを作成する。すなわち、要素グループ識別子Eで特定される要素グループを含む新たな対象グループを作成する。
一方、グループ化条件を満たす他の要素グループが存在するとされた場合は、ステップS404でグループ統合処理を行う。すなわち、要素グループ識別子Eで特定される要素グループとグループ化条件を満たす他の要素グループとを対象グループとして統合する。
In step S402, it is determined whether or not there is another element group that satisfies the grouping condition. That is, for the element group specified by the element group identifier E, a determination process is performed as to whether there is another element group that satisfies the condition for grouping the target group.
If it is determined in step S402 that there is no other element group that satisfies the grouping condition, a new group is created in step S403. That is, a new target group including the element group specified by the element group identifier E is created.
On the other hand, if there is another element group that satisfies the grouping condition, group integration processing is performed in step S404. That is, the element group specified by the element group identifier E and another element group that satisfies the grouping condition are integrated as a target group.

ここで、ステップS402の判別処理は、対象としての先行車又は対向車の範囲の「認識」に係る処理である。
本例では、或る要素グループと他の要素グループとが同じ対象を構成するものであるか否かを、各要素グループの上下左右方向の座標情報や平均視差の値を用いて判別する。
ここで、要素グループの平均視差の値がほぼ同値であれば、それらの要素グループは同一の対象を構成している可能性が高いと言える。また、同一の対象を構成しているのであれば、それらの要素グループの画像内での上下左右方向の離間距離は所定の範囲内にあると言える。
ステップS402の判別処理は、平均視差の値が同じであるとみなされる要素グループであって、それら要素グループの画像内での上下左右方向の離間距離が所定範囲内であるものを、対象グループとしてグループ化するための処理となる。なお、上記離間距離についての「所定範囲」は、撮像画像内での対象のサイズが自車両からの距離に応じて変わる点を考慮し、平均視差の値に応じて可変とする。
Here, the determination process in step S402 is a process related to “recognition” of the range of the preceding vehicle or the oncoming vehicle as a target.
In this example, whether or not a certain element group and another element group constitute the same object is determined using the coordinate information in the vertical and horizontal directions and the average parallax value of each element group.
Here, if the average parallax values of the element groups are approximately the same, it can be said that the element groups are likely to constitute the same object. In addition, if the same object is configured, it can be said that the separation distance in the vertical and horizontal directions in the image of these element groups is within a predetermined range.
In the determination process in step S402, element groups that are regarded as having the same average parallax value and whose separation distances in the vertical and horizontal directions in the image of the element groups are within a predetermined range are set as target groups. This is a process for grouping. The “predetermined range” for the separation distance is variable according to the value of the average parallax in consideration of the fact that the size of the target in the captured image changes according to the distance from the host vehicle.

この点を踏まえて、ステップS402の判別処理について説明する。
ステップS402の判別処理では、各要素グループ間の画像上の距離、平均視差の差、最大輝度値の関係が下記条件を全て満たすか否かを判別する。
Based on this point, the determination process in step S402 will be described.
In the determination process of step S402, it is determined whether or not the relationship between the distance between the element groups on the image, the difference in average parallax, and the maximum luminance value satisfies all of the following conditions.

条件1):画像上距離
実世界上での横方向、縦方向の距離が同一物体に含まれるか否かを判別する。
閾値は縦方向、横方向について個別に設定し、それぞれを縦方向閾値KH、横方向閾値KWとする。縦方向閾値KH、横方向閾値KWは、対象の実世界上の縦方向、横方向の大きさにそれぞれマージンを加えた値(それぞれ縦:LH、横:LWとする)、視差M(どちらかのグループの平均視差を使ってもよいし、その平均を用いてもよい)、ステレオカメラの基線長をbとすると
KH=LH*M/b
KW=LW*M/b
で求められる値である。当該条件1)では、各要素グループの縦方向、横方向の離間距離がそれぞれ縦方向閾値KH以下、横方向閾値KW以下であるか否かを判別する。
Condition 1): Image distance It is determined whether or not the distance in the horizontal direction and the vertical direction in the real world is included in the same object.
The threshold values are individually set for the vertical direction and the horizontal direction, and are set as the vertical direction threshold value KH and the horizontal direction threshold value KW, respectively. The vertical direction threshold value KH and the horizontal direction threshold value KW are values obtained by adding a margin to the vertical and horizontal sizes of the target in the real world (vertical: LH, horizontal: LW, respectively), parallax M (whichever The average parallax of the group may be used, or the average may be used.) If the base line length of the stereo camera is b, KH = LH * M / b
KW = LW * M / b
This is the value obtained by. In the condition 1), it is determined whether the vertical and horizontal separation distances of each element group are the vertical threshold value KH or less and the horizontal threshold value KW or less, respectively.

なお、本例の対象認識・識別処理は、撮像画像内に存在する発光体の検出結果に基づき行われるものである。
先行車や対向車としての車両における発光部分は、テールランプやハイマウントストップランプなど車両後面に配された灯具、或いはヘッドライトやフォグランプなど車両前面に配された灯具である。これらの灯具は、小型車、大型車であっても概ね或る範囲内に収まるものである。従って、KHやKWの値は、上記のように対象の大きさに関わらず共通の値としても、対象認識・識別処理の精度に関して特に問題が生じることはない。
Note that the target recognition / identification processing of this example is performed based on the detection result of the illuminant existing in the captured image.
A light emitting part in a vehicle as a preceding vehicle or an oncoming vehicle is a lamp disposed on the rear surface of the vehicle such as a tail lamp or a high-mount stop lamp, or a lamp disposed on the front surface of the vehicle such as a headlight or a fog lamp. These lamps are generally within a certain range even for small cars and large cars. Therefore, even if the values of KH and KW are common values regardless of the size of the object as described above, there is no particular problem with respect to the accuracy of the object recognition / identification process.

条件2):平均視差の差
実世界上の奥行き方向距離が同一物体に含まれるか否かを判別する。
閾値はKZとする。この閾値KZは、実世界上での奥行き方向の条件をLZ(例えば1m)、処理対象とされた各要素グループの視差をM1、M2、カメラの1画素の横方向サイズをλi、焦点距離をfとすると
KZ=λiM1*M2*KZ/(b*f)
で求められる値である。当該条件2)では、視差の差の絶対値(|M1−M2|)が閾値KZ未満であるか否かを判別する。但し、実用上は視差誤差等の影響を考慮し、閾値KZにはマージンを付加することが望ましい。
Condition 2): Average parallax difference It is determined whether or not the depth distance in the real world is included in the same object.
The threshold value is KZ. The threshold value KZ is LZ (for example, 1 m) in the depth direction in the real world, the parallax of each element group to be processed is M1, M2, the horizontal size of one pixel of the camera is λi, and the focal length is Let f be KZ = λiM1 * M2 * KZ / (b * f)
This is the value obtained by. In the condition 2), it is determined whether or not the absolute value (| M1−M2 |) of the parallax difference is less than the threshold value KZ. However, in practice, it is desirable to add a margin to the threshold value KZ in consideration of the influence of a parallax error or the like.

条件3):最大輝度値の関係
ここでの処理は主に同一車両の左右ランプについてのグルーピングを想定しているので、輝度が似ているか否かも判別する。処理対象とされた各要素グループの最大輝度値をN1、N2(但しN1≧N2)としたとき、
N1/N2<O1
であるか否かを判別する。すなわち、N1とN2の比が一定範囲内であるか否かの判別である。このとき、O1は例えば3とする。
Condition 3): Relationship of Maximum Luminance Values Since the processing here mainly assumes grouping of left and right lamps of the same vehicle, it is also determined whether or not the luminance is similar. When the maximum luminance value of each element group to be processed is N1, N2 (where N1 ≧ N2),
N1 / N2 <O1
It is determined whether or not. That is, it is a determination as to whether or not the ratio of N1 and N2 is within a certain range. At this time, O1 is set to 3, for example.

以上の条件1)〜条件3)の全てを満たす他の要素グループがあるとされた場合は、前述したステップS404のグループ統合処理により、各要素グループのグループ化が行われる。
これにより、先に参照した図7Bに示すような対象グループのグループ化が実現される。
When it is determined that there is another element group that satisfies all of the above conditions 1) to 3), the element groups are grouped by the group integration process in step S404 described above.
Thereby, grouping of the target groups as shown in FIG. 7B referred to earlier is realized.

なお、図7Bを参照して分かるように、本例の手法では先行車、対向車としての対象の縦方向を適切に囲うことができない。これはテールランプ、ヘッドライトの各検出処理で、先行車や対向車における発光部分のみを対象とした検出を行っているためである。
しかしながら、ADBは縦方向の配光制御ではなく横方向の配光制御であるため、最終的な配光制御に問題が生じることはない。
As can be seen with reference to FIG. 7B, the method of this example cannot appropriately surround the vertical direction of the object as the preceding vehicle and the oncoming vehicle. This is because detection is performed only for the light emitting portion of the preceding vehicle and the oncoming vehicle in the tail lamp and headlight detection processes.
However, since the ADB is not the vertical light distribution control but the horizontal light distribution control, there is no problem in the final light distribution control.

ここで、ステップS404で各要素グループを対象グループとして統合する際には、要素グループの基本特徴量を受け継ぐ。具体的には
・対象グループの上下左右座標
左、下の位置は各要素グループの最小値を受け継ぐ
右、上の位置は各要素グループの最大値を受け継ぐ
・対象グループ内画素数
各要素グループの和を受け継ぐ
・対象グループ内最大輝度値、最小輝度値
最大輝度値は各要素グループの最大値を受け継ぐ
最小輝度値は各要素グループの最小値を受け継ぐ
・対象グループの平均視差(距離)
平均視差は各要素グループの最大値(距離が近い方)を受け継ぐ
また、併せて、対象グループを構成する要素グループ数もカウントする。
Here, when integrating each element group as a target group in step S404, the basic feature amount of the element group is inherited. Specifically, the upper, lower, left, and right coordinates of the target group Left and lower positions inherit the minimum value of each element group Right and upper positions inherit the maximum value of each element group ・ Number of pixels in the target group Sum of each element group Inheritance ・ Maximum brightness value and minimum brightness value in the target group The maximum brightness value inherits the maximum value of each element group The minimum brightness value inherits the minimum value of each element group ・ Average parallax (distance) of the target group
The average parallax inherits the maximum value of each element group (the one with the shorter distance). In addition, the number of element groups constituting the target group is also counted.

図9において、画像処理部3は、ステップS403の作成処理又はステップS404の統合処理の何れかを実行した後、ステップS405で全要素グループについての処理が終了したか否かを判別する。すなわち、当該対象領域算出処理が先行車についての処理である場合には、テールランプ検出処理で検出された全要素グループについての処理が終了したか否かを判別する。或いは、当該対象領域算出処理が対向車についての処理である場合には、ヘッドライト検出処理で検出された全要素グループについての処理が終了したか否かを判別する。   In FIG. 9, the image processing unit 3 determines whether or not the processing for all element groups has been completed in step S405 after executing either the creation processing in step S403 or the integration processing in step S404. That is, when the target area calculation process is a process for the preceding vehicle, it is determined whether or not the processes for all the element groups detected in the tail lamp detection process have been completed. Or when the said target area | region calculation process is a process about an oncoming vehicle, it is discriminate | determined whether the process about all the element groups detected by the headlight detection process was complete | finished.

ステップS405において、全要素グループについての処理が終了していないとの否定結果が得られた場合は、ステップS406で要素グループ識別子Eの値をインクリメント(E←E+1)した後、ステップS402に戻る。これにより、次の要素グループについてステップS402〜S404の処理が実行される。
一方、全要素グループについての処理が終了したとの肯定結果が得られた場合は、対象領域算出処理を終了する。
If a negative result is obtained in step S405 that the processing for all element groups has not been completed, the value of the element group identifier E is incremented (E ← E + 1) in step S406, and the process returns to step S402. Thereby, the process of step S402-S404 is performed about the following element group.
On the other hand, if a positive result is obtained that the processing for all element groups has been completed, the target region calculation processing is terminated.

[8-3.対象グループ3次元位置算出処理]
ステップS302の対象グループ3次元位置算出処理は、対象グループの実空間3次元位置を算出する処理である。
対象グループの平均視差をPd、上下、左右位置の平均(対象グループを囲う矩形の中心点の座標)をPj、Pi(但し、光軸中心位置の座標は(0,0)である)とおく。対象グループの奥行き方向、横方向、縦方向の各位置(それぞれQz、Qx、Qyとする)は、基線長b、画素サイズの縦をλj、横をλi、焦点距離fとすると、
Qz=b*f/(λi*Pd)
Qx=λi*Pi*Qz/f
Qy=λj*Pj*Qz/f
で求められる。なお、カメラが自車両に対してピッチ(前傾又は後傾)がついて設置されている場合は、上記結果にピッチに対する補正を行う。
さらに、縦方向に対しては、前述した車線検出モデル形成処理で算出される距離Qz地点での路面高さを減算し、路面からの高さとなるように変換する。
[8-3. Target group 3D position calculation process]
The target group three-dimensional position calculation process in step S302 is a process of calculating the real space three-dimensional position of the target group.
The average parallax of the target group is Pd, and the average of the vertical and horizontal positions (the coordinates of the center point of the rectangle surrounding the target group) is Pj and Pi (where the coordinate of the optical axis center position is (0, 0)). . Each position of the target group in the depth direction, the horizontal direction, and the vertical direction (referred to as Qz, Qx, and Qy, respectively) is the base line length b, the vertical of the pixel size is λj, the horizontal is λi, and the focal length f is
Qz = b * f / (λi * Pd)
Qx = λi * Pi * Qz / f
Qy = λj * Pj * Qz / f
Is required. In addition, when the camera is installed with a pitch (forward tilt or backward tilt) with respect to the host vehicle, the pitch correction is performed on the above result.
Further, for the vertical direction, the road surface height at the point of the distance Qz calculated in the above-described lane detection model formation process is subtracted and converted to be the height from the road surface.

[8-4.対象グループトラッキング処理]
ステップS303の対象グループトラッキング処理は、対象グループが過去何フレームの間認識できていたか(存在回数)をカウントする処理である。なお、対象グループトラッキング処理は、前回結果受け継ぎ処理(S305)のために実行されるものである。
[8-4. Target group tracking process]
The target group tracking process in step S303 is a process of counting how many frames the target group has been able to recognize in the past (the number of times they exist). The target group tracking process is executed for the previous result inheritance process (S305).

図10は、対象グループトラッキング処理の流れを示したフローチャートである。
当該対象グループトラッキング処理としても先行車、対向車の各対象について個別に行われるものであるが、処理内容は共通であるため図10により纏めて説明する。
図10において、画像処理部3はステップS501で、対象グループ識別子T=0に設定する。対象グループ識別子Tは、前述した対象領域算出処理で認識された個々の対象グループを特定するための識別子である。
FIG. 10 is a flowchart showing the flow of target group tracking processing.
The target group tracking processing is also performed individually for each target of the preceding vehicle and the oncoming vehicle, but the processing contents are common and will be described collectively with reference to FIG.
In FIG. 10, the image processing unit 3 sets the target group identifier T = 0 in step S501. The target group identifier T is an identifier for specifying individual target groups recognized in the target area calculation process described above.

ステップS502では、1フレーム前に条件を満たす対象グループがあるか否かを判別する。すなわち、対象グループ識別子Tで特定される現フレームの対象グループに関して、1フレーム前に以下の条件を満たす対象グループがあるか否かを判別する。なお、「1フレーム前」とは、当該対象グループトラッキング処理が先行車についての処理である場合には1つ前の明画像G1を意味する。同様に、対向車についての処理である場合は1つ前の暗画像G2を意味する。
ステップS502の判別処理で用いる条件は、先のステップS402の判別処理で用いた条件と同じである。各条件で用いるパラメータについても基本的に同じ値とする。但し、自車両の走行状態(例えば旋回中であるとか走行速度)によってはトラッキングが外れてしまう虞がある点を考慮して、画像上の距離(KH、KW)については自車両のヨーレートによりマージンを調整する。また、平均視差の差については自車両の速度によりマージンを調整する。
In step S502, it is determined whether there is a target group that satisfies the condition one frame before. That is, regarding the target group of the current frame specified by the target group identifier T, it is determined whether there is a target group that satisfies the following conditions one frame before. Note that “one frame before” means the previous bright image G1 when the target group tracking process is a process for a preceding vehicle. Similarly, when the process is for an oncoming vehicle, it means the previous dark image G2.
The conditions used in the determination process in step S502 are the same as those used in the determination process in step S402. The parameters used in each condition are basically the same value. However, considering that there is a possibility that tracking may be lost depending on the traveling state of the host vehicle (for example, turning or traveling speed), the distance (KH, KW) on the image is a margin depending on the yaw rate of the host vehicle. Adjust. Further, the margin is adjusted according to the speed of the host vehicle with respect to the difference in average parallax.

ステップS502において、1フレーム前に条件を満たす対象グループがないとの否定結果が得られた場合は、ステップS503で存在回数=1とした後、ステップS505に進む。一方、1フレーム前に条件を満たす対象グループがあるとの肯定結果が得られた場合は、ステップS504で存在回数を加算(+1)した後、ステップS505に進む。   If a negative result is obtained in step S502 that there is no target group that satisfies the condition one frame before, after the number of existences = 1 in step S503, the process proceeds to step S505. On the other hand, if an affirmative result is obtained that there is a target group that satisfies the condition one frame before, the number of existence is added (+1) in step S504, and the process proceeds to step S505.

ステップS505では、全対象グループについての処理が終了したか否かを判別する。全対象グループについての処理が終了していないとの否定結果が得られた場合は、ステップS506で対象グループ識別子Tの値をインクリメント(T←T+1)した後、ステップS502に戻る。
一方、全対象グループについての処理が終了したとの肯定結果が得られた場合は、対象グループトラッキング処理を終了する。
In step S505, it is determined whether or not the processing for all target groups has been completed. If a negative result is obtained that the processing has not been completed for all target groups, the value of the target group identifier T is incremented (T ← T + 1) in step S506, and the process returns to step S502.
On the other hand, if a positive result is obtained that the processing for all target groups has been completed, the target group tracking processing is ended.

[8-5.対象識別処理]
ステップS304の対象識別処理は、各対象グループについての信頼度αを算出し、信頼度αが所定閾値以上の対象グループを抽出する処理である。
本例の場合、信頼度αはフレームごとに算出する。本例の対象識別処理では、フレームごとに信頼度αと上記所定閾値との比較を行って対象グループの抽出を行う。
[8-5. Object identification process]
The target identification process in step S304 is a process of calculating a reliability α for each target group and extracting a target group having a reliability α of a predetermined threshold or more.
In the case of this example, the reliability α is calculated for each frame. In the target identification process of this example, the target group is extracted by comparing the reliability α with the predetermined threshold value for each frame.

図11は、対象識別処理の流れを示したフローチャートである。
なお、当該対象識別処理についても、先行車と対向車とについて個別に行われるものである。先行車についての対象識別処理の流れと対向車についての対象識別処理の流れは共通しているため、図11では纏めて示している。
但し、信頼度αを加算するための処理(後述する信頼度加算側処理)、及び減算するための処理(信頼度減算側処理)の内容は異なるため、この点については個別に説明を行う。
FIG. 11 is a flowchart showing the flow of the object identification process.
The target identification process is also performed separately for the preceding vehicle and the oncoming vehicle. Since the flow of the object identification process for the preceding vehicle and the flow of the object identification process for the oncoming vehicle are common, they are collectively shown in FIG.
However, since the contents of the process for adding the reliability α (reliability addition side process described later) and the process for the subtraction (reliability subtraction side process) are different, this point will be described separately.

図11において、画像処理部3は、ステップS601で対象グループ識別子T=0に設定すると共に、ステップS602で信頼度α=0に設定する。
そして、ステップS603で信頼度加算側処理を実行し、ステップS604で信頼度減算側処理を実行する。
In FIG. 11, the image processing unit 3 sets the target group identifier T = 0 in step S601 and sets the reliability α = 0 in step S602.
In step S603, a reliability addition side process is executed, and in step S604, a reliability subtraction side process is executed.

続くステップS605では、識別判定処理を行う。すなわち、対象グループ識別子Tで特定される対象グループについて、その信頼度αの値が所定閾値以上であるとの条件を満たすか否かを判別し、該条件を満たす場合は当該対象グループが対象(先行車又は対向車)であるとの識別結果を得、満たさない場合は当該対象グループは対象以外であるとの識別結果を得る。   In a succeeding step S605, an identification determination process is performed. That is, for the target group specified by the target group identifier T, it is determined whether or not the condition that the value of the reliability α is equal to or greater than a predetermined threshold is satisfied. If the vehicle is not satisfied, an identification result that the target group is other than the target is obtained.

次のステップS606では、全対象グループについての処理が終了したか否かを判別する。全対象グループについての処理が終了していないとの否定結果が得られた場合は、ステップS607で対象グループ識別子Tの値をインクリメント(T←T+1)した後、ステップS602に戻る。一方、全対象グループについての処理が終了したとの肯定結果が得られた場合は、対象識別処理を終了する。   In the next step S606, it is determined whether or not the processing for all target groups has been completed. If a negative result is obtained that the processing has not been completed for all target groups, the value of the target group identifier T is incremented (T ← T + 1) in step S607, and the process returns to step S602. On the other hand, if a positive result is obtained that the processing for all target groups has been completed, the target identification processing is ended.

ステップS603の信頼度加算側処理、ステップS604の信頼度減算側処理について説明する。前述のようにこれらの処理の内容は先行車、対向車の場合で異なるため、以下で個別に説明する。   The reliability addition side process in step S603 and the reliability subtraction side process in step S604 will be described. As described above, the contents of these processes differ between the preceding vehicle and the oncoming vehicle, and will be described separately below.

なお、以下の説明における前提として、先行車の類似物体としては、主に看板などの赤色の発光体、遠方の街の明かり、自車両のライトによって反射される標識(赤色標識)が挙げられる。また、対向車の類似物体としては、主に街灯、路面に設けられたリフレクター、標識の反射が挙げられる。   In addition, as a premise in the following description, as a similar object of the preceding vehicle, a red light emitter such as a signboard, a light of a distant city, and a sign (red sign) reflected by the light of the own vehicle are mentioned. Also, similar objects of oncoming vehicles mainly include street lamps, reflectors provided on the road surface, and sign reflections.

(先行車についての信頼度加算側処理)
先行車についての信頼度加算側処理では、以下の条件を満たす場合にそれぞれ信頼度αを加算する。
条件1)
対象グループを構成する要素グループ数が閾値(例えば4)以下の場合。このとき、要素グループ数がそれぞれ2(テールランプが2つ)の場合、3(テールランプ2つとハイマウントストップランプ)の場合は、より先行車である可能性が高いのでさらに信頼度αを加算する
条件2)
対象グループの横サイズが一定範囲内(例えば1m〜6m以内でこれを画素サイズに換算)の場合。
条件3)
対象グループの縦サイズが一定範囲内(例えば0.5m〜4m以内でこれを画素サイズに換算)の場合。
条件4)
対象グループの縦横サイズ比が一定範囲内(例えば横が縦の0.5倍以上)の場合。
(Reliability addition processing for the preceding vehicle)
In the reliability addition side processing for the preceding vehicle, the reliability α is added when the following conditions are satisfied.
Condition 1)
When the number of element groups constituting the target group is equal to or less than a threshold value (for example, 4). At this time, if the number of element groups is 2 (two tail lamps), and 3 (two tail lamps and a high-mount stop lamp), there is a high possibility that the vehicle is a preceding vehicle. 2)
When the horizontal size of the target group is within a certain range (for example, within 1 m to 6 m, this is converted into a pixel size).
Condition 3)
When the vertical size of the target group is within a certain range (for example, this is converted to a pixel size within 0.5 m to 4 m).
Condition 4)
When the vertical / horizontal size ratio of the target group is within a certain range (for example, the horizontal is 0.5 or more times the vertical).

(先行車についての信頼度減算側処理)
先行車の信頼度減算側処理では、以下の条件を満たす場合にそれぞれ信頼度αを減算する。
条件1)
対象グループの路面からの高さが一定範囲外(範囲は例えば0m〜4m)の場合。このとき、路面からの高さは車線モデル形成処理により算出される値を用いる。但し、車線モデル形成処理による路面からの高さの値の算出精度は遠距離側で悪化する(ステレオ法による測距では遠方の距離精度が悪化する傾向を持つことに起因)ので、上記の範囲は遠方で大きくなるように距離Qzに応じて可変とする。
条件2)
対象グループの横方向における位置が、画像中心を基準とした一定範囲内(範囲は例えば−30m〜30m)でない場合。これは、主に遠方の街の明かりとの識別を意図している。
条件3)
自車両がハイビームを照射している状態において、対象グループの最大輝度値と最小輝度値の差が閾値Ts以上である場合。これは、自車両のライトによる赤色標識の反射と識別することを意図している。テールランプは自発光であるため光は拡散し、輝度分布が広くなる傾向があり、一方で標識の反射は輝度分布が狭くなる傾向になるという性質を利用したものである。当該条件3)を設けることで、テールランプ(先行車)と赤色標識などの赤色類似物体との識別の精度を向上できる。
ここで、閾値Tsは最大輝度値により可変とし、例えば最大輝度値が200以上では閾値Ts=50、200未満では閾値Ts=30というように設定する。このように範囲を可変とするのは、輝度値の差は輝度値の影響を受けるためである(高輝度と低輝度では最大値と最小値との差が変わる)。
条件4)
対象グループの存在回数が設定値以下(例えば3)である場合。
(Reliability subtraction processing for the preceding vehicle)
In the reliability subtraction side processing of the preceding vehicle, the reliability α is subtracted when the following conditions are satisfied.
Condition 1)
When the height of the target group from the road surface is outside a certain range (the range is, for example, 0 m to 4 m). At this time, the height calculated from the lane model forming process is used as the height from the road surface. However, the calculation accuracy of the height value from the road surface due to the lane model formation processing deteriorates on the long distance side (because the distance measurement by the stereo method tends to deteriorate the distance accuracy in the long distance), so the above range Is variable according to the distance Qz so as to increase in the distance.
Condition 2)
The position of the target group in the horizontal direction is not within a certain range with respect to the image center (the range is, for example, -30 m to 30 m). This is primarily intended for discrimination from distant city lights.
Condition 3)
A case where the difference between the maximum luminance value and the minimum luminance value of the target group is equal to or greater than the threshold Ts in a state where the host vehicle is radiating a high beam. This is intended to be distinguished from the reflection of the red sign by the light of the vehicle. Since the tail lamp is self-luminous, the light diffuses and the brightness distribution tends to be widened, while the reflection of the sign tends to make the brightness distribution narrow. By providing the condition 3), it is possible to improve the accuracy of identification between the tail lamp (leading vehicle) and a red similar object such as a red sign.
Here, the threshold value Ts is variable depending on the maximum luminance value, and for example, the threshold value Ts = 50 is set when the maximum luminance value is 200 or more, and the threshold value Ts = 30 when the maximum luminance value is less than 200. The reason why the range is made variable is that the difference in luminance value is affected by the luminance value (the difference between the maximum value and the minimum value changes at high luminance and low luminance).
Condition 4)
When the number of times the target group exists is less than or equal to the set value (eg, 3).

(対向車についての信頼度加算側処理)
対向車の信頼度加算側処理では、以下の条件を満たす場合にそれぞれ信頼度αを加算する。
条件1)
対象グループを構成する要素グループ数が閾値(例えば4)以下の場合。このとき、グループ数が2(ヘッドライトが2つ)の場合はより対向車である可能性が高いのでさらに信頼度αを加算する。
条件2)
対象グループの横サイズが一定範囲内(例えば1m〜6m以内でこれを画素サイズに換算)の場合。
条件3)
対象グループの縦サイズが一定範囲内(例えば0.5m〜4m以内でこれを画素サイズに換算)の場合。
条件4)
対象グループの縦横サイズ比が一定範囲内(例えば横が縦の0.5倍以上)の場合。
(Reliability addition processing for oncoming vehicles)
In the oncoming vehicle reliability addition processing, the reliability α is added when the following conditions are satisfied.
Condition 1)
When the number of element groups constituting the target group is equal to or less than a threshold value (for example, 4). At this time, when the number of groups is 2 (two headlights), there is a higher possibility that the vehicle is an oncoming vehicle, so the reliability α is further added.
Condition 2)
When the horizontal size of the target group is within a certain range (for example, within 1 m to 6 m, this is converted into a pixel size).
Condition 3)
When the vertical size of the target group is within a certain range (for example, this is converted to a pixel size within 0.5 m to 4 m).
Condition 4)
When the vertical / horizontal size ratio of the target group is within a certain range (for example, the horizontal is 0.5 or more times the vertical).

(対向車についての信頼度減算側処理)
対向車の信頼度減算側処理では、以下の条件を満たす場合にそれぞれ信頼度αを減算する。
条件1)
対象グループの路面からの高さが一定範囲外(範囲は例えば0m〜4m)の場合。このとき、先の先行車についての信頼度減算側処理の場合と同様に、路面からの高さの値は斜線モデル形成処理の結果を用い、上記の範囲は遠方で大きくなるように距離Qzにより可変とする。
条件2)
対象グループの横方向における位置が、画像中心を基準とした一定範囲内(範囲は例えば−30m〜30m)でない場合(主に遠方の街の明かりとの識別を意図)。
条件3)
対象グループの最大輝度値が輝度閾値以下である場合。
このとき、遠方ほど対向車のヘッドライトを撮像した場合の輝度値が小さくなる点を考慮し、上記の輝度閾値は対象グループの距離Qzに応じて可変とし、距離が遠くなるほど小さくなるようにする。また、輝度閾値は、カメラのシャッタースピード、ゲインなどの撮像条件に応じた補正を加える。例えば、シャッタースピードが長ければ輝度閾値を上げるといった補正を加える。
条件4)
対象グループの存在回数が設定値以下(例えば3)である場合。
条件5)
対象グループの存在回数が設定値以上(設定値は例えば20秒をフレーム数に換算した値)である場合。先行車の場合とは異なり1台の対向車が過剰に長い時間にわたって自車両の前方に存在する可能性は非常に低い。従って、そのような場合に信頼度αを減算して対向車との識別結果が覆るように制御を行う。
(Reliability subtraction processing for oncoming vehicles)
In the on-vehicle reliability subtraction process, the reliability α is subtracted when the following conditions are satisfied.
Condition 1)
When the height of the target group from the road surface is outside a certain range (the range is, for example, 0 m to 4 m). At this time, as in the case of the reliability subtraction side process for the preceding preceding vehicle, the height value from the road surface uses the result of the oblique line model formation process, and the above range is determined by the distance Qz so that the above range becomes large at a distance. Variable.
Condition 2)
The position of the target group in the horizontal direction is not within a certain range with respect to the center of the image (the range is, for example, -30 m to 30 m) (mainly intended to be distinguished from distant city lights).
Condition 3)
The maximum brightness value of the target group is less than or equal to the brightness threshold.
At this time, considering that the luminance value when the headlight of the oncoming vehicle is imaged decreases as the distance increases, the above-described luminance threshold value is variable according to the distance Qz of the target group, and decreases as the distance increases. . The luminance threshold is corrected according to the imaging conditions such as the shutter speed and gain of the camera. For example, correction is performed such that the brightness threshold is increased if the shutter speed is long.
Condition 4)
When the number of times the target group exists is less than or equal to the set value (eg, 3).
Condition 5)
The number of times the target group exists is equal to or greater than a set value (for example, the set value is a value obtained by converting 20 seconds into the number of frames). Unlike the preceding vehicle, it is very unlikely that one oncoming vehicle exists in front of the host vehicle for an excessively long time. Therefore, in such a case, the control is performed so that the reliability α is subtracted and the discrimination result from the oncoming vehicle is covered.

[8-6.前回結果の受け継ぎ処理]
ステップS305の前回結果の受け継ぎ処理では、現フレームについて行われた要素グループの検出や対象グループの識別によって誤って未検出とされてしまった場合の対策として、前フレームでの結果の受け継ぎを行う。処理の手順は以下の通りである。
i)ステップS303の対象グループトラッキング処理の結果から、前フレームでは存在したが現フレームでは存在しないとされた対象グループ(前フレームにおけるどの対象グループとも一致しないとされた対象グループ)を抽出する
ii)上記i)で抽出された対象グループについて、前フレームまでの存在回数が一定値(例えば10)以上の対象グループを抽出する
iii)上記ii)で抽出された対象グループを存在回数を減らして(例えば1/2倍)対象として存続させる。
このような受け継ぎ処理により、それまで対象として安定して存在していた対象グループは或る一定回数検出されなくても対象として存続されるようになる。すなわち、何らかの一時的な要因で対象が誤って未検出のままとされてしまうことを防止でき、この点で識別精度の向上が図られる。
[8-6. Inheritance of previous results]
In the inheritance process of the previous result in step S305, the result of the previous frame is inherited as a countermeasure when the element group is detected unidentified by the element group detection or target group identification performed for the current frame. The processing procedure is as follows.
i) From the result of the target group tracking process in step S303, a target group that is present in the previous frame but is not present in the current frame (a target group that does not match any target group in the previous frame) is extracted.
ii) For the target group extracted in i) above, extract a target group whose number of existence until the previous frame is a certain value (for example, 10) or more.
iii) The target group extracted in the above ii) is continued as a target by reducing the number of times of existence (for example, 1/2 times).
By such inheritance processing, a target group that has existed stably as a target until then is continued as a target even if it is not detected a certain number of times. That is, it is possible to prevent the target from being left undetected by some temporary factor, and the identification accuracy can be improved in this respect.

<9.シーン判定処理>
シーン判定処理は、現在の走行シーンがそもそもハイビームが必要なシーンであるか否かを判定する処理である。本例では、ハイビームが不要なシーンとして、市街地(充分明るいため)、低速時(遠方までライトを照射する必要がないため)、右左折時(遠方までライトを照射する必要がないため)であるか否かをそれぞれ判別し、何れかが該当した場合はハイビーム不要シーンであるとの判定結果を得る。
ここで、市街地であるか否かの判別は、街灯の検出数等に基づき行う。例えば、街灯の検出数が所定の閾値以上であるか否かの判別結果に基づき行う。
また、低速時であるか否かの判別は、車速センサ17Aにより検出される車速が一定以下(例えば20km/h)であるか否かを判別して行う。但し、ハンチングを防止するためヒステリシスを設ける。
右左折時であるか否かの判別は、ウィンカーが動作状態にあるか否かを判別することで行う。例えばウィンカースイッチ17EがON状態であるか否かを判別する。
<9. Scene determination processing>
The scene determination process is a process for determining whether or not the current traveling scene is a scene that requires a high beam in the first place. In this example, scenes that do not require a high beam are urban areas (because they are bright enough), low speeds (because it is not necessary to irradiate light far away), and right / left turns (because it is not necessary to illuminate far away). If any of them corresponds, a determination result is obtained that the scene does not require a high beam.
Here, the determination as to whether or not it is an urban area is made based on the number of detected street lights. For example, this is performed based on a determination result of whether or not the number of detected street lamps is equal to or greater than a predetermined threshold.
Whether the vehicle is at low speed is determined by determining whether the vehicle speed detected by the vehicle speed sensor 17A is below a certain value (for example, 20 km / h). However, hysteresis is provided to prevent hunting.
Whether the turn is right or left is determined by determining whether the winker is in an operating state. For example, it is determined whether or not the blinker switch 17E is in an ON state.

<10.制御情報算出処理>
制御情報算出処理は、対象認識・識別処理による先行車・対向車の認識・識別結果とシーン判定処理の結果とに基づき、ADBの制御情報を算出する処理である。
具体的な処理内容を図12のフローチャートを参照して説明する。
図12において、画像処理部3は、ステップS701でハイビーム不要シーンか否かを上記のシーン判定処理の結果に基づき判別する。ハイビーム不要シーンであるとの肯定結果が得られた場合は、ステップS705でハイビームOFFを表す制御情報を生成し、ステップS706で当該制御情報を運転支援制御部5(配光制御処理部5A)に対して出力した後、処理を終了する。
<10. Control information calculation process>
The control information calculation process is a process of calculating ADB control information based on the recognition / identification results of the preceding vehicle and the oncoming vehicle by the object recognition / identification process and the result of the scene determination process.
Specific processing contents will be described with reference to the flowchart of FIG.
In FIG. 12, the image processing unit 3 determines whether or not the scene is a high beam unnecessary scene in step S701 based on the result of the scene determination process. If a positive result indicating that the scene is not a high beam is obtained, control information indicating high beam OFF is generated in step S705, and the control information is transmitted to the driving support control unit 5 (light distribution control processing unit 5A) in step S706. After the output, the process is terminated.

一方、ハイビーム不要シーンではないとの否定結果が得られた場合は、ステップS702で先行車又は対向車が存在するか否かを判別する。すなわち、上記した対象認識・識別処理の結果に基づき、先行車又は対向車の何れかが存在するか否かを判別する。
先行車又は対向車が存在しないとの否定結果が得られた場合は、ステップS703で全面ハイビームONを表す制御情報を生成し、ステップS706で当該制御情報を運転支援制御部5に出力した後、処理を終了する。
On the other hand, if a negative result is obtained that the scene is not a high beam unnecessary scene, it is determined in step S702 whether there is a preceding vehicle or an oncoming vehicle. That is, based on the result of the object recognition / identification process described above, it is determined whether there is a preceding vehicle or an oncoming vehicle.
If a negative result that there is no preceding vehicle or oncoming vehicle is obtained, control information indicating full high beam ON is generated in step S703, and after the control information is output to the driving support control unit 5 in step S706, End the process.

また、先行車又は対向車が存在するとの肯定結果が得られた場合は、ステップS704で対象以外ハイビームONを表す制御情報を生成する。このとき、画像処理部3は、対象認識・識別処理の結果に基づき、ハイビームを照射可能な範囲を計算する(当該範囲の情報を以下「照射範囲情報」と表記する)。ハイビームの照射可能な範囲は、先行車、対向車の左右の座標情報を基準に算出する。
画像処理部3は、ステップS704で生成した制御情報(照射範囲情報を含む)をステップS706で運転支援制御部5に出力し、処理を終了する。
If an affirmative result that there is a preceding vehicle or an oncoming vehicle is obtained, control information indicating high beam ON other than the target is generated in step S704. At this time, the image processing unit 3 calculates a range in which the high beam can be irradiated based on the result of the object recognition / identification process (information on the range is hereinafter referred to as “irradiation range information”). The range in which the high beam can be irradiated is calculated based on the left and right coordinate information of the preceding vehicle and the oncoming vehicle.
The image processing unit 3 outputs the control information (including irradiation range information) generated in step S704 to the driving support control unit 5 in step S706, and ends the process.

<11.制御情報に基づく配光制御>
運転支援制御部5(配光制御処理部5A)では、配光制御処理として、上記の制御情報に基づく配光制御を実行する。具体的に、配光制御処理では、ハイビームOFFを表す制御情報に応じてはライト制御部10に対しハイビームをOFFとする指示を行う。また、全面ハイビームONを表す制御情報に応じてはライト制御部10に対しハイビームを全面ONとする指示を行う。さらに、対象以外ハイビームONを表す制御情報に応じては、当該制御情報に含まれる照射範囲情報に従った範囲のみハイビームが照射されるようにライト制御部10に対する指示を行う。
<11. Light distribution control based on control information>
The driving support control unit 5 (light distribution control processing unit 5A) executes light distribution control based on the control information as light distribution control processing. Specifically, in the light distribution control process, the light control unit 10 is instructed to turn off the high beam in accordance with the control information indicating the high beam off. Further, in response to the control information indicating that the entire high beam is on, the light control unit 10 is instructed to turn on the high beam all over. Further, according to the control information indicating the high beam ON other than the target, the light control unit 10 is instructed so that the high beam is irradiated only in the range according to the irradiation range information included in the control information.

図13は、対象以外ハイビームONを表す制御情報に応じて実現されるハイビームの照射態様についての説明図である。なお、図中では紙面上方向が自車両の前方方向を表す。
図13Aに示すように、この場合のハイビームの照射は、先行車、対向車が存在する範囲(図中斜線部)以外の範囲に対して行う。
FIG. 13 is an explanatory diagram of a high beam irradiation mode realized in accordance with control information indicating high beam ON other than the target. In the drawing, the upward direction in the drawing represents the forward direction of the host vehicle.
As shown in FIG. 13A, the high beam irradiation in this case is performed on a range other than the range where the preceding vehicle and the oncoming vehicle exist (shaded portion in the figure).

なお、ADBとしては、ハイビームの遮光を1カ所しかできない仕様のものも考えられる。その場合において、図13Aと同様にハイビームを照射すべきでない対象が複数存在し且つそれらの間に対象が存在しない範囲が形成されているときは、図13Bに示すように、ハイビームを照射すべきでない対象(先行車、対向車)の間の範囲もハイビームの非照射範囲とされるように配光制御を行う。このためには、例えば前述した制御情報算出処理において、ハイビームを照射すべきでない対象が複数存在する場合はそれらをグループ化し、当該グループの左右方向の最大座標を基準に照射範囲情報を計算すればよい。   An ADB having a specification that can shield only one high beam is also conceivable. In that case, when there are a plurality of objects that should not be irradiated with a high beam as in FIG. 13A and a range in which no object exists is formed between them, as shown in FIG. 13B, the high beam should be irradiated. The light distribution control is performed so that the range between the non-target objects (preceding vehicle, oncoming vehicle) is also the high beam non-irradiation range. For this purpose, for example, in the control information calculation process described above, if there are a plurality of targets that should not be irradiated with a high beam, they are grouped, and irradiation range information is calculated based on the maximum horizontal coordinate of the group. Good.

ここで、ハイビームを照射すべきでない対象として、対向車は、自車に対して或る程度近接した際にはヘッドライト検出範囲Atから外れる(図14を参照)。そのため、対向車がある程度の距離まで近接(例えば50m:但しヘッドライト検出範囲Atで検出できる距離内であることが条件)したことが確認された場合は、すれ違いが予想される方向へのハイビームの照射を一定期間(例えば1秒)OFFとする制御を行う。   Here, as an object that should not be irradiated with the high beam, the oncoming vehicle deviates from the headlight detection range At when it comes close to the own vehicle to some extent (see FIG. 14). Therefore, when it is confirmed that the oncoming vehicle has approached to a certain distance (for example, 50 m: provided that it is within the distance that can be detected in the headlight detection range At), the high beam is directed in the direction in which the passing is expected. Control is performed to turn off the irradiation for a certain period (for example, 1 second).

<12.実施の形態のまとめ>
以上のように本実施の形態では、自車両の前方を撮像した撮像画像を得る撮像部2と画像処理部3を有する画像処理装置を備えている。画像処理部3は撮像画像内で赤色領域(テールランプ検出範囲Asにおける要素グループ)を検出する赤色領域検出処理をテールランプ検出処理部3Dで行う。また検出された赤色領域に含まれる複数の画素の輝度値のうちの高輝度代表値(最大輝度値)と低輝度代表値(最小輝度値)との乖離値を求め、乖離値(差分)と閾値Tsとの大小関係を判定する判定処理を対象認識・識別処理部3Gで行い、さらに対象認識・識別処理部3Gがその判定処理の結果を、当該赤色領域が先行車両のテールランプ画像であるか否かの識別処理に用いている。
このように先行車のテールランプ検出では、まず撮像画像の赤色領域を抽出している。赤色領域を対象とすることで、赤色以外の発光体や反射体の影響を排除するとともに画像上での処理範囲や、赤色検出の範囲となる輝度範囲を限定する。
さらに、赤色の発光体と反射体の切り分けのため、高輝度代表値と低輝度代表値の乖離値(差分)と閾値Tsとの大小関係を判定する判定処理を行う。発光体と反射体では、輝度分布に異なる特徴が現れるためである。即ち、車両のテールランプなどの自発光の光源では、光が拡散するため輝度分布が広くなる傾向があり、一方、自車両のヘッドライトなどが標識等に反射した光は、輝度分布が狭くなる傾向にある。このため赤色領域における高輝度代表値と低輝度代表値の乖離値はテールランプ光と反射光で異なり、乖離値を所定の閾値Tsと比較すれば、発光体(テールランプ)と反射体を識別できる。
このように本実施の形態では、まず赤色領域のみを対象とすることで、テールランプ等の赤色以外の発光体や反射体の影響を排除するとともに画像上での処理範囲や、赤色検出の範囲となる輝度範囲を限定する。そしてこのために、頻度分布まで用いずに輝度最大値、輝度最小値などのみで判定できる。そのため、対象の画素数が少ない場合でも処理を行うことができる。また合わせて、頻度分布の処理は行う必要がないため、処理時間も短縮される。
また反射物としての赤色標識は、大きさや路面からの高さである程度判別可能ではあるが、対象の距離が充分遠い場合(例えば100m以上)など、距離精度が充分でない場合は、大きさでの比較は誤検出(もしくは誤検出を抑えようとしての未検出)が発生することも多い。路面に勾配があるなどにより遠方では路面位置が充分精度でない場合も同様である。本実施の形態によれば、このような大きさや高さによっては識別精度が不十分な場合にも対応して精度のよいテールランプ識別が可能となる。
以上により本実施の形態によれば、精度のよいテールランプ識別を少ない処理負担で実現できる。
<12. Summary of Embodiment>
As described above, the present embodiment includes the image processing apparatus including the imaging unit 2 and the image processing unit 3 that obtain a captured image obtained by imaging the front of the host vehicle. The image processing unit 3 performs a red region detection process for detecting a red region (element group in the tail lamp detection range As) in the captured image by the tail lamp detection processing unit 3D. Further, a deviation value between a high luminance representative value (maximum luminance value) and a low luminance representative value (minimum luminance value) among luminance values of a plurality of pixels included in the detected red region is obtained, and the deviation value (difference) The target recognition / identification processing unit 3G performs a determination process for determining the magnitude relationship with the threshold value Ts, and the target recognition / identification processing unit 3G indicates the result of the determination process, and whether the red region is the tail lamp image of the preceding vehicle. It is used for the identification processing of whether or not.
Thus, in the detection of the tail lamp of the preceding vehicle, first, the red region of the captured image is extracted. By targeting the red region, the influence of light emitters and reflectors other than red is excluded, and the processing range on the image and the luminance range that is the red detection range are limited.
Furthermore, in order to distinguish between the red light emitter and the reflector, a determination process is performed to determine the magnitude relationship between the difference value (difference) between the high luminance representative value and the low luminance representative value and the threshold Ts. This is because different characteristics appear in the luminance distribution between the light emitter and the reflector. That is, a self-luminous light source such as a tail lamp of a vehicle tends to have a wide luminance distribution because light diffuses. On the other hand, light reflected from a sign or the like by a headlight of the own vehicle tends to have a narrow luminance distribution. It is in. Therefore, the divergence value between the high luminance representative value and the low luminance representative value in the red region is different between the tail lamp light and the reflected light, and the light emitter (tail lamp) and the reflector can be distinguished by comparing the divergence value with the predetermined threshold value Ts.
As described above, in this embodiment, only the red region is first targeted, thereby eliminating the influence of a light emitter or reflector other than red, such as a tail lamp, and the processing range on the image, the red detection range, and the like. Limit the luminance range. For this reason, the determination can be made only with the maximum luminance value, the minimum luminance value, etc. without using the frequency distribution. Therefore, processing can be performed even when the number of target pixels is small. In addition, since it is not necessary to perform frequency distribution processing, processing time is also shortened.
The red sign as a reflector can be distinguished to some extent by its size and height from the road surface. However, when the distance accuracy is not sufficient, such as when the target distance is sufficiently long (for example, 100 m or more), In comparison, erroneous detection (or undetected in an attempt to suppress erroneous detection) often occurs. The same applies to the case where the road surface position is not sufficiently accurate at a distance due to a gradient in the road surface. According to the present embodiment, tail lamp identification with high accuracy can be achieved even when the identification accuracy is insufficient depending on the size and height.
As described above, according to the present embodiment, accurate tail lamp identification can be realized with a small processing load.

なお、高輝度代表値と低輝度代表値として最大輝度値、最小輝度値を用いることで、各代表値を求める処理は容易となり処理負担を軽減できる。また高輝度代表値と低輝度代表値の乖離値として、差分値を用いることでも処理負担は軽減される。   Note that, by using the maximum luminance value and the minimum luminance value as the high luminance representative value and the low luminance representative value, the processing for obtaining each representative value is facilitated and the processing load can be reduced. In addition, the processing load can be reduced by using a difference value as a difference value between the high luminance representative value and the low luminance representative value.

また実施の形態では、画像処理部3は、高輝度代表値の値に応じて、乖離値である差分を比較する閾値Tsを変更する。高輝度代表値(最大輝度値)と低輝度代表値(最小輝度値)の乖離値(差分)は、輝度値の影響を受けて増減する。これを考慮して、高輝度代表値の値に応じて、乖離値と比較する閾値Tsを変更することで、テールランプとそれ以外の反射物の識別精度を向上させることができる。   In the embodiment, the image processing unit 3 changes the threshold value Ts for comparing the difference that is the deviation value according to the value of the high luminance representative value. The deviation value (difference) between the high luminance representative value (maximum luminance value) and the low luminance representative value (minimum luminance value) increases or decreases under the influence of the luminance value. In consideration of this, by changing the threshold value Ts to be compared with the divergence value according to the value of the high luminance representative value, it is possible to improve the identification accuracy of the tail lamp and other reflectors.

また画像処理部3は、高輝度代表値と低輝度代表値の乖離値と閾値Tsとの大小関係を判定する判定処理の結果を用いた識別処理を、自車両のヘッドライトがハイビーム状態である期間に実行する。標識等の反射光は、ハイビームの期間に主に画像上に現れるためである。ハイビームをオフにしているときには赤色反射物の撮像画像上への影響は殆どない。つまり検出される赤色領域としての要素グループ、対象グループは殆どテールランプであると考えることができる。
従って少なくともハイビーム期間に上記の識別処理を行うことが適切となる。
Further, the image processing unit 3 performs the identification process using the result of the determination process for determining the magnitude relationship between the difference value between the high luminance representative value and the low luminance representative value and the threshold value Ts, and the headlight of the host vehicle is in the high beam state. Run in the period. This is because reflected light such as a sign appears mainly on the image during the high beam period. When the high beam is turned off, there is almost no influence on the captured image of the red reflector. That is, it can be considered that the element group and the target group as the detected red region are almost tail lamps.
Therefore, it is appropriate to perform the above identification processing at least during the high beam period.

また画像処理部3は、撮像画像のフレーム内におけるテールランプ検出範囲Asを設定し、テールランプ検出範囲As内で赤色領域としての要素グループ、対象グループを検出している。つまりテールランプとして存在し得る検出範囲を限定して赤色領域検出を行う。これにより、周囲の赤色物体の影響を排除し、識別精度を向上させ、かつ画像上の一部の領域を対象とすることで処理負担軽減を実現している。   Further, the image processing unit 3 sets a tail lamp detection range As in the frame of the captured image, and detects an element group and a target group as a red region within the tail lamp detection range As. That is, the red region detection is performed by limiting the detection range that can exist as a tail lamp. As a result, the influence of the surrounding red object is eliminated, the identification accuracy is improved, and the processing load is reduced by targeting a part of the area on the image.

また画像処理部3は、識別処理において、赤色領域が先行車両のテールランプ画像であることの信頼度αを各種条件に応じて加減算し、信頼度αの値に応じて当該赤色領域としての対象グループが先行車両のテールランプ画像であるか否かを識別するようにしている。各種条件とは、上述のように要素グループ数、対象グループの横サイズ、縦サイズ、縦横サイズ比、路面からの高さ、横方向距離などである。そして高輝度代表値と低輝度代表値の乖離値と閾値Tsとの大小関係を判定する判定処理の結果に応じて、信頼度αの値を減算又は加算する。このように乖離値による判定結果を含め、各種条件により信頼度αの値を加減して最終的な識別を行うことで、テールランプ識別の信頼性を高めることができる。
なお、先の説明では、高輝度代表値と低輝度代表値の乖離値が閾値Ts以上であるかを判定し、乖離値が閾値Ts以上である場合に信頼度αの値を減算する例を挙げたが、逆に、乖離値が閾値Ts以下であるか否かを判定し、乖離値が閾値Ts以下である場合に信頼度αの値を加算することもできる。
Further, in the identification processing, the image processing unit 3 adds or subtracts the reliability α that the red region is the tail lamp image of the preceding vehicle according to various conditions, and the target group as the red region according to the value of the reliability α. Is a tail lamp image of the preceding vehicle. As described above, the various conditions include the number of element groups, the horizontal size, vertical size, vertical / horizontal size ratio, height from the road surface, horizontal distance, and the like of the target group. Then, the value of the reliability α is subtracted or added according to the result of the determination process for determining the magnitude relationship between the deviation value between the high luminance representative value and the low luminance representative value and the threshold value Ts. Thus, the reliability of tail lamp identification can be improved by performing final identification by adjusting the value of the reliability α according to various conditions including the determination result based on the deviation value.
In the above description, an example in which it is determined whether the divergence value between the high luminance representative value and the low luminance representative value is equal to or greater than the threshold value Ts, and the value of the reliability α is subtracted when the divergence value is equal to or greater than the threshold value Ts. However, conversely, it is possible to determine whether or not the deviation value is equal to or less than the threshold value Ts, and to add the value of the reliability α when the deviation value is equal to or less than the threshold value Ts.

<13.変形例>
以上、本発明に係る実施の形態について説明したが、本発明は上記で例示した具体例に限定されるべきものではなく、多様な変形例が考えられる。
例えば、これまでの説明では、高輝度代表値、低輝度代表値は赤色領域における最大輝度値、最小輝度値とする例を述べたが、これに限らない。例えば赤色領域の全画素において輝度値が上位10%の高輝度画素の平均値を高輝度代表値、下位10%の低輝度画素の平均値を低輝度代表値などとしてもよい。
乖離値とは、高輝度代表値と低輝度代表値の差分値としたが、比の値でもよい。その場合、閾値Tsも比の値で分布幅を判定する場合に応じた値とする。
<13. Modification>
Although the embodiments according to the present invention have been described above, the present invention should not be limited to the specific examples illustrated above, and various modifications can be considered.
For example, in the description so far, the example in which the high luminance representative value and the low luminance representative value are the maximum luminance value and the minimum luminance value in the red region has been described, but the present invention is not limited thereto. For example, in all pixels in the red region, the average value of the high luminance pixels with the upper 10% luminance value may be the high luminance representative value, and the average value of the lower luminance pixels with the lower 10% luminance may be the low luminance representative value.
The divergence value is a difference value between the high luminance representative value and the low luminance representative value, but may be a ratio value. In this case, the threshold Ts is also set to a value according to the case where the distribution width is determined by the ratio value.

また、運転支援制御としてプリクラッシュ(PCS)やアダプティブクルーズコントロール(ACC)の制御を行う場合には、これらPCSやACC用の先行車認識・識別処理(配光制御用の認識・識別処理より高精度で行われる)を実行する場合もある。そのような場合には、先に説明した配光制御用の先行車の認識・識別処理においては所定距離以上の遠方領域(例えば200m以上)に存在する物体についてのみ識別結果が得られるようにし、所定距離未満の領域についてはPCSやACCでの高精度な先行車認識・識別結果を流用(統合)することもできる。
なお、上記のように遠方領域に存在する物体のみの識別結果が得られるようにするためには、「認識」された対象グループについての信頼度αの減算条件として、「距離Qzが所定値未満である」という条件を追加すればよい。
Further, when performing pre-crash (PCS) or adaptive cruise control (ACC) control as driving support control, the preceding vehicle recognition / identification process for PCS or ACC (higher than the recognition / identification process for light distribution control). (Done with precision). In such a case, in the recognition / identification process of the preceding vehicle for light distribution control described above, an identification result is obtained only for an object existing in a far region (for example, 200 m or more) of a predetermined distance or more, For an area less than the predetermined distance, it is possible to divert (integrate) a highly accurate preceding vehicle recognition / identification result in PCS or ACC.
As described above, in order to obtain an identification result of only an object existing in the far field, as a subtraction condition of the reliability α for the “recognized” target group, “distance Qz is less than a predetermined value” It is sufficient to add a condition of “is”.

また、これまでの説明では、街灯については対象識別処理を実行しない例を挙げたが、制御仕様によっては街灯とそれ以外の物体との識別を要する場合がある。例えば、街灯検出範囲Ag内で検出される街灯以外の発光体としては信号機などがあり、その切り分けが必要とされる場合には街灯/信号機の識別処理を行う。その場合には、対象グループに色情報を持たせ、色が赤、青、緑の何れかである場合は信号機、それ以外の色の場合は街灯と識別すればよい。   In the description so far, the example in which the object identification process is not executed for the streetlight has been described. However, depending on the control specification, it may be necessary to identify the streetlight from other objects. For example, as a light-emitting body other than the street light detected within the street light detection range Ag, there is a traffic light or the like. When it is necessary to separate the light emitters, a street light / traffic signal identification process is performed. In that case, color information may be given to the target group, and if the color is red, blue, or green, it may be identified as a traffic light, and if it is any other color, it may be identified as a street light.

また、これまでの説明では、対象識別処理においてステレオ法による測距で得た距離の情報を用いる例を挙げたが、距離の情報については他の手法で測定することもできる。例えば、ミリ波レーダーを用いた手法などを採用することができる。   In the description so far, the example in which the distance information obtained by the distance measurement by the stereo method is used in the object identification process has been described. However, the distance information can be measured by other methods. For example, a technique using a millimeter wave radar can be employed.

また、これまでの説明では、対象認識・識別処理の結果に基づきADBとしての配光制御を行う場合を例示したが、これに代えてAHB(Auto High Beam)としての配光制御を行うこともできる。その場合は、先行車又は対向車が1つでも存在する場合にはハイビームをOFFとし、先行車及び対向車が存在しない場合に全面ハイビームONとする制御を行えばよい。   In the above description, the case where the light distribution control as the ADB is performed based on the result of the object recognition / identification processing is exemplified. However, the light distribution control as the AHB (Auto High Beam) may be performed instead. it can. In that case, control may be performed to turn off the high beam when there is at least one preceding vehicle or oncoming vehicle, and to turn on the entire high beam when there is no preceding vehicle or oncoming vehicle.

また、これまでの説明では、カラー画像の形式としてRGB形式を例示したが、例えばYUV等別の表現形式を用いることも勿論可能である。   In the above description, the RGB format is exemplified as the color image format, but it is of course possible to use another expression format such as YUV.

1…車両制御システム、2…撮像部、3…画像処理部、3D…テールランプ検出処理部、3G…対象認識・識別処理部、As…テールランプ検出範囲   DESCRIPTION OF SYMBOLS 1 ... Vehicle control system, 2 ... Imaging part, 3 ... Image processing part, 3D ... Tail lamp detection processing part, 3G ... Object recognition / identification processing part, As ... Tail lamp detection range

Claims (5)

自車両の前方を撮像した撮像画像を得る撮像部と、
前記撮像画像内で赤色領域を検出する赤色領域検出処理と、前記赤色領域検出処理で検出された赤色領域に含まれる複数の画素の輝度値のうちの高輝度代表値と低輝度代表値との乖離値を求め、前記乖離値と閾値との大小関係を判定する判定処理とを行い、前記判定処理の結果を、当該赤色領域が先行車両のテールランプ画像であるか否かの識別処理に用いる画像処理部と、を備える
画像処理装置。
An imaging unit for obtaining a captured image obtained by imaging the front of the host vehicle;
A red region detection process for detecting a red region in the captured image, and a high luminance representative value and a low luminance representative value among luminance values of a plurality of pixels included in the red region detected by the red region detection process. An image for obtaining a divergence value, performing a determination process for determining a magnitude relationship between the divergence value and a threshold value, and using a result of the determination process for an identification process for determining whether the red region is a tail lamp image of a preceding vehicle. An image processing apparatus comprising: a processing unit.
前記画像処理部は、
前記高輝度代表値の値に応じて、前記閾値を変更する
請求項1に記載の画像処理装置。
The image processing unit
The image processing apparatus according to claim 1, wherein the threshold value is changed according to a value of the high luminance representative value.
前記画像処理部は、前記識別処理を、自車両のヘッドライトがハイビーム状態である期間に実行する
請求項1又は請求項2に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the image processing unit executes the identification process during a period in which a headlight of the host vehicle is in a high beam state.
前記画像処理部は、前記撮像画像内でテールランプ検出範囲を設定し、該テールランプ検出範囲内で赤色領域を検出する
請求項1乃至請求項3の何れかに記載の画像処理装置。
The image processing device according to any one of claims 1 to 3, wherein the image processing unit sets a tail lamp detection range in the captured image and detects a red region within the tail lamp detection range.
前記画像処理部は、前記識別処理において、赤色領域が先行車両のテールランプ画像であることの信頼度を各種条件に応じて加減算し、前記信頼度の値に応じて当該赤色領域が先行車両のテールランプ画像であるか否かを識別するとともに、
前記判定処理の結果に応じて前記信頼度の値を減算又は加算する
請求項1乃至請求項4の何れかに記載の画像処理装置。
In the identification processing, the image processing unit adds or subtracts the reliability that the red region is the tail lamp image of the preceding vehicle according to various conditions, and the red region corresponds to the tail lamp of the preceding vehicle according to the reliability value. Identify whether it is an image,
The image processing apparatus according to claim 1, wherein the reliability value is subtracted or added according to a result of the determination process.
JP2013112954A 2013-05-29 2013-05-29 Image processing device Active JP6085522B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013112954A JP6085522B2 (en) 2013-05-29 2013-05-29 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013112954A JP6085522B2 (en) 2013-05-29 2013-05-29 Image processing device

Publications (2)

Publication Number Publication Date
JP2014232431A JP2014232431A (en) 2014-12-11
JP6085522B2 true JP6085522B2 (en) 2017-02-22

Family

ID=52125771

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013112954A Active JP6085522B2 (en) 2013-05-29 2013-05-29 Image processing device

Country Status (1)

Country Link
JP (1) JP6085522B2 (en)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6310899B2 (en) 2015-11-25 2018-04-11 株式会社Subaru Outside environment recognition device
JP6200481B2 (en) 2015-11-25 2017-09-20 株式会社Subaru Outside environment recognition device
WO2018047495A1 (en) * 2016-09-06 2018-03-15 日立オートモティブシステムズ株式会社 Image processing device and light distribution control system
FR3062944B1 (en) 2017-02-10 2021-05-14 Continental Automotive France FALSE-POSITIVE DETECTION PROCEDURE RELATING TO A SIGNALING FIRE
JP6427611B2 (en) * 2017-02-28 2018-11-21 株式会社東芝 Vehicle image processing apparatus and vehicle image processing system
KR101875786B1 (en) * 2017-05-26 2018-07-06 (주)베라시스 Method for identifying vehicle using back light region in road image
EP3637368B1 (en) * 2017-06-05 2021-12-15 Hitachi Astemo, Ltd. Image processing device and light distribution control system
WO2019142586A1 (en) 2018-01-17 2019-07-25 日立オートモティブシステムズ株式会社 Image processing system and light distribution control system
CN112544066A (en) * 2018-08-22 2021-03-23 日立汽车系统株式会社 Image processing apparatus
JP7393433B2 (en) 2019-10-10 2023-12-06 株式会社小糸製作所 Light distribution control device, vehicle position detection device, vehicle lighting system, light distribution control method, and vehicle position detection method
WO2022085683A1 (en) * 2020-10-20 2022-04-28 株式会社小糸製作所 Vehicular lamp system, light distribution control device, and light distribution control method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08221700A (en) * 1995-02-17 1996-08-30 Suzuki Motor Corp Stop lamp recognition device
JP4253275B2 (en) * 2003-08-11 2009-04-08 株式会社日立製作所 Vehicle control system
JP4894824B2 (en) * 2008-07-09 2012-03-14 株式会社デンソー Vehicle detection device, vehicle detection program, and light control device

Also Published As

Publication number Publication date
JP2014232431A (en) 2014-12-11

Similar Documents

Publication Publication Date Title
JP6085522B2 (en) Image processing device
JP6227898B2 (en) Image processing device
JP5820843B2 (en) Ambient environment judgment device
US10286834B2 (en) Vehicle exterior environment recognition apparatus
US10442343B2 (en) Vehicle exterior environment recognition apparatus
CN111727135B (en) Automatic lighting system
JP5409929B2 (en) Control method for headlight device for vehicle and headlight device
CN108528431B (en) Automatic control method and device for vehicle running
CN108528448B (en) Automatic control method and device for vehicle running
JP6034923B1 (en) Outside environment recognition device
US9566899B2 (en) Method and control unit for setting at least one parameter of a driver assistance device of a vehicle
KR20120096011A (en) Method for controlling a headlight arrangement for a vehicle and such a headlight arrangement
JP6236039B2 (en) Outside environment recognition device
US20150371093A1 (en) Image processing apparatus
CN108536134B (en) Automatic control method and device for vehicle running
CN110087946A (en) Vehicle lighting system and vehicle
CN103747980A (en) Method and device for controlling headlamp of vehicle
JP6151569B2 (en) Ambient environment judgment device
JP6335065B2 (en) Outside environment recognition device
WO2020039838A1 (en) Image processing device and image processing method
JP6378547B2 (en) Outside environment recognition device
JP7084223B2 (en) Image processing equipment and vehicle lighting equipment
JP6121244B6 (en) Image processing device
JP6121244B2 (en) Image processing device
KR102377540B1 (en) Apparatus and method for controlling high beam

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160217

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170112

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170130

R150 Certificate of patent or registration of utility model

Ref document number: 6085522

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250