JP2016038700A - Vehicle external environment recognition device - Google Patents

Vehicle external environment recognition device Download PDF

Info

Publication number
JP2016038700A
JP2016038700A JP2014161169A JP2014161169A JP2016038700A JP 2016038700 A JP2016038700 A JP 2016038700A JP 2014161169 A JP2014161169 A JP 2014161169A JP 2014161169 A JP2014161169 A JP 2014161169A JP 2016038700 A JP2016038700 A JP 2016038700A
Authority
JP
Japan
Prior art keywords
region
lamp
area
image
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014161169A
Other languages
Japanese (ja)
Other versions
JP6335065B2 (en
Inventor
伊藤 周
Shu Ito
周 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Fuji Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Heavy Industries Ltd filed Critical Fuji Heavy Industries Ltd
Priority to JP2014161169A priority Critical patent/JP6335065B2/en
Publication of JP2016038700A publication Critical patent/JP2016038700A/en
Application granted granted Critical
Publication of JP6335065B2 publication Critical patent/JP6335065B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To identify a vehicle lamp including a prescribed light emission source group.SOLUTION: A vehicle external environment recognition device firstly generates region positional information indicating the position of a lamp region HR on an image. Then, it determines that one lamp region that corresponds to region positional information on a lamp region in a past image, and that is in a lamp region in a current image is a reference region KR. it extracts, as a similar region PR, a lamp region that satisfies a first similar condition set on the basis of the region positional information in the past image, and that is a lamp region other than the reference region in the lamp region in the current image. Next, it generates one integrated region TR by integrating the similar region into the reference region. If the integrated region is generated, it updates the region positional information on the reference region before integration and the region positional information on the similar region to the region positional information on the integrated lamp region.SELECTED DRAWING: Figure 12

Description

本発明は、先行車両の車両用のランプを特定する車外環境認識装置に関する。   The present invention relates to a vehicle environment recognition apparatus that identifies a vehicle lamp for a preceding vehicle.

従来、自車両の前方に位置する車両等の特定物を検出し、先行車両との衝突を回避したり(衝突回避制御)、先行車両との車間距離を安全な距離に保つように制御する(クルーズコントロール)技術が知られている(例えば、特許文献1)。ここで、運転者(人)が遂行しているように、先行車両のブレーキランプの点灯有無(ブレーキの操作状態)等を認識し、先行車両の減速動作を推測するといった処理を組み込むことができれば、より円滑なクルーズコントロールが可能となる。   Conventionally, a specific object such as a vehicle positioned in front of the host vehicle is detected, and a collision with a preceding vehicle is avoided (collision avoidance control), or the distance between the preceding vehicle and the preceding vehicle is controlled to be a safe distance ( (Cruise control) technology is known (for example, Patent Document 1). Here, as the driver (person) is performing, if the process of recognizing whether the brake lamp of the preceding vehicle is lit (the operation state of the brake) or the like and estimating the deceleration operation of the preceding vehicle can be incorporated. Smoother cruise control is possible.

このような先行車両のブレーキランプの点灯有無を検出する技術として、自車両の前方の道路環境を撮像した画像を取得し、取得した画像における、発光源に相当する2つの領域の位置関係に基づいて、ブレーキランプが点灯しているか否かを判定する技術(例えば、特許文献2)が開示されている。   As a technique for detecting whether or not the brake lamp of the preceding vehicle is turned on, an image obtained by capturing the road environment ahead of the host vehicle is acquired, and based on the positional relationship between the two regions corresponding to the light emission sources in the acquired image. Thus, a technique for determining whether or not a brake lamp is lit (for example, Patent Document 2) is disclosed.

特許第3349060号公報Japanese Patent No. 3349060 国際公開第2014/002413号International Publication No. 2014/002413

ところで近年、ハロゲンランプやHIDランプ(High Intensity Discharge Lamp)のような単一発光源からなるブレーキランプの他に、複数のLEDランプを発光源として内蔵したブレーキランプが普及しつつある。   By the way, in recent years, in addition to a brake lamp composed of a single light source such as a halogen lamp or an HID lamp (High Intensity Discharge Lamp), a brake lamp incorporating a plurality of LED lamps as a light source is becoming widespread.

このような複数の発光源(以下、「発光源群」と称する)からなるブレーキランプの点灯有無を、上記特許文献2の技術を利用して検出しようとする場合、先行車両との距離が遠いと、画像上では複数の発光源を示す画素同士が繋がって、発光源群が1の発光源として認識されるため、左右それぞれに1の発光源が認識されることになる。そのため、左右の位置関係に基づいて、ブレーキランプの点灯の有無を検出できる。   When it is attempted to detect whether or not a brake lamp including a plurality of light emitting sources (hereinafter referred to as “light emitting source group”) is turned on using the technique of Patent Document 2, the distance from the preceding vehicle is long. On the image, pixels indicating a plurality of light sources are connected to each other, and the light source group is recognized as one light source, so that one light source is recognized on each of the left and right sides. Therefore, it is possible to detect whether or not the brake lamp is lit based on the positional relationship between the left and right.

しかし、先行車両との距離が近いと、発光源群を構成する個々の発光源それぞれが1の発光源として認識されたり、発光源群を構成する複数の発光源が複数のグループに分けられて認識されたりする場合がある。この場合、ブレーキランプを示す位置関係の発光源の対を検出できなくなってしまうことがある。そうすると、ブレーキランプが点灯している先行車両と接近しているにも拘わらず、ブレーキランプが消灯していると誤判定してしまうおそれがあった。   However, when the distance from the preceding vehicle is short, each light source constituting the light source group is recognized as one light source, or a plurality of light sources constituting the light source group are divided into a plurality of groups. May be recognized. In this case, it may become impossible to detect a pair of light sources that have a positional relationship indicating a brake lamp. In this case, there is a possibility that it may be erroneously determined that the brake lamp is turned off even though the vehicle approaches the preceding vehicle whose brake lamp is turned on.

また、所定の発光源群で構成される、ハイマウントストップランプや、テールランプ、ウィンカー等のランプ類についても、ブレーキランプと同様に、誤判定されるおそれがある。   Further, high mount stop lamps, lamps such as tail lamps, blinkers, and the like, which are configured by a predetermined light source group, may be erroneously determined as in the case of brake lamps.

本発明は、このような課題に鑑み、所定の発光源群からなる車両用のランプを特定することが可能な車外環境認識装置を提供することを目的としている。   In view of such a problem, an object of the present invention is to provide a vehicle environment recognition device that can identify a vehicle lamp including a predetermined light source group.

上記課題を解決するために、本発明の車外環境認識装置は、画像を取得する画像取得部と、前記画像における車両領域を特定する車両特定部と、前記車両領域において、ランプが占有するランプ領域を特定し、該ランプ領域が所定の条件を満たす場合に所定のランプと特定するランプ特定部と、前記ランプ領域の画像上の位置を示す領域位置情報を生成する領域位置情報生成部と、現在画像における前記ランプ領域のうち、該現在画像より前に撮像された過去画像におけるランプ領域の前記領域位置情報に対応する1のランプ領域を基準領域と決定する基準領域決定部と、前記現在画像におけるランプ領域のうち、前記基準領域以外のランプ領域であって、前記過去画像の領域位置情報に基づいて設定される第1類似条件を満たすランプ領域を類似領域として抽出する類似領域抽出部と、前記基準領域に、前記類似領域を統合して、1の統合領域を生成する統合領域生成部と、前記統合領域が生成された場合、統合前の前記基準領域の領域位置情報および前記類似領域の領域位置情報を、該統合領域の領域位置情報に更新する情報更新部と、を備え、前記ランプ特定部は、前記統合領域が生成された場合、該統合領域を1のランプ領域と特定することを特徴とする。   In order to solve the above-described problems, an external environment recognition device according to the present invention includes an image acquisition unit that acquires an image, a vehicle specification unit that specifies a vehicle region in the image, and a lamp region occupied by a lamp in the vehicle region. A lamp specifying unit for specifying a predetermined lamp when the lamp region satisfies a predetermined condition, a region position information generating unit for generating region position information indicating a position of the lamp region on the image, A reference area determining unit that determines, as a reference area, one lamp area corresponding to the area position information of the lamp area in a past image captured before the current image, among the lamp areas in the image; Among the lamp areas, a lamp area other than the reference area, which satisfies the first similarity condition set based on the area position information of the past image A similar region extraction unit that extracts as a similar region, an integrated region generation unit that integrates the similar region into the reference region to generate one integrated region, and when the integrated region is generated, An information update unit that updates the region position information of the reference region and the region position information of the similar region to the region position information of the integrated region, and the lamp specifying unit, when the integrated region is generated, The integrated area is specified as one lamp area.

また、前記車両特定部は、自車両に対する先行車両の挙動を予測し、前記第1類似条件は、予測された前記先行車両の挙動に応じて導出される、前記過去画像の領域位置情報が示す位置と所定の位置関係にある前記現在画像における位置に基づいて設定されるとしてもよい。   Further, the vehicle specifying unit predicts the behavior of the preceding vehicle with respect to the host vehicle, and the first similarity condition is indicated by the region position information of the past image derived according to the predicted behavior of the preceding vehicle. It may be set based on the position in the current image that is in a predetermined positional relationship with the position.

また、前記車両特定部は、自車両に対する先行車両の挙動を予測し、前記第1類似条件は、予測された前記先行車両の挙動に応じて導出される、前記過去画像の領域位置情報が示す位置に相当する前記現在画像における位置である領域予測位置に基づいて設定されるとしてもよい。   Further, the vehicle specifying unit predicts the behavior of the preceding vehicle with respect to the host vehicle, and the first similarity condition is indicated by the region position information of the past image derived according to the predicted behavior of the preceding vehicle. It may be set based on a region predicted position that is a position in the current image corresponding to a position.

また、前記類似領域抽出部は、前記第1類似条件を満たし、かつ、該第1類似条件とは異なる第2類似条件を満たすランプ領域を類似領域として抽出し、前記第2類似条件は、相異なるタイミングで撮像された複数の画像におけるランプ領域の検出回数に基づいて設定されるとしてもよい。   The similar region extraction unit extracts a lamp region that satisfies the first similarity condition and satisfies a second similarity condition that is different from the first similarity condition as a similar region, and the second similarity condition includes: It may be set based on the number of times the lamp area is detected in a plurality of images taken at different timings.

また、前記画像取得部が取得する画像はカラー画像であり、前記類似領域抽出部は、前記第1類似条件を満たし、かつ、該第1類似条件とは異なる第3類似条件を満たすランプ領域を類似領域として抽出し、前記第3類似条件は、所定のカラー範囲内のカラー値である画素の数に基づいて設定されるとしてもよい。   The image acquired by the image acquisition unit is a color image, and the similar region extraction unit selects a lamp region that satisfies the first similarity condition and satisfies a third similarity condition different from the first similarity condition. The similar region may be extracted, and the third similarity condition may be set based on the number of pixels that are color values within a predetermined color range.

本発明によれば、所定の発光源群からなる車両用のランプを特定することが可能となる。   According to the present invention, it is possible to specify a vehicle lamp including a predetermined light source group.

環境認識システムの接続関係を示したブロック図である。It is the block diagram which showed the connection relation of the environment recognition system. カラー画像と距離画像を説明するための説明図である。It is explanatory drawing for demonstrating a color image and a distance image. 車外環境認識装置の概略的な機能を示した機能ブロック図である。It is the functional block diagram which showed the schematic function of the external environment recognition apparatus. 特定物テーブルを説明するための説明図である。It is explanatory drawing for demonstrating a specific thing table. 車外環境認識処理を示すフローチャートである。It is a flowchart which shows a vehicle exterior environment recognition process. 車両特定部による車両特定処理を示すフローチャートである。It is a flowchart which shows the vehicle specific process by a vehicle specific part. 車両特定処理を説明するための説明図である。It is explanatory drawing for demonstrating a vehicle specific process. 車両特定処理を説明するための説明図である。It is explanatory drawing for demonstrating a vehicle specific process. ランプ特定処理を示すフローチャートである。It is a flowchart which shows a lamp specific process. 第1露光態様による撮像と第2露光態様による撮像との違いを説明するための説明図である。It is explanatory drawing for demonstrating the difference between the imaging by a 1st exposure aspect, and the imaging by a 2nd exposure aspect. 所定の発光源群からなるブレーキランプが配された車両におけるブレーキランプの誤判定を説明するための図である。It is a figure for demonstrating the misjudgment of the brake lamp in the vehicle by which the brake lamp which consists of a predetermined light emission source group was arranged. 統合処理を説明するための図である。It is a figure for demonstrating an integration process.

以下に添付図面を参照しながら、本発明の好適な実施形態について詳細に説明する。かかる実施形態に示す寸法、材料、その他具体的な数値などは、発明の理解を容易とするための例示にすぎず、特に断る場合を除き、本発明を限定するものではない。なお、本明細書および図面において、実質的に同一の機能、構成を有する要素については、同一の符号を付することにより重複説明を省略し、また本発明に直接関係のない要素は図示を省略する。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. The dimensions, materials, and other specific numerical values shown in the embodiment are merely examples for facilitating understanding of the invention, and do not limit the present invention unless otherwise specified. In the present specification and drawings, elements having substantially the same function and configuration are denoted by the same reference numerals, and redundant description is omitted, and elements not directly related to the present invention are not illustrated. To do.

近年では、車両に搭載した車載カメラによって自車両の前方の道路環境を撮像し、撮像した画像内における色情報や位置情報に基づいて先行車両等の対象物を特定し、特定された対象物との衝突を回避したり、先行車両との車間距離を安全な距離に保つ(ACC:Adaptive Cruise Control)、所謂衝突防止機能を搭載した車両が普及しつつある。   In recent years, an in-vehicle camera mounted on a vehicle images a road environment ahead of the host vehicle, identifies an object such as a preceding vehicle based on color information and position information in the captured image, and the identified object Vehicles equipped with a so-called collision prevention function that avoids such collisions and keeps the distance between the vehicle and the preceding vehicle at a safe distance (ACC: Adaptive Cruise Control) are becoming popular.

かかるACCや衝突防止機能では、例えば、自車両前方に位置する対象物の、自車両との相対距離を導出し、かかる相対距離に基づいて、自車両の前方に位置する対象物との衝突を回避したり、対象物が車両(先行車両)であった場合、その先行車両との相対距離を安全な距離に保つように制御する。また、先行車両のブレーキランプの点灯有無等を認識し、先行車両の減速動作を推測する処理を組み込むことで、より円滑なクルーズコントロールを実現することが可能となる。以下、このような目的を達成するための環境認識システムを説明し、その具体的な構成要素である車外環境認識装置を詳述する。   In the ACC and the collision prevention function, for example, the relative distance of the object located in front of the own vehicle with the own vehicle is derived, and based on the relative distance, the collision with the object located in front of the own vehicle is detected. If the target is a vehicle (preceding vehicle), control is performed so that the relative distance from the preceding vehicle is kept at a safe distance. In addition, it is possible to realize smoother cruise control by incorporating a process for recognizing whether the brake lamp of the preceding vehicle is lit or not and estimating the deceleration operation of the preceding vehicle. Hereinafter, an environment recognition system for achieving such an object will be described, and a vehicle exterior environment recognition apparatus as a specific component thereof will be described in detail.

(環境認識システム100)
図1は、環境認識システム100の接続関係を示したブロック図である。環境認識システム100は、自車両1内に設けられた、撮像装置110と、車外環境認識装置120と、車両制御装置(ECU:Engine Control Unit)130とを含んで構成される。
(Environment recognition system 100)
FIG. 1 is a block diagram showing a connection relationship of the environment recognition system 100. The environment recognition system 100 includes an imaging device 110, a vehicle exterior environment recognition device 120, and a vehicle control device (ECU: Engine Control Unit) 130 provided in the host vehicle 1.

撮像装置110は、CCD(Charge-Coupled Device)やCMOS(Complementary Metal-Oxide Semiconductor)等の撮像素子を含んで構成され、自車両1の前方に相当する環境を撮像し、カラー値で表されるカラー画像を生成することができる。ここで、カラー値は、1つの輝度(Y)と2つの色差(UV)からなる、または、3つの色相(R(赤)、G(緑)、B(青))からなる数値群である。   The imaging device 110 includes an imaging element such as a charge-coupled device (CCD) or a complementary metal-oxide semiconductor (CMOS), images an environment corresponding to the front of the host vehicle 1, and is represented by a color value. A color image can be generated. Here, the color value is a numerical group consisting of one luminance (Y) and two color differences (UV), or three hues (R (red), G (green), B (blue)). .

また、撮像装置110は、自車両1の進行方向側において2つの撮像装置110それぞれの光軸が略平行になるように、略水平方向に離隔して配置される。撮像装置110は、自車両1の前方の検出領域に存在する対象物を撮像した画像データを、例えば1/20秒のフレーム毎(20fps)に連続して生成する。ここで、認識する対象物は、車両、歩行者、信号機、道路(進行路)、ガードレール、建物といった独立して存在する立体物のみならず、ブレーキランプ、ハイマウントストップランプ、テールランプ、ウィンカー、信号機の各点灯部分等、立体物の一部として特定できる物も含む。以下の実施形態における各機能部は、このような画像データの更新を契機としてフレーム毎に各処理を遂行する。   In addition, the imaging devices 110 are arranged in a substantially horizontal direction so that the optical axes of the two imaging devices 110 are substantially parallel on the traveling direction side of the host vehicle 1. The imaging device 110 continuously generates, for example, image data obtained by capturing an object existing in the detection area in front of the host vehicle 1 every frame (20 fps) for 1/20 second. Here, the objects to be recognized are not only three-dimensional objects such as vehicles, pedestrians, traffic lights, roads (traveling paths), guardrails, and buildings, but also brake lights, high-mount stop lamps, tail lights, blinkers, traffic lights. The thing which can be specified as a part of solid objects, such as each lighting part, is also included. Each functional unit in the following embodiment performs each process for each frame in response to such update of the image data.

さらに、本実施形態において、撮像装置110は、車外環境の明るさ(照度計の計測結果等)に応じた露光時間や絞りを示す第1露光態様で検出領域を撮像し、第1画像を生成する。また、撮像装置110は、ブレーキランプ等、特定のランプが自発光しているか否かを判別可能な画像を生成する。その方法としては、ダイナミックレンジが広い撮像素子を用い、発光していない対象物が黒く潰れず、ランプが白とびしないように撮像してもよいし、第1露光態様とは露光態様(露光時間、絞り)が異なる第2露光態様で検出領域を撮像し、第2画像を生成してもよい。例えば、昼間であれば、明るい車外環境に応じた第1露光態様の露光時間より第2露光態様の露光時間を短くして、または、絞りを強くして第2画像を生成する。本実施形態において、第1画像および第2画像はそれぞれカラー画像および距離画像として用いられる。また、上記第1露光態様と第2露光態様とは、以下のようにして実現される。   Further, in the present embodiment, the imaging device 110 captures the detection region in the first exposure mode indicating the exposure time and the aperture according to the brightness of the environment outside the vehicle (measurement result of the illuminometer, etc.), and generates the first image. To do. In addition, the imaging device 110 generates an image that can determine whether or not a specific lamp such as a brake lamp emits light. As the method, an imaging element having a wide dynamic range may be used to capture an image so that an object that does not emit light is not crushed black and the lamp does not overshoot. The first exposure mode is an exposure mode (exposure time). The detection area may be imaged in a second exposure mode with different apertures to generate a second image. For example, during the daytime, the second image is generated by shortening the exposure time in the second exposure mode or increasing the aperture in comparison with the exposure time in the first exposure mode according to the bright outside environment. In the present embodiment, the first image and the second image are used as a color image and a distance image, respectively. Moreover, the said 1st exposure aspect and a 2nd exposure aspect are implement | achieved as follows.

例えば、撮像装置110の周期的な撮像タイミングを時分割し、第1露光態様による撮像と第2露光態様による撮像とを交互に行うことで、第1画像と第2画像とを順次生成することができる。また、画素毎に2つのキャパシタが設けられ、その2つのキャパシタに並行して電荷をチャージできる撮像素子において、一度の露光でチャージする時間を異ならせて露光態様の異なる2つの画像を並行して生成することもできる。さらに、1つのキャパシタの電荷のチャージ中に、時間を異ならせて2回読み出し、露光態様の異なる2つの画像を並行して生成したりすることでも上記の目的を達成できる。また、撮像装置110を、露光態様を異ならせて予め2セット準備しておき(ここでは、2つの撮像装置110×2セット)、2セットの撮像装置110からそれぞれ画像を生成したりすることも可能である。露光態様を支配する露光時間は、例えば1〜60msecの範囲で適切に制御される。   For example, the first image and the second image are sequentially generated by time-sharing the periodic image capturing timing of the image capturing apparatus 110 and alternately performing image capturing in the first exposure mode and image capturing in the second exposure mode. Can do. In addition, in an image pickup device in which two capacitors are provided for each pixel and charges can be charged in parallel to the two capacitors, two images having different exposure modes are set in parallel by changing the charging time in one exposure. It can also be generated. Further, the above-described object can be achieved by reading twice at different times and generating two images having different exposure modes in parallel while charging one capacitor. In addition, two sets of imaging devices 110 may be prepared in advance with different exposure modes (here, two imaging devices 110 × 2 sets), and images may be generated from the two sets of imaging devices 110, respectively. Is possible. The exposure time that governs the exposure mode is appropriately controlled within a range of 1 to 60 msec, for example.

車外環境認識装置120は、2つの撮像装置110それぞれから画像データを取得し、一方の画像データから任意に抽出したブロック(例えば水平4画素×垂直4画素の配列)に対応するブロックを他方の画像データから検索する、所謂パターンマッチングを用いて視差、および、任意のブロックの画面内の位置を示す画面位置を含む視差情報を導出する。ここで、水平は、撮像した画像の画面横方向を示し、垂直は、撮像した画像の画面縦方向を示す。このパターンマッチングとしては、一対の画像間において、任意のブロック単位で輝度(Y)を比較することが考えられる。例えば、輝度値の差分をとるSAD(Sum of Absolute Difference)、差分を2乗して用いるSSD(Sum of Squared intensity Difference)や、各画素の輝度から平均値を引いた分散値の類似度をとるNCC(Normalized Cross Correlation)等の手法がある。車外環境認識装置120は、このようなブロック単位の視差導出処理を検出領域(例えば600画素×200画素)に映し出されている全てのブロックについて行う。ここでは、ブロックを4画素×4画素としているが、ブロック内の画素数は任意に設定することができる。   The outside environment recognition device 120 acquires image data from each of the two imaging devices 110, and selects a block corresponding to a block arbitrarily extracted from one image data (for example, an array of 4 horizontal pixels × 4 vertical pixels) on the other image. The parallax information including the parallax and the screen position indicating the position of the arbitrary block in the screen is derived using so-called pattern matching that is searched from the data. Here, the horizontal indicates the horizontal direction of the captured image, and the vertical indicates the vertical direction of the captured image. As this pattern matching, it is conceivable to compare the luminance (Y) in an arbitrary block unit between a pair of images. For example, SAD (Sum of Absolute Difference) that takes the difference in luminance value, SSD (Sum of Squared intensity Difference) that uses the difference squared, and the similarity of the variance value obtained by subtracting the average value from the luminance of each pixel. There are methods such as NCC (Normalized Cross Correlation). The vehicle exterior environment recognition apparatus 120 performs such block-based parallax derivation processing for all blocks displayed in the detection area (for example, 600 pixels × 200 pixels). Here, the block is 4 pixels × 4 pixels, but the number of pixels in the block can be arbitrarily set.

ただし、車外環境認識装置120では、検出分解能単位であるブロック毎に視差を導出することはできるが、そのブロックがどのような対象物の一部であるかを認識できない。したがって、視差情報は、対象物単位ではなく、検出領域における検出分解能単位(例えばブロック単位)で独立して導出されることとなる。ここでは、このようにして導出された視差情報を画像データに対応付けた画像を、上述したカラー画像と区別して距離画像という。   However, the vehicle environment recognition apparatus 120 can derive the parallax for each block, which is a detection resolution unit, but cannot recognize what kind of target object the block is. Accordingly, the disparity information is derived independently not in units of objects but in units of detection resolution (for example, blocks) in the detection region. Here, an image in which the parallax information derived in this way is associated with image data is referred to as a distance image in distinction from the color image described above.

図2は、カラー画像126と距離画像128を説明するための説明図である。例えば、2つの撮像装置110を通じ、検出領域124について図2(a)のようなカラー画像(画像データ)126が生成されたとする。ただし、ここでは、理解を容易にするため、2つのカラー画像126の一方のみを模式的に示している。車外環境認識装置120は、このようなカラー画像126からブロック毎の視差を求め、図2(b)のような距離画像128を形成する。距離画像128における各ブロックには、そのブロックの視差が関連付けられている。ここでは、説明の便宜上、視差が導出されたブロックを黒のドットで表している。本実施形態では、このようなカラー画像126と距離画像128とを第1画像および第2画像それぞれに基づいて生成している。したがって、本実施形態では、第1画像に基づくカラー画像126、第1画像に基づく距離画像128、第2画像に基づくカラー画像126、第2画像に基づく距離画像128が用いられる。   FIG. 2 is an explanatory diagram for explaining the color image 126 and the distance image 128. For example, it is assumed that a color image (image data) 126 as shown in FIG. 2A is generated for the detection region 124 through the two imaging devices 110. However, only one of the two color images 126 is schematically shown here for easy understanding. The vehicle environment recognition apparatus 120 obtains the parallax for each block from the color image 126 and forms a distance image 128 as shown in FIG. Each block in the distance image 128 is associated with the parallax of the block. Here, for convenience of description, blocks from which parallax is derived are represented by black dots. In the present embodiment, such a color image 126 and distance image 128 are generated based on the first image and the second image, respectively. Therefore, in this embodiment, the color image 126 based on the first image, the distance image 128 based on the first image, the color image 126 based on the second image, and the distance image 128 based on the second image are used.

また、車外環境認識装置120は、カラー画像126に基づくカラー値、および、距離画像128に基づく自車両1との相対距離を含む実空間における3次元の位置情報を用い、カラー値が等しく3次元の位置情報が近いブロック同士を対象物としてグループ化して、自車両1前方の検出領域における対象物がいずれの特定物(例えば、先行車両)に対応するかを特定する。例えば、相対距離等によって先行車両を特定し、さらに、カラー値によってその先行車両のブレーキランプの位置や点灯有無を把握することができる。このような処理により、ブレーキランプの点灯による当該車両の減速を迅速に把握し、衝突回避制御やACCに利用することが可能となる。   Further, the outside environment recognition device 120 uses the three-dimensional position information in the real space including the color value based on the color image 126 and the relative distance from the host vehicle 1 based on the distance image 128, and the color values are equal and three-dimensional. Blocks having close positional information are grouped as objects, and the specific object (for example, a preceding vehicle) corresponding to the object in the detection area in front of the host vehicle 1 is specified. For example, the preceding vehicle can be specified by the relative distance or the like, and further, the position of the brake lamp and the presence / absence of lighting of the preceding vehicle can be grasped by the color value. By such processing, it is possible to quickly grasp the deceleration of the vehicle due to the lighting of the brake lamp and use it for collision avoidance control and ACC.

なお、上記相対距離は、距離画像128におけるブロック毎の視差情報を、所謂ステレオ法を用いて三次元の位置情報に変換することで求められる。ここで、ステレオ法は、三角測量法を用いることで、対象物の視差からその対象物の撮像装置110に対する相対距離を導出する方法である。   The relative distance is obtained by converting the disparity information for each block in the distance image 128 into three-dimensional position information using a so-called stereo method. Here, the stereo method is a method of deriving a relative distance of the target object from the imaging device 110 from the parallax of the target object by using a triangulation method.

車外環境認識装置120は、対象物を任意の特定物、例えば、先行車両を特定すると、その先行車両を追跡しつつ、先行車両との相対距離および先行車両の相対速度等を導出し、先行車両と自車両1とが衝突する可能性が高いか否かの判定を行う。このとき、先行車両のブレーキランプを特定していれば、そのブレーキランプの点灯により先行車両の減速を早期に認識できる。ここで、先行車両と衝突の可能性が高いと判定した場合、車外環境認識装置120は、その旨、運転者の前方に設置されたディスプレイ122を通じて運転者に警告表示(報知)を行うとともに、車両制御装置130に対して、その旨を示す情報を出力する。   The vehicle exterior environment recognition device 120, when specifying an object as an arbitrary specific object, for example, a preceding vehicle, derives a relative distance from the preceding vehicle, a relative speed of the preceding vehicle, and the like while tracking the preceding vehicle. It is determined whether or not there is a high possibility that the vehicle 1 and the host vehicle 1 collide with each other. At this time, if the brake lamp of the preceding vehicle is specified, the deceleration of the preceding vehicle can be recognized early by the lighting of the brake lamp. Here, when it is determined that there is a high possibility of a collision with the preceding vehicle, the outside environment recognition device 120 displays a warning (notification) to the driver through the display 122 installed in front of the driver to that effect, Information indicating that is output to the vehicle control device 130.

車両制御装置130は、ステアリングホイール132、アクセルペダル134、ブレーキペダル136を通じて運転者の操作入力を受け付け、操舵機構142、駆動機構144、制動機構146に伝達することで自車両1を制御する。また、車両制御装置130は、車外環境認識装置120の指示に従い、駆動機構144、制動機構146を制御する。例えば、車外環境認識装置120から先行車両と衝突の可能性が高い旨の情報が入力されると、車両制御装置130は、制動機構146を通じて運転者のブレーキ操作を支援する。   The vehicle control device 130 receives a driver's operation input through the steering wheel 132, the accelerator pedal 134, and the brake pedal 136, and controls the host vehicle 1 by transmitting it to the steering mechanism 142, the drive mechanism 144, and the brake mechanism 146. In addition, the vehicle control device 130 controls the drive mechanism 144 and the braking mechanism 146 in accordance with instructions from the outside environment recognition device 120. For example, when information indicating that there is a high possibility of a collision with a preceding vehicle is input from the outside environment recognition device 120, the vehicle control device 130 supports the driver's braking operation through the braking mechanism 146.

以下、車外環境認識装置120の構成について詳述する。ここでは、本実施形態に特徴的な、先行車両やブレーキランプの特定処理について詳細に説明し、本実施形態の特徴と無関係の構成については説明を省略する。   Hereinafter, the configuration of the outside environment recognition device 120 will be described in detail. Here, the preceding vehicle and brake lamp specifying process, which is characteristic of the present embodiment, will be described in detail, and description of the configuration unrelated to the characteristics of the present embodiment will be omitted.

(車外環境認識装置120)
図3は、車外環境認識装置120の概略的な機能を示した機能ブロック図である。図3に示すように、車外環境認識装置120は、I/F部150と、データ保持部152と、中央制御部154とを含んで構成される。
(Vehicle environment recognition device 120)
FIG. 3 is a functional block diagram showing a schematic function of the outside environment recognition device 120. As shown in FIG. 3, the vehicle exterior environment recognition apparatus 120 includes an I / F unit 150, a data holding unit 152, and a central control unit 154.

I/F部150は、撮像装置110や車両制御装置130との双方向の情報交換を行うためのインターフェースである。データ保持部152は、RAM、フラッシュメモリ、HDD等で構成され、特定物テーブルや、以下に示す各機能部の処理に必要な様々な情報を保持し、また、撮像装置110から受信した画像データ(第1画像および第2画像に基づくカラー画像126、距離画像128)を一時的に保持する。ここで、特定物テーブルは、以下のように定義される。   The I / F unit 150 is an interface for performing bidirectional information exchange with the imaging device 110 and the vehicle control device 130. The data holding unit 152 includes a RAM, a flash memory, an HDD, and the like, holds a specific object table and various information necessary for processing of each functional unit shown below, and receives image data received from the imaging device 110. (A color image 126 and a distance image 128 based on the first image and the second image) are temporarily stored. Here, the specific object table is defined as follows.

図4は、特定物テーブル200を説明するための説明図である。特定物テーブル200では、複数の特定物に対して、カラー値(ここではR、G、B)の範囲を示すカラー範囲202と、道路表面からの高さの範囲を示す高さ範囲204と、特定物の水平距離の幅範囲206と、特定物の垂直距離の幅範囲208と、同一特定物との水平距離の差分210と、同一特定物との垂直距離の差分212と、同一特定物との面積比214とが対応付けられている。ここで、特定物としては、「ブレーキランプ(赤)」、「ハイマウントストップランプ(赤)」、「テールランプ(赤)」、「ウィンカー(橙)」等、車両を特定する際に要する様々な物が想定されている。ただし、特定物は図4に記載された物に限定されないのは言うまでもない。特定物のうち、例えば、特定物「ブレーキランプ(赤)」には、カラー範囲(R)「200以上」、カラー範囲(G)「50以下」、カラー範囲(B)「50以下」、高さ範囲「0.3〜2.0m」、水平距離の幅範囲「0.05〜0.2m」、垂直距離の幅範囲「0.05〜0.2m」、水平距離の差分「1.4〜1.9m」、垂直距離の差分「0.3m以下」、面積比「50〜200%」が対応付けられている。   FIG. 4 is an explanatory diagram for explaining the specific object table 200. In the specific object table 200, for a plurality of specific objects, a color range 202 indicating a range of color values (here, R, G, B), a height range 204 indicating a height range from the road surface, A specific object horizontal distance width range 206, a specific object vertical distance width range 208, a horizontal distance difference 210 with the same specific object, a vertical distance difference 212 with the same specific object, and the same specific object Are associated with each other. Here, as specific items, various items required for identifying a vehicle such as “brake lamp (red)”, “high-mount stop lamp (red)”, “tail lamp (red)”, “winker (orange)”, etc. Things are envisaged. However, it goes without saying that the specific object is not limited to the object shown in FIG. Among the specific objects, for example, the specific object “brake lamp (red)” has a color range (R) “200 or more”, a color range (G) “50 or less”, a color range (B) “50 or less”, a high Range “0.3-2.0 m”, horizontal distance width range “0.05-0.2 m”, vertical distance width range “0.05-0.2 m”, horizontal distance difference “1.4” ˜1.9 m ”, vertical distance difference“ 0.3 m or less ”, and area ratio“ 50 to 200% ”are associated with each other.

図3に戻って説明すると、中央制御部154は、中央処理装置(CPU)、プログラム等が格納されたROM、ワークエリアとしてのRAM等を含む半導体集積回路で構成され、システムバス156を通じて、I/F部150、データ保持部152等を制御する。また、本実施形態において、中央制御部154は、画像取得部160、位置情報導出部162、対象物特定部164、領域位置情報生成部166、領域予測位置導出部168、基準領域決定部170、類似領域抽出部172、統合領域生成部174、情報更新部176、位置対応付け部178、配置判定部180としても機能する。以下、各機能部の動作を説明するとともに、本実施形態に特徴的な車外環境認識処理について詳述する。   Returning to FIG. 3, the central control unit 154 is composed of a semiconductor integrated circuit including a central processing unit (CPU), a ROM storing a program, a RAM as a work area, and the like. The / F unit 150, the data holding unit 152, and the like are controlled. In the present embodiment, the central control unit 154 includes an image acquisition unit 160, a position information deriving unit 162, an object specifying unit 164, a region position information generating unit 166, a region predicted position deriving unit 168, a reference region determining unit 170, It also functions as a similar region extraction unit 172, an integrated region generation unit 174, an information update unit 176, a position association unit 178, and an arrangement determination unit 180. Hereinafter, the operation of each functional unit will be described, and a vehicle environment recognition process characteristic of the present embodiment will be described in detail.

(車外環境認識処理)
図5は、車外環境認識処理を示すフローチャートである。車外環境認識装置120の画像取得部160は、撮像装置110から、車外環境の明るさに応じた第1露光態様で検出領域124を撮像した第1画像と、第1露光態様と露光態様が異なる第2露光態様で検出領域124を撮像した第2画像とを取得する(S300)。
(External vehicle environment recognition processing)
FIG. 5 is a flowchart showing the external environment recognition process. The image acquisition unit 160 of the outside environment recognition device 120 is different from the first image obtained by capturing the detection region 124 in the first exposure mode according to the brightness of the outside environment from the imaging device 110, and the first exposure mode and the exposure mode are different. A second image obtained by imaging the detection area 124 in the second exposure mode is acquired (S300).

続いて、位置情報導出部162は、第1画像に基づく距離画像128における検出領域124内のブロック毎の視差情報を、上述したステレオ法を用いて、水平距離x、(道路表面からの)高さyおよび相対距離zを含む三次元の位置情報に変換する(S302)。ここで、視差情報が、距離画像128における各ブロックの視差を示すのに対し、三次元の位置情報は、実空間における各ブロックの相対距離の情報を示す。また、視差情報が画素単位ではなくブロック単位、即ち複数の画素単位で導出されている場合、その視差情報はブロックに属する全ての画素の視差情報とみなして、画素単位の計算を実行することができる。かかる三次元の位置情報への変換については、特開2013−109391号公報等、既存の技術を参照できるので、ここでは、その詳細な説明を省略する。   Subsequently, the position information deriving unit 162 uses the stereo method described above to calculate the disparity information for each block in the detection area 124 in the distance image 128 based on the first image, the horizontal distance x, and the high (from the road surface). The information is converted into three-dimensional position information including the height y and the relative distance z (S302). Here, the parallax information indicates the parallax of each block in the distance image 128, while the three-dimensional position information indicates information on the relative distance of each block in the real space. Further, when the disparity information is derived not in pixel units but in block units, that is, in a plurality of pixel units, the disparity information may be regarded as disparity information of all pixels belonging to the block, and calculation in pixel units may be executed. it can. Regarding the conversion to the three-dimensional position information, since existing techniques such as JP2013-109391A can be referred to, detailed description thereof is omitted here.

次に、対象物特定部164は、第1画像および第2画像に基づいて、画像内の対象物がいずれの特定物に対応するか特定する。本実施形態において、対象物特定部164は、特に、先行する車両(先行車両)と、ブレーキランプ(ランプ)とを特定する(車両特定処理S304、ランプ特定処理S306)。したがって、以下では、対象物特定部164のうち、先行車両を特定する車両特定処理S304を実行する機能部を車両特定部164aとし、ブレーキランプを特定するランプ特定処理S306を実行する機能部をランプ特定部164bとして説明する。また、対象物特定部164(車両特定部164a、ランプ特定部164b)は、特定物が特定された対象物を追跡(追尾)し、その対象物の自車両1に対する相対距離、相対速度、相対加速度、および、自車両1の走行状態を加味した先行車両の絶対速度、絶対加速度も検出する。   Next, the object specifying unit 164 specifies which specific object the object in the image corresponds to based on the first image and the second image. In the present embodiment, the object specifying unit 164 particularly specifies the preceding vehicle (leading vehicle) and the brake lamp (lamp) (vehicle specifying process S304, lamp specifying process S306). Therefore, in the following, among the object specifying unit 164, the function unit that executes the vehicle specifying process S304 that specifies the preceding vehicle is referred to as the vehicle specifying unit 164a, and the function unit that executes the lamp specifying process S306 that specifies the brake lamp is the lamp. This will be described as the specifying unit 164b. The object specifying unit 164 (the vehicle specifying unit 164a and the lamp specifying unit 164b) tracks (tracks) the object in which the specified object is specified, and the relative distance, relative speed, and relative of the object to the host vehicle 1 are tracked. The absolute speed and absolute acceleration of the preceding vehicle taking into account the acceleration and the traveling state of the host vehicle 1 are also detected.

図6は、車両特定部164aによる車両特定処理S304を示すフローチャートであり、図7および図8は、車両特定処理S304を説明するための説明図である。車両特定部164aは、まず、第1画像に基づく距離画像128の検出領域124を、水平方向に対して複数の分割領域216に分割する(S304−1)。すると、分割領域216は図7(a)のような短冊形状になる。このような短冊形状の分割領域216は、本来、例えば、水平幅4画素のものが150列配列してなるが、ここでは、説明の便宜上、検出領域124を16等分したもので説明する。   FIG. 6 is a flowchart showing the vehicle specifying process S304 by the vehicle specifying unit 164a, and FIGS. 7 and 8 are explanatory diagrams for explaining the vehicle specifying process S304. First, the vehicle identification unit 164a divides the detection area 124 of the distance image 128 based on the first image into a plurality of divided areas 216 in the horizontal direction (S304-1). Then, the divided region 216 has a strip shape as shown in FIG. Such a strip-shaped divided region 216 is originally composed of, for example, 150 columns each having a horizontal width of 4 pixels, but here, for convenience of explanation, the detection region 124 is divided into 16 parts.

続いて、車両特定部164aは、分割領域216毎に、位置情報に基づき、道路表面より上方に位置する全てのブロックを対象に、複数に区分した所定距離それぞれに含まれる相対距離を積算してヒストグラム(図7(b)中、横長の四角(バー)で示す、以下、「距離ヒストグラム」と称する)を生成する(S304−2)。すると、図7(b)のような距離分布218が得られる。ここで、縦方向は、区分した所定距離(距離区分)を、横方向は、距離区分それぞれに相対距離が含まれるブロックの個数(度数)を示している。ただし、図7(b)は計算を行う上での仮想的な画面であり、実際には視覚的な画面の生成を伴わない。そして、車両特定部164aは、このようにして導出された距離分布218を参照し、ピークに相当する相対距離である代表距離(図7(b)中、黒で塗りつぶした四角で示す)220を特定する(S304−3)。ここで、ピークに相当するとは、ピーク値またはピーク近傍で任意の条件を満たす値をいう。   Subsequently, for each divided region 216, the vehicle specifying unit 164a integrates the relative distances included in each of the predetermined distances divided into a plurality of blocks located above the road surface based on the position information. A histogram (indicated by a horizontally long square (bar) in FIG. 7B, hereinafter referred to as “distance histogram”) is generated (S304-2). Then, a distance distribution 218 as shown in FIG. 7B is obtained. Here, the vertical direction indicates the divided predetermined distance (distance division), and the horizontal direction indicates the number of blocks (frequency) in which the relative distance is included in each distance division. However, FIG. 7B is a virtual screen for calculation, and actually does not involve the generation of a visual screen. Then, the vehicle identification unit 164a refers to the distance distribution 218 derived in this way, and represents a representative distance 220 (indicated by a black square in FIG. 7B) that is a relative distance corresponding to the peak. Specify (S304-3). Here, “corresponding to a peak” means a peak value or a value that satisfies an arbitrary condition in the vicinity of the peak.

次に、車両特定部164aは、隣接する分割領域216同士を比較し、図8に示すように、代表距離220が近接する(例えば、1m以下に位置する)分割領域216をグループ化して1または複数の分割領域群222を生成する(S304−4)。このとき、3以上の分割領域216で代表距離220が近接していた場合にも、連続する全ての分割領域216を分割領域群222として纏める。かかるグループ化によって、車両特定部164aは、道路表面より上方に位置する立体物を特定することができる。   Next, the vehicle specifying unit 164a compares adjacent divided areas 216 with each other, and groups the divided areas 216 with a representative distance 220 close (for example, located at 1 m or less) as shown in FIG. A plurality of divided region groups 222 are generated (S304-4). At this time, even when the representative distance 220 is close in three or more divided areas 216, all the continuous divided areas 216 are collected as a divided area group 222. By such grouping, the vehicle specifying unit 164a can specify a three-dimensional object located above the road surface.

続いて、車両特定部164aは、分割領域群222内における、相対距離zが代表距離220に相当するブロックを基点として、そのブロックと、水平距離xの差分、高さyの差分および相対距離zの差分が予め定められた範囲(例えば0.1m)内にあるブロックとを、同一の特定物に対応すると仮定してグループ化する(S304−5)。こうして、仮想的なブロック群である対象物224が生成される。上記の範囲は実空間上の距離で表され、製造者や搭乗者によって任意の値に設定することができる。また、車両特定部164aは、グループ化により新たに追加されたブロックに関しても、そのブロックを基点として、水平距離xの差分、高さyの差分および相対距離zの差分が所定範囲内にあるブロックをさらにグループ化する。結果的に、同一の特定物と仮定可能なブロック全てがグループ化されることとなる。   Subsequently, the vehicle specifying unit 164a sets a block whose relative distance z corresponds to the representative distance 220 in the divided region group 222 as a base point, the difference between the block, the horizontal distance x, the difference in the height y, and the relative distance z. Are grouped on the assumption that they correspond to the same specific object (S304-5). Thus, an object 224 that is a virtual block group is generated. The above range is represented by a distance in real space, and can be set to an arbitrary value by a manufacturer or a passenger. The vehicle specifying unit 164a also has a block in which the difference in the horizontal distance x, the difference in the height y, and the difference in the relative distance z are within a predetermined range with respect to the block newly added by grouping. Are further grouped. As a result, all blocks that can be assumed to be the same specific object are grouped.

また、ここでは、水平距離xの差分、高さyの差分および相対距離zの差分をそれぞれ独立して判定し、全てが所定範囲に含まれる場合のみ同一のグループとしているが、他の計算によることもできる。例えば、水平距離xの差分、高さyの差分および相対距離zの差分の二乗平均√((水平距離xの差分)+(高さyの差分)+(相対距離zの差分))が所定範囲に含まれる場合に同一のグループとしてもよい。かかる計算により、ブロック同士の実空間上の正確な距離を導出することができるので、グループ化精度を高めることができる。 Here, the horizontal distance x difference, the height y difference, and the relative distance z difference are determined independently, and only when all are included in a predetermined range, the same group is used. You can also. For example, the root mean square of the difference in horizontal distance x, the difference in height y, and the difference in relative distance z ((difference in horizontal distance x) 2 + (difference in height y) 2 + (difference in relative distance z) 2 ) Are included in the predetermined range, the same group may be used. With this calculation, an accurate distance between blocks in real space can be derived, so that the grouping accuracy can be improved.

次に、車両特定部164aは、グループ化した対象物224が、予め定められた車両に相当する所定の条件を満たしていれば、その対象物224を特定物「車両」として決定する(S304−6)。例えば、車両特定部164aは、グループ化された対象物224が道路上に位置する場合、その対象物224全体の大きさが、特定物「車両」の大きさに相当するか否かを判定し、特定物「車両」の大きさに相当すると判定されれば、その対象物224を特定物「車両」と特定する。ここで、車両特定部164aは、特定物「車両」と特定された対象物224が画面上占有する領域の外接矩形に相当する領域を車両領域とする。なお、外接矩形は、長方形であり、外縁の横方向が画像の横方向に平行となり、外縁の縦方向が画像の縦方向に平行となる。   Next, if the grouped objects 224 satisfy a predetermined condition corresponding to a predetermined vehicle, the vehicle identification unit 164a determines the object 224 as the specific object “vehicle” (S304−). 6). For example, when the grouped objects 224 are located on a road, the vehicle specifying unit 164a determines whether the size of the entire object 224 corresponds to the size of the specific object “vehicle”. If it is determined that the size corresponds to the size of the specific object “vehicle”, the target object 224 is specified as the specific object “vehicle”. Here, the vehicle specifying unit 164a sets a region corresponding to a circumscribed rectangle of a region occupied on the screen by the object 224 specified as the specific object “vehicle” as a vehicle region. Note that the circumscribed rectangle is a rectangle, and the horizontal direction of the outer edge is parallel to the horizontal direction of the image, and the vertical direction of the outer edge is parallel to the vertical direction of the image.

続いて、車両特定部164aは、位置情報導出部162により導出された位置情報に基づいて、特定物「車両」と特定された対象物224の相対距離zおよび水平距離xを導出する(S304−7)。また、車両特定部164aは、システムバス156、I/F部150を通じて、車両制御装置130から自車両1の速度と、ヨーレートとを取得する(S304−8)。そして、車両特定部164aは、相対距離z、水平距離x、自車両1の速度、ヨーレートに基づいて、車両予測位置を導出する(S304−9)。車両予測位置は、次フレームにおける対象物224(車両)の相対位置と予測(推定)される位置である。   Subsequently, based on the position information derived by the position information deriving unit 162, the vehicle identifying unit 164a derives the relative distance z and the horizontal distance x of the object 224 identified as the specific object “vehicle” (S304−). 7). In addition, the vehicle specifying unit 164a acquires the speed and yaw rate of the host vehicle 1 from the vehicle control device 130 through the system bus 156 and the I / F unit 150 (S304-8). Then, the vehicle specifying unit 164a derives a predicted vehicle position based on the relative distance z, the horizontal distance x, the speed of the host vehicle 1, and the yaw rate (S304-9). The predicted vehicle position is a position predicted (estimated) with the relative position of the object 224 (vehicle) in the next frame.

以上説明したように、車外環境認識装置120では、第1画像に基づく距離画像128から、1または複数の対象物224を、特定物、例えば、車両(先行車両)として抽出することができ、その情報を様々な制御に用いることが可能となる。例えば、検出領域124内の任意の対象物224が車両であると特定されると、特定した車両(先行車両)を追跡し、相対距離や相対加速度を導出して、先行車両との衝突を回避したり、先行車両との車間距離を安全な距離に保つように制御することができる。   As described above, the vehicle environment recognition apparatus 120 can extract one or more objects 224 as a specific object, for example, a vehicle (preceding vehicle), from the distance image 128 based on the first image. Information can be used for various controls. For example, when an arbitrary object 224 in the detection area 124 is identified as a vehicle, the identified vehicle (preceding vehicle) is tracked, relative distance and relative acceleration are derived, and a collision with the preceding vehicle is avoided. Or the distance between the preceding vehicle and the preceding vehicle can be controlled to be kept at a safe distance.

続いて、ランプ特定部164bは、ランプ特定処理S306を実行する。図9は、ランプ特定処理S306を示すフローチャートである。ランプ特定部164bは、第2画像に基づくカラー画像126から、画素単位で3つの色相(R、G、B)のカラー値を取得する(S306−1)。このとき、検出領域124が例えば雨天や曇天であった場合、ランプ特定部164bは、本来のカラー値を取得できるようにホワイトバランスを調整してから取得してもよい。   Subsequently, the lamp specifying unit 164b executes a lamp specifying process S306. FIG. 9 is a flowchart showing the lamp specifying process S306. The lamp specifying unit 164b acquires color values of three hues (R, G, B) in units of pixels from the color image 126 based on the second image (S306-1). At this time, if the detection area 124 is rainy or cloudy, for example, the lamp specifying unit 164b may acquire the color after adjusting the white balance so that the original color value can be acquired.

ランプ特定部164bは、データ保持部152に保持された特定物テーブル200と、第2画像に基づくカラー画像126の各画素のカラー値とによって所定のランプを仮に特定する(S306−2)。具体的に、ランプ特定部164bは、特定物テーブル200に登録されている特定物から、第2露光態様に対応付けられた特定のランプ(ここでは「ブレーキランプ」)を選択し、取得した1の画素のカラー値が、選択した特定物のカラー範囲202に含まれるか否か判定する。そして、対象となるカラー範囲202に含まれれば、その画素を当該特定物「ブレーキランプ」と仮定する。   The lamp specifying unit 164b temporarily specifies a predetermined lamp based on the specified object table 200 held in the data holding unit 152 and the color value of each pixel of the color image 126 based on the second image (S306-2). Specifically, the lamp specifying unit 164b selects and acquires a specific lamp (here, “brake lamp”) associated with the second exposure mode from the specific objects registered in the specific object table 200. It is determined whether or not the color value of the pixel is included in the color range 202 of the selected specific object. If the pixel is included in the target color range 202, the pixel is assumed to be the specific object “brake lamp”.

上記第2画像は、上述したように特定のランプ、例えば、特定物「ブレーキランプ」が自発光しているか否かを判別可能な第2露光態様で撮像した画像である。ここで、特定物「ブレーキランプ」のように自発光するものは、太陽や街灯の明るさに拘わらず、高いカラー値を取得することができる。特に、特定物「ブレーキランプ」の点灯時の明るさは法規で概ね規定されているので、所定の明るさしか露光できない露光態様(例えば、短時間の露光)で撮像することで、特定物「ブレーキランプ」に相当する画素のみを容易に抽出することが可能である。   As described above, the second image is an image captured in the second exposure mode that can determine whether or not a specific lamp, for example, a specific object “brake lamp” emits light. Here, a specific object such as a “brake lamp” that emits light can acquire a high color value regardless of the brightness of the sun or a streetlight. In particular, since the brightness when the specific object “brake lamp” is lit is generally stipulated by laws and regulations, by capturing an image in an exposure mode (for example, short-time exposure) in which only a predetermined brightness can be exposed, the specific object “ Only pixels corresponding to “brake lamps” can be easily extracted.

図10は、第1露光態様による撮像と第2露光態様による撮像との違いを説明するための説明図である。図10(a)は、第1露光態様による第1画像を示し、特に、図10(a)の左図ではテールランプが点灯しており、図10(a)の右図ではテールランプに加えブレーキランプが点灯している。図10(a)を参照して理解できるように、車外環境の明るさに応じた第1露光態様では、ブレーキランプ非点灯かつテールランプ点灯時のテールランプ位置230のカラー値と、ブレーキランプ点灯かつテールランプ点灯時のブレーキランプ位置232とでカラー値の差がほとんど生じない。これは、露光時間の長い第1露光態様では、テールランプもブレーキランプもRGB成分全てのカラー値がサチレーションしてしまうことに起因する。   FIG. 10 is an explanatory diagram for explaining a difference between imaging according to the first exposure mode and imaging according to the second exposure mode. FIG. 10A shows a first image according to the first exposure mode. In particular, the tail lamp is lit in the left figure of FIG. 10A, and the brake lamp in addition to the tail lamp is shown in the right figure of FIG. Is lit. As can be understood with reference to FIG. 10A, in the first exposure mode according to the brightness of the outside environment, the color value of the tail lamp position 230 when the brake lamp is not turned on and the tail lamp is turned on, the brake lamp is turned on and the tail lamp is turned on. There is almost no difference in color value between the brake lamp position 232 at the time of lighting. This is because, in the first exposure mode with a long exposure time, the color values of all RGB components of the tail lamp and the brake lamp are saturated.

図10(b)は、第2露光態様による第2画像を示し、特に、図10(b)の左図ではテールランプが点灯しており、図10(b)の右図ではテールランプに加えブレーキランプが点灯している。第2露光態様は、ブレーキランプが点灯しているときのカラー値のみを取得可能に設定されている。したがって、図10(b)を参照して理解できるように、テールランプが点灯していてもテールランプ位置230では、その明るさに準じるカラー値をほとんど取得できず、ブレーキランプ点灯時のブレーキランプ位置232では、明確に高いカラー値を取得できている。   FIG. 10B shows a second image according to the second exposure mode. In particular, the tail lamp is lit in the left figure of FIG. 10B, and the brake lamp in addition to the tail lamp is shown in the right figure of FIG. Is lit. The second exposure mode is set so that only the color value when the brake lamp is lit can be acquired. Therefore, as can be understood with reference to FIG. 10B, even when the tail lamp is lit, the tail lamp position 230 hardly obtains a color value according to the brightness, and the brake lamp position 232 when the brake lamp is lit. Then, a clear high color value can be obtained.

かかる第2露光態様では、ブレーキランプのカラー値が撮像素子において、R成分がサチレーションするかしないかといった程度の露光時間に設定することが望ましい。撮像装置110は、通常、ダイナミックレンジが人間より大幅に狭いので、夕方くらいの明度の低さで第1露光態様により撮像すると、車外環境に対して相対的にブレーキランプのカラー値が高くなる。すると、R成分のみならず、R成分とオーバーラップしてG成分やB成分も最大値(例えばカラー値が255)にサチレーションし、画素が白くなってしまう。そこで、第2露光態様を、ブレーキランプ点灯時にR成分がサチレーションするかしないかといった程度の露光時間とすることで、外部の環境に拘わらず、G成分やB成分のカラー値への影響を抑制しつつ、R成分のみを最大値で抽出する。こうして、例えば、テールランプとのカラー値差を最大限確保することが可能となる。   In such a second exposure mode, it is desirable that the color value of the brake lamp is set to an exposure time such as whether or not the R component is saturated in the image sensor. Since the imaging device 110 normally has a dynamic range that is significantly narrower than that of humans, when the first exposure mode is used with a brightness as low as in the evening, the color value of the brake lamp increases relative to the environment outside the vehicle. Then, not only the R component but also the R component overlap, and the G component and the B component are saturated to the maximum value (for example, the color value is 255), and the pixel becomes white. Therefore, by setting the second exposure mode to an exposure time of whether or not the R component is saturated when the brake lamp is lit, the influence on the color values of the G and B components is suppressed regardless of the external environment. However, only the R component is extracted with the maximum value. Thus, for example, it is possible to secure the maximum color value difference from the tail lamp.

具体的に、夜間の走行時に先行車両が存在する場合に、テールランプが点灯している程度、例えば、カラー範囲(R)「50」、カラー範囲(G)「50」、カラー範囲(B)「50」程度では第2画像に表示されない。これに対して、ブレーキランプが点灯していると、図4の特定物テーブル200に示すように、カラー範囲202が、カラー範囲(R)「200以上」、カラー範囲(G)「50以下」、カラー範囲(B)「50以下」となり、第2露光態様で撮像したとしても、その位置が把握できる程度に第2画像に表示される。こうしてランプ特定部164bは、第2画像を通じて、ブレーキランプ等、所定のランプのみを特定することが可能となる。また、ここでは、第2露光態様による露光時間を固定しているが、車外環境に応じて自発的にまたは搭乗者の操作に応じて調整されるとしてもよい。   Specifically, when there is a preceding vehicle when traveling at night, the extent to which the tail lamp is lit, for example, color range (R) “50”, color range (G) “50”, color range (B) “ If it is about 50 ", it is not displayed in the second image. In contrast, when the brake lamp is lit, as shown in the specific object table 200 of FIG. 4, the color range 202 has a color range (R) “200 or more” and a color range (G) “50 or less”. The color range (B) is “50 or less”, and even if an image is captured in the second exposure mode, it is displayed on the second image to such an extent that the position can be grasped. In this way, the lamp specifying unit 164b can specify only a predetermined lamp such as a brake lamp through the second image. Although the exposure time according to the second exposure mode is fixed here, it may be adjusted spontaneously according to the environment outside the vehicle or according to the operation of the passenger.

また、ランプ特定部164bは、ランプの候補とされた画素同士の水平距離xの差分、高さyの差分および相対距離zの差分が所定範囲(例えば0.1m)内にある場合、その複数の画素を1のランプ候補としてグループ化する(S306−3)。そして、ランプ特定部164bは、グループ化したランプ候補が画面上占有する領域の外接矩形に相当する領域(ランプ領域)を特定する。   In addition, the lamp specifying unit 164b, when the difference in the horizontal distance x, the difference in the height y, and the difference in the relative distance z between pixels that are candidates for the lamp are within a predetermined range (for example, 0.1 m), Are grouped as one lamp candidate (S306-3). Then, the lamp specifying unit 164b specifies a region (lamp region) corresponding to a circumscribed rectangle of the region occupied by the grouped lamp candidates on the screen.

このようにグループ化したランプ領域HRのうち、大きさが類似しているランプ領域HRを抽出し、抽出したランプ領域HRの、左右の位置関係に基づいてブレーキランプであるか否か判定すると、実際には先行車両のブレーキランプが点灯しているにも拘らず、消灯していると誤判定してしまうおそれがある。具体的に説明すると、先行車両が、所定の発光源群からなるブレーキランプが配された車両である場合、ブレーキランプが点灯しているにも拘らず、消灯していると誤判定してしまう場合がある。   When the lamp areas HR having similar sizes are extracted from the grouped lamp areas HR, and it is determined whether or not the brake lamp is a brake lamp based on the left and right positional relationship of the extracted lamp areas HR, Actually, there is a possibility that it is erroneously determined that the preceding vehicle is turned off although the brake lamp of the preceding vehicle is turned on. Specifically, if the preceding vehicle is a vehicle provided with a brake lamp composed of a predetermined light source group, it is erroneously determined that the brake lamp is turned off even though the brake lamp is lit. There is a case.

図11は、所定の発光源群からなるブレーキランプが配された車両におけるブレーキランプの誤判定を説明するための図である。例えば、図11(a)に示すように、車両後部の左右に、所定の発光源群からなる(複数のLEDランプを発光源として内蔵した)ブレーキランプが配された車両が先行車両であるとする。この場合、自車両1との相対距離zが遠距離(例えば、30m以上)であると、図11(b)に示すように、第2画像上で複数の発光源を示す画素同士が繋がって、発光源群が1のランプ領域HRとして検出される。また、自車両1との相対距離zが中距離(例えば、20mから30m)であると、図11(c)に示すように、発光源群を構成する複数の発光源が、第2画像上で複数のグループ、例えば、2または3のグループに分けられて、グループごとにランプ領域HRとして検出される場合がある。さらに、自車両1との相対距離zが近距離(例えば、15m未満)であると、グループ化するための所定範囲の設定によっては、図11(d)に示すように、第2画像上で、発光源群を構成する個々の発光源それぞれが、1のランプ領域HRとして検出される場合がある。つまり、先行車両の接近に従って、ブレーキランプ由来のランプ領域HRの数が増加することとなる。   FIG. 11 is a diagram for explaining an erroneous determination of a brake lamp in a vehicle provided with a brake lamp including a predetermined light source group. For example, as shown in FIG. 11 (a), a vehicle in which brake lamps (having a plurality of LED lamps built in as a light source) are arranged on the left and right sides of the rear portion of the vehicle. To do. In this case, if the relative distance z to the host vehicle 1 is a long distance (for example, 30 m or more), as shown in FIG. 11B, pixels indicating a plurality of light sources on the second image are connected. The light emission source group is detected as one lamp region HR. Further, when the relative distance z with the host vehicle 1 is a medium distance (for example, 20 m to 30 m), as shown in FIG. 11C, a plurality of light emitting sources constituting the light emitting source group are displayed on the second image. In this case, the lamp area HR may be detected as a lamp area HR. Furthermore, if the relative distance z to the host vehicle 1 is a short distance (for example, less than 15 m), depending on the setting of a predetermined range for grouping, as shown in FIG. In some cases, each individual light source constituting the light source group is detected as one lamp region HR. That is, as the preceding vehicle approaches, the number of ramp areas HR derived from brake lamps increases.

図11(b)に示す遠距離の場合には、グループ化したランプ領域HRを、左右の位置関係に基づいてブレーキランプであるか否か判定しても、ブレーキランプの点灯を検出できる。しかし、図11(c)に示す中距離の場合には、左右のランプ領域HRの数が異なり、各ランプ領域HRにおいて、対の条件を満たす相手のランプ領域HRを検出できないおそれがある。例えば、図11(c)中、左の発光源群が3つのランプ領域HRとして検出され、右の発光源群が1つのランプ領域HRとして検出された場合、左のランプ領域HRのいずれとも、右のランプ領域HRの大きさが異なる。このため、対の条件を満たす相手のランプ領域HRを検出できず、ブレーキランプが消灯していると誤判定してしまうおそれがある。   In the case of a long distance shown in FIG. 11B, lighting of the brake lamp can be detected even if it is determined whether or not the grouped lamp area HR is a brake lamp based on the left and right positional relationship. However, in the case of the intermediate distance shown in FIG. 11C, the number of left and right lamp areas HR is different, and there is a possibility that the partner lamp area HR that satisfies the pair condition cannot be detected in each lamp area HR. For example, in FIG. 11C, when the left light source group is detected as three lamp regions HR and the right light source group is detected as one lamp region HR, both of the left lamp regions HR The size of the right lamp area HR is different. For this reason, there is a possibility that the partner lamp area HR that satisfies the pair condition cannot be detected and it is erroneously determined that the brake lamp is turned off.

また、図11(d)に示す近距離の場合、1の発光源群を構成する個々の発光源それぞれが、1のランプ領域HRとして検出されてしまうため、対の条件を満たす相手のランプ領域HRが特定できずに、ブレーキランプが消灯していると誤判定してしまうおそれがある。   In addition, in the case of the short distance shown in FIG. 11 (d), each individual light source constituting one light source group is detected as one lamp region HR, and therefore, the partner lamp region that satisfies the pair condition. There is a possibility that the HR cannot be specified and it is erroneously determined that the brake lamp is turned off.

さらに、複数フレームに亘って、先行車両の車両領域における、ランプ領域HRの面積の変化を導出し、かかる面積の変化に基づいて、ランプの点灯有無を判定する学習ロジックを用いる場合にも問題が生じる。例えば、ブレーキランプが点灯している先行車両に徐々に近づいている場合、フレーム(fn)において、1の発光源群が1のランプ領域HRとして検出され、次のフレーム(fn+1)において、1の発光源群が複数のランプ領域HRとして検出されたとする。この検出結果を用いて学習ロジックを実行し、フレーム(fn)でブレーキランプが点灯していると学習した場合、フレーム(fn+1)ではランプ領域HRの面積が小さくなってしまい、先行車両と近づいているにも拘らず、ブレーキランプが消灯していると誤認識してしまうおそれがある。なお、上記学習ロジックは、特願2014−073374号等、既存の技術を参照できるので、ここでは、その詳細な説明を省略する。   Furthermore, there is a problem even when using learning logic that derives a change in the area of the lamp area HR in the vehicle area of the preceding vehicle over a plurality of frames and determines whether or not the lamp is lit based on the change in the area. Arise. For example, when the vehicle is gradually approaching a preceding vehicle whose brake lamp is lit, one light source group is detected as one lamp region HR in the frame (fn), and one in the next frame (fn + 1). It is assumed that the light emission source group is detected as a plurality of lamp regions HR. When the learning logic is executed using the detection result and it is learned that the brake lamp is lit in the frame (fn), the area of the lamp region HR becomes small in the frame (fn + 1) and approaches the preceding vehicle. In spite of this, there is a risk of misrecognizing that the brake lamp is turned off. Note that the learning logic can refer to existing technology such as Japanese Patent Application No. 2014-073374, and a detailed description thereof will be omitted here.

そこで、本実施形態では、予め定められた類似条件に基づいて、複数のランプ領域HRを統合することで、所定の発光源群からなるブレーキランプの点灯有無の判定の精度を向上できる統合処理を実行する。以下、統合処理について説明する。   Therefore, in the present embodiment, an integration process that can improve the accuracy of determination of whether or not a brake lamp that includes a predetermined light-emitting source group is turned on by integrating a plurality of lamp regions HR based on a predetermined similar condition. Run. Hereinafter, the integration process will be described.

(統合処理)
図12は、統合処理を説明するための図である。ただし、図12は計算を行う上での仮想的な画面であり、実際には視覚的な画面の生成を伴わない。以下、今回の統合処理を実行する際に利用する画像(第2画像)を現在画像とし、現在画像より前に撮像された画像(第2画像)、すなわち、今回の統合処理より前に実行された統合処理で利用した画像を過去画像と称する。したがって、今回の統合処理の実行対象となる画像は、次回の統合処理においては過去画像となる。
(Integration process)
FIG. 12 is a diagram for explaining the integration process. However, FIG. 12 is a virtual screen for calculation, and actually does not involve the generation of a visual screen. Hereinafter, an image (second image) used when executing the current integration process is a current image, and an image (second image) captured before the current image, that is, executed before the current integration process. The image used in the integration process is referred to as a past image. Therefore, the image that is the execution target of the current integration process is a past image in the next integration process.

統合処理において、まず、領域位置情報生成部166は、上記S306−3で特定されたランプ領域HRの画像上の位置を示す領域位置情報を生成する(S306−4)。そして、領域位置情報生成部166は、過去画像におけるランプ領域HRの領域位置情報がRAM(記憶部)に記憶されているか否かを判定する(S306−5)。詳しくは後述するが、領域位置情報は、画像取得部160によって取得された過去画像ごとに関連付けられて記憶される。したがって、記憶判定処理S306−5の結果、領域位置情報が記憶されていないと判定されるということは、これまでに車両領域内においてランプ領域HRが特定されたことがないということを示す。つまり、当該記憶判定処理S306−5は、車両領域内においてランプ領域HRが特定されたことがあるか否かを判定する処理である。   In the integration process, first, the region position information generation unit 166 generates region position information indicating the position on the image of the lamp region HR specified in S306-3 (S306-4). Then, the region position information generation unit 166 determines whether or not the region position information of the lamp region HR in the past image is stored in the RAM (storage unit) (S306-5). As will be described in detail later, the region position information is stored in association with each past image acquired by the image acquisition unit 160. Therefore, it is determined that the region position information is not stored as a result of the storage determination process S306-5, which means that the ramp region HR has not been specified in the vehicle region so far. That is, the storage determination process S306-5 is a process of determining whether or not the lamp area HR has been specified in the vehicle area.

領域位置情報が記憶されていないと判定すると(S306−5におけるNO)、領域位置情報生成部166は、S306−4で生成した領域位置情報を、画像取得部160によって取得された現在画像に関連付けてRAMに記憶して(S360−6)、S306−13に移る。例えば、図12(a)、(b)に示すように、前回の発光領域特定処理S306−3(過去画像、フレーム(fn−1))において、ランプ領域HRが特定されなかったが、当該発光領域特定処理S306−3(現在画像、フレーム(fn))において初めてランプ領域HRが特定された場合である。なお、ここで、領域位置情報生成部166は、初めて特定されたランプ領域HRについて、検出回数DNに1をセットする。   If it is determined that the region position information is not stored (NO in S306-5), the region position information generation unit 166 associates the region position information generated in S306-4 with the current image acquired by the image acquisition unit 160. Is stored in the RAM (S360-6), and the process proceeds to S306-13. For example, as shown in FIGS. 12A and 12B, the lamp region HR was not specified in the previous light emission region specifying process S306-3 (past image, frame (fn-1)). This is a case where the ramp area HR is specified for the first time in the area specifying process S306-3 (current image, frame (fn)). Here, the region position information generation unit 166 sets 1 to the number of detections DN for the ramp region HR specified for the first time.

一方、領域位置情報生成部166が、領域位置情報が記憶されていると判定すると(S306−5におけるYES)、領域予測位置導出部168は、領域予測位置REを導出する(S306−7)。ここで、領域予測位置REは、RAMに記憶されている領域位置情報(過去画像の領域位置情報)に対して、上記S304−9において車両特定部164aが導出した車両予測位置を用いて補正することにより、当該フレーム(フレームfn+1)において、ランプ領域HRが位置するであろうと予測される現在画像上の位置である(図12(c)参照)。換言すれば、領域予測位置REは、自車両1と先行車両の挙動に応じて導出される、過去画像の領域位置情報が示す位置に相当する現在画像における位置である。また、領域予測位置REは、前回のフレームfnにおいて一度検出されたランプ領域HRに基づくものであるため、領域予測位置REの検出回数DNは、前回のフレームfnでランプ領域HRに関連付けられた検出回数DN(図12(c)ではDN=1)を引き継ぐこととなる。   On the other hand, when the region position information generating unit 166 determines that the region position information is stored (YES in S306-5), the region predicted position deriving unit 168 derives the region predicted position RE (S306-7). Here, the region predicted position RE is corrected with respect to the region position information (region position information of the past image) stored in the RAM using the vehicle predicted position derived by the vehicle specifying unit 164a in S304-9. Thus, in the frame (frame fn + 1), it is the position on the current image where the ramp region HR is predicted to be located (see FIG. 12C). In other words, the region predicted position RE is a position in the current image corresponding to the position indicated by the region position information of the past image, which is derived according to the behavior of the host vehicle 1 and the preceding vehicle. Further, since the predicted region position RE is based on the ramp region HR detected once in the previous frame fn, the number of detections DN of the predicted region position RE is detected in association with the ramp region HR in the previous frame fn. The number of times DN (DN = 1 in FIG. 12C) is taken over.

基準領域決定部170は、S306−3で特定されたランプ領域HR(図12(c)〜(i)において、HRa、HRb、HRcで示す)のうち、領域予測位置REに対応する1のランプ領域HRaを基準領域KRと決定する(図12(d)参照)。また、基準領域決定部170は、基準領域KRの検出回数DNを領域予測位置REの検出回数DNを1インクリメントした回数とする(S306−8)。具体的に説明すると、基準領域決定部170は、例えば、ランプ特定部164bが特定したランプ領域HRのうち、領域予測位置REの重心(中心)に対して、重心の距離が最も近いランプ領域HRaを基準領域KRと決定する。   The reference region determination unit 170 selects one ramp corresponding to the region predicted position RE from among the ramp regions HR identified in S306-3 (indicated by HRa, HRb, and HRc in FIGS. 12C to 12I). The region HRa is determined as the reference region KR (see FIG. 12D). In addition, the reference area determination unit 170 sets the detection count DN of the reference area KR to the count obtained by incrementing the detection count DN of the area prediction position RE by 1 (S306-8). More specifically, for example, the reference area determination unit 170 includes, for example, the lamp area HRa whose distance of the center of gravity is closest to the center of gravity (center) of the predicted area RE in the lamp area HR specified by the lamp specifying unit 164b. Is determined as the reference region KR.

続いて、類似領域抽出部172は、領域予測位置REを拡大した拡大予測位置KEを導出する。ここでは、領域予測位置REが示す領域を上下左右にそれぞれ50%拡大した領域の位置を示す拡大予測位置KEを導出する(S306−9、図12(e)参照)。   Subsequently, the similar region extraction unit 172 derives an enlarged predicted position KE obtained by enlarging the region predicted position RE. Here, an enlarged predicted position KE indicating the position of a region obtained by enlarging the region indicated by the predicted region position RE 50% vertically and horizontally is derived (see S306-9, FIG. 12E).

そして、類似領域抽出部172は、S306−3で特定されたランプ領域HRのうち、基準領域KR以外のランプ領域HRであって、予め定められた第1類似条件、第2類似条件、および、第3類似条件を満たすランプ領域HRを類似領域RRとして抽出する(S306−10)。   Then, the similar area extraction unit 172 is a lamp area HR other than the reference area KR among the lamp areas HR identified in S306-3, and includes a predetermined first similarity condition, second similarity condition, and The lamp region HR that satisfies the third similarity condition is extracted as the similar region RR (S306-10).

第1類似条件は、領域予測位置REに基づいて設定される条件であり、ここでは、ランプ領域HRが、拡大予測位置KE内に含まれることである。第2類似条件は、検出回数に基づいて設定され、例えば、検出回数が1回であることである。   The first similarity condition is a condition set based on the predicted region position RE, and here, the ramp region HR is included in the enlarged predicted position KE. The second similarity condition is set based on the number of detections, for example, the number of detections is one.

また、第3類似条件は、所定の色相条件を満たすことである。色相条件は、所定のカラー範囲内のカラー値(ブレーキランプと異なる色相、例えば、R成分のカラー値>150、G成分のカラー値>R×24/32、B成分のカラー値>R×14/32)である画素の数(具体的には、黄色を示す画素の数)に基づいて設定される。具体的に説明すると、第3類似条件は、ランプ領域HR内の黄色の画素の数が、基準領域KR内の黄色の画素の数の1.1倍以下であることである。   The third similarity condition is to satisfy a predetermined hue condition. The hue condition is a color value within a predetermined color range (a hue different from the brake lamp, for example, R component color value> 150, G component color value> R × 24/32, B component color value> R × 14). / 32) is set based on the number of pixels (specifically, the number of pixels indicating yellow). Specifically, the third similar condition is that the number of yellow pixels in the lamp region HR is 1.1 times or less the number of yellow pixels in the reference region KR.

ここでは、まず、類似領域抽出部172は、第1類似条件を満たすランプ領域HR、すなわち、ランプ領域HRが、拡大予測位置KEに含まれるランプ領域HRを抽出するとともに、ランプ領域HRごとの検出回数DNを1インクリメントする(図12(f)参照)。そして、類似領域抽出部172は、拡大予測位置KEに含まれるランプ領域HRのうち、第2類似条件を満たすランプ領域HR、すなわち、検出回数DNが1回のランプ領域HRを抽出する。さらに、類似領域抽出部172は、第3類似条件を満たすランプ領域HR、すなわち、拡大予測位置KEに含まれ、検出回数DNが1回のランプ領域HRのうち、ランプ領域HR内の黄色の画素の数が、基準領域KRの黄色の画素の数の1.1倍以下のランプ領域HRbを類似領域RRとして抽出する(図12(g))。   Here, first, the similar region extraction unit 172 extracts the ramp region HR that satisfies the first similarity condition, that is, the ramp region HR included in the predicted expansion position KE, and detects each ramp region HR. The number of times DN is incremented by 1 (see FIG. 12F). Then, the similar area extraction unit 172 extracts a lamp area HR that satisfies the second similarity condition, that is, a lamp area HR with one detection DN, from among the lamp areas HR included in the enlarged predicted position KE. Further, the similar region extraction unit 172 includes a yellow region in the lamp region HR among the lamp regions HR that satisfy the third similarity condition, that is, the lamp region HR that is included in the enlarged predicted position KE and has one detection number DN. Are extracted as the similar region RR (FIG. 12 (g)). The ramp region HRb is 1.1 times the number of yellow pixels in the reference region KR.

領域予測位置REは、あくまで、自車両1と先行車両との挙動に基づいて予測しているため、領域予測位置REと、今回のブレーキランプに相当するランプ領域HRの位置とで誤差が生じる。そこで、類似領域抽出部172が、基準領域KRと類似するランプ領域HRである類似領域RRを抽出するために、上記第1類似条件を採用することにより、領域予測位置REより広い範囲である拡大予測位置KEを用いて類似領域RRを抽出することができ、予測による誤差を吸収することが可能となる。   Since the predicted region position RE is predicted based solely on the behavior of the host vehicle 1 and the preceding vehicle, an error occurs between the predicted region position RE and the position of the ramp region HR corresponding to the current brake lamp. Therefore, the similar region extraction unit 172 employs the first similar condition in order to extract the similar region RR that is the ramp region HR similar to the reference region KR, thereby expanding an area that is wider than the region predicted position RE. Similar regions RR can be extracted using the predicted position KE, and errors due to prediction can be absorbed.

また、類似領域抽出部172が、第2類似条件として、検出回数が1回のランプ領域HRを採用することにより、前回フレームまでに(過去画像で)検出されたランプ領域HRであって、ブレーキランプと判定されていないランプ領域HRを類似領域RRから除外することができる。   Further, the similar region extraction unit 172 employs the ramp region HR with one detection as the second similarity condition, so that the ramp region HR detected by the previous frame (in the past image) The lamp region HR that is not determined to be a lamp can be excluded from the similar region RR.

また、ランプ領域HRには、ブレーキランプに相当するランプ領域HRのみならず、ブレーキランプと異なる色相のランプ(例えば、ウィンカー)に相当するランプ領域HRも含まれる。そこで、類似領域抽出部172が、第3類似条件として、所定のカラー範囲内のカラー値(ブレーキランプと異なる色相)である画素の数が、ブレーキランプとして対応付けられる基準領域KR内の所定のカラー範囲内のカラー値である画素数の1.1倍以下のランプ領域HRのみを類似領域RRとすることで、ブレーキランプ以外のランプ領域HRを類似領域RRから除外することができる。   The lamp area HR includes not only the lamp area HR corresponding to the brake lamp but also a lamp area HR corresponding to a lamp having a hue different from that of the brake lamp (for example, a blinker). Therefore, the similar region extraction unit 172 determines, as a third similar condition, the number of pixels having a color value within a predetermined color range (a hue different from the brake lamp) as a predetermined value in the reference region KR associated with the brake lamp. By setting only the lamp region HR that is 1.1 times or less the number of pixels that are the color values in the color range as the similar region RR, the lamp region HR other than the brake lamp can be excluded from the similar region RR.

続いて、統合領域生成部174は、1または複数の類似領域RRを、基準領域KRに統合して、外接矩形に相当する1の統合領域TRを生成し、S306−8において更新された基準領域KRの検出回数DNを、統合領域TRの検出回数とする(S306−11、図12(i)参照)。なお、統合領域生成部174によって統合されなかったランプ領域HRcは、図12(b)のランプ領域HRに相当するため、次フレーム(fn+2)において、領域予測位置REが導出され、以降、上記S306−4からS306−11までの処理が実行されることとなる。   Subsequently, the integrated region generation unit 174 generates one integrated region TR corresponding to a circumscribed rectangle by integrating one or a plurality of similar regions RR into the reference region KR, and the reference region updated in S306-8 The number of detections DN of KR is set as the number of detections of the integrated region TR (S306-11, see FIG. 12 (i)). Note that the ramp region HRc that has not been integrated by the integrated region generation unit 174 corresponds to the ramp region HR in FIG. 12B, and therefore the predicted region position RE is derived in the next frame (fn + 2). -4 to S306-11 are executed.

情報更新部176は、統合領域TRを新たなランプ領域HRとして領域位置情報を導出し、RAMに記憶されている統合前の各ランプ領域HRの領域位置情報を削除し、新たなランプ領域HRの領域位置情報を現在画像に関連付けて新たにRAMに記憶(更新)する(S306−12)。また、情報更新部176は、予め定められた所定時間、ランプ領域HRが特定されなかったことをトリガとして、RAMに記憶されている領域位置情報を削除する。   The information update unit 176 derives the region position information with the integrated region TR as the new ramp region HR, deletes the region position information of each lamp region HR before integration stored in the RAM, and sets the new lamp region HR. The area position information is newly stored (updated) in the RAM in association with the current image (S306-12). Further, the information update unit 176 deletes the area position information stored in the RAM, triggered by the fact that the lamp area HR has not been specified for a predetermined time.

また、ランプ特定部164bは、統合領域TRが生成された場合には、統合領域TRを新たなランプ領域HRとし、1のランプ領域HRの大きさが予め定められた閾値(例えば、水平および垂直の幅0.05m)以上の場合にのみ、1のランプ領域HRに含まれるランプの候補をランプとして特定する(S306−13)。なお、ランプ特定部164bは、大きさに加えて、そのランプ領域HRに含まれるランプの候補の形も条件としてよい。例えば、ブレーキランプが車両後部の左右端部に鉛直方向に延伸する形状である場合、その大きさのみならず、ブレーキランプとみなせる形状であることを判定する。こうして、本来、所定のランプとしてみなすべきではないノイズに相当するランプを排除し、ブレーキランプ(ランプ)を抽出することができるので、特定物を高精度に特定することが可能となる。   In addition, when the integrated region TR is generated, the lamp specifying unit 164b sets the integrated region TR as a new lamp region HR, and sets the size of one lamp region HR as a predetermined threshold (for example, horizontal and vertical). The lamp candidates included in one lamp region HR are specified as lamps only when the width is 0.05 m) or more (S306-13). In addition to the size, the lamp specifying unit 164b may also use a candidate lamp shape included in the lamp region HR as a condition. For example, when the brake lamp has a shape that extends in the vertical direction at the left and right ends of the rear portion of the vehicle, it is determined that the brake lamp has a shape that can be regarded as a brake lamp as well as its size. In this way, it is possible to exclude a lamp corresponding to noise that should not be regarded as a predetermined lamp and extract a brake lamp (lamp), so that a specific object can be specified with high accuracy.

このように、ランプ特定部164bによって、ブレーキランプを高精度に抽出することができる。しかし、第2露光態様による第2画像のみでは、夜間などに検出領域124全体のカラー値が低く(暗く)なってしまい、ブレーキランプ等のランプ以外は何も把握できなくなってしまう。そこで、当該「ブレーキランプ」と、上述した第1露光態様による第1画像によって特定した「車両」とを対応付ける。   In this way, the brake lamp can be extracted with high accuracy by the lamp specifying unit 164b. However, with only the second image in the second exposure mode, the color value of the entire detection region 124 becomes low (dark) at night or the like, and nothing can be grasped except for a lamp such as a brake lamp. Therefore, the “brake lamp” is associated with the “vehicle” specified by the first image according to the first exposure mode described above.

位置対応付け部178は、車両特定部164aが特定物「車両」としてグループ化した車両領域と、ランプ特定部164bが特定したランプ(ブレーキランプ)の位置とを対応付ける(S306−14)。そして、車両特定部164aによる特定物「車両」の追跡と、ランプ特定部164bによる特定物「ブレーキランプ」の追跡とを支援し、一方の位置情報で他方の位置情報を校正する。こうして、先行する車両の外縁と車両のブレーキランプとの位置関係を維持することができる。   The position associating unit 178 associates the vehicle area grouped as the specific object “vehicle” by the vehicle specifying unit 164a with the position of the lamp (brake lamp) specified by the lamp specifying unit 164b (S306-14). Then, the tracking of the specific object “vehicle” by the vehicle specifying unit 164a and the tracking of the specific object “brake lamp” by the lamp specifying unit 164b are supported, and the position information of the other is calibrated. Thus, the positional relationship between the outer edge of the preceding vehicle and the brake lamp of the vehicle can be maintained.

配置判定部180は、同一の先行車両に存在すると仮定される1対のブレーキランプの組み合わせを特定し、図4に示した特定物テーブル200に基づいて、位置対応付け部178によって対応付けられた車両領域とランプであるブレーキランプの位置との相対配置が適切な配置か否かを判定する(S306−15)。配置判定部180は、例えば、ブレーキランプが、それ単体で高さ範囲「0.3〜2.0m」、水平距離の幅範囲「0.05〜0.2m」、垂直距離の幅範囲「0.05〜0.2m」の条件を満たすか判定する。さらに、配置判定部180は、1対のブレーキランプの組み合わせが、水平距離の差分「1.4〜1.9m」、垂直距離の差分「0.3m以下」、面積比「50〜200%」の条件を満たすか否かを判定する。かかる条件を満たすことで、先行車両のブレーキランプが点灯していると特定されることとなる。このように、ブレーキランプと仮定されたランプが車両の適切な位置に対応している場合にのみブレーキランプとして正式に特定する構成により、リアフォグランプなど、同等の明るさで一灯だけで点灯しているランプを誤認識するのを防止することができる。   The arrangement determination unit 180 identifies a pair of brake lamp combinations that are assumed to exist in the same preceding vehicle, and is associated by the position association unit 178 based on the specific object table 200 illustrated in FIG. It is determined whether or not the relative arrangement of the vehicle area and the position of the brake lamp as a lamp is an appropriate arrangement (S306-15). For example, the position determination unit 180 may be configured such that the brake lamp itself has a height range of “0.3 to 2.0 m”, a horizontal distance width range of “0.05 to 0.2 m”, and a vertical distance width range of “0”. .05 to 0.2 m ”. Further, the arrangement determining unit 180 is configured such that a pair of brake lamps has a horizontal distance difference “1.4 to 1.9 m”, a vertical distance difference “0.3 m or less”, and an area ratio “50 to 200%”. It is determined whether or not the above condition is satisfied. By satisfying such a condition, it is specified that the brake lamp of the preceding vehicle is lit. In this way, a configuration that is officially specified as a brake lamp only when the lamp that is assumed to be a brake lamp corresponds to the appropriate position of the vehicle, only one lamp with the same brightness, such as a rear fog lamp, is lit. It is possible to prevent erroneous recognition of the lamps that are present.

以上説明したように、本実施形態にかかる車外環境認識装置120によれば、所定の発光源群からなる車両用のランプを特定することが可能となる。   As described above, according to the external environment recognition device 120 according to the present embodiment, it is possible to specify a vehicle lamp composed of a predetermined light source group.

また、コンピュータを、車外環境認識装置120として機能させるプログラムや当該プログラムを記録した、コンピュータで読み取り可能なフレキシブルディスク、光磁気ディスク、ROM、CD、DVD、BD等の記憶媒体も提供される。ここで、プログラムは、任意の言語や記述方法にて記述されたデータ処理手段をいう。   Also provided are a program that causes a computer to function as the vehicle exterior environment recognition device 120 and a computer-readable storage medium that stores the program, such as a flexible disk, magneto-optical disk, ROM, CD, DVD, and BD. Here, the program refers to data processing means described in an arbitrary language or description method.

以上、添付図面を参照しながら本発明の好適な実施形態について説明したが、本発明はかかる実施形態に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。   As mentioned above, although preferred embodiment of this invention was described referring an accompanying drawing, it cannot be overemphasized that this invention is not limited to this embodiment. It will be apparent to those skilled in the art that various changes and modifications can be made within the scope of the claims, and these are naturally within the technical scope of the present invention. Is done.

例えば、上述した実施形態において、ランプ特定部164bは、撮像装置110が生成したカラー画像126に基づいてブレーキランプの点灯有無を判定しているが、モノクロ画像に基づいてブレーキランプの点灯有無を判定するとしてもよい。   For example, in the above-described embodiment, the lamp specifying unit 164b determines whether the brake lamp is lit based on the color image 126 generated by the imaging device 110, but determines whether the brake lamp is lit based on the monochrome image. You may do that.

また、上記実施形態において、ランプ特定部164bは、特定物「車両」と特定された対象物224の相対距離zおよび水平距離xを導出しているが、これに加えて、垂直距離を導出して、車両予測位置を導出してもよい。   In the above-described embodiment, the lamp identification unit 164b derives the relative distance z and the horizontal distance x of the object 224 identified as the specific object “vehicle”, but in addition to this, derives the vertical distance. Thus, the predicted vehicle position may be derived.

また、上記実施形態において、基準領域決定部170は、現在画像の領域予測位置REに対応する1のランプ領域HRaを基準領域KRと決定しているため、基準領域KRは、領域予測位置REを介して間接的に、過去画像の領域位置情報に対応付けられている。しかし、基準領域決定部170は、過去画像の領域位置情報に対応する1のランプ領域HRaを基準領域KRと決定し、過去画像の領域位置情報と基準領域KRとが直接対応付けられてもよい。   In the above embodiment, the reference region determination unit 170 determines one ramp region HRa corresponding to the region predicted position RE of the current image as the reference region KR, so that the reference region KR uses the region predicted position RE as the reference region KR. Indirectly associated with the area position information of the past image. However, the reference area determination unit 170 may determine one lamp area HRa corresponding to the area position information of the past image as the reference area KR, and the area position information of the past image and the reference area KR may be directly associated with each other. .

また、上記実施形態において、第1類似条件は、ランプ領域HRが拡大予測位置KE内に含まれることとした。しかし、第1類似条件は、領域予測位置REに基づいて設定される条件であればよい。例えば、ランプ領域HRが領域予測位置RE内に含まれることであってもよい。いずれにせよ、第1類似条件は、予測された先行車両の挙動に応じて導出される、過去画像の領域位置情報が示す位置と所定の位置関係にある現在画像における位置に基づいて設定されればよい。   In the above embodiment, the first similarity condition is that the ramp region HR is included in the enlarged predicted position KE. However, the first similarity condition may be a condition set based on the predicted region position RE. For example, the ramp region HR may be included in the region predicted position RE. In any case, the first similarity condition is set based on the position in the current image that has a predetermined positional relationship with the position indicated by the area position information of the past image, which is derived according to the predicted behavior of the preceding vehicle. That's fine.

また、第1類似条件は、領域予測位置REに基づいて設定される条件に代えて、過去画像の領域位置情報に基づいて設定される条件であってもよい。例えば、ランプ領域HRが、過去画像の領域位置情報が示す位置内に含まれることであってもよい。   Further, the first similarity condition may be a condition set based on the area position information of the past image instead of the condition set based on the area predicted position RE. For example, the lamp area HR may be included in the position indicated by the area position information of the past image.

また、上記実施形態において、類似領域抽出部172は、第1類似条件を満たし、さらに、第2類似条件および第3類似条件を満たしたランプ領域HRを類似領域RRとして抽出する構成を例に挙げて説明した。しかし、類似領域抽出部172は、第1類似条件を満たし、かつ、第2類似条件および第3類似条件のうちいずれか一方を満たすランプ領域HRを類似領域RRとして抽出するとしてもよい。また、類似領域抽出部172は、少なくとも、第1類似条件を満たすランプ領域HRを類似領域RRとして抽出すればよい。   In the above embodiment, the similar region extracting unit 172 extracts the ramp region HR that satisfies the first similar condition and further satisfies the second similar condition and the third similar condition as a similar region RR. Explained. However, the similar region extraction unit 172 may extract a ramp region HR that satisfies the first similarity condition and satisfies either the second similarity condition or the third similarity condition as the similar region RR. The similar region extraction unit 172 may extract at least the lamp region HR that satisfies the first similarity condition as the similar region RR.

また、上記実施形態において、車外環境認識装置120は、所定の発光源群からなる車両用のランプとして、ブレーキランプを例に挙げて説明した。しかし、車外環境認識装置120は、所定の発光源群からなる車両用のランプであれば、ウィンカー、リアフォグランプ等を特定することができる。   Moreover, in the said embodiment, the vehicle environment recognition apparatus 120 demonstrated and demonstrated the brake lamp as an example as a vehicle lamp which consists of a predetermined light emission source group. However, the vehicle exterior environment recognition device 120 can identify a blinker, a rear fog lamp, or the like as long as it is a vehicle lamp composed of a predetermined light source group.

なお、本明細書の車外環境認識処理の各工程は、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はなく、並列的あるいはサブルーチンによる処理を含んでもよい。   It should be noted that each step of the vehicle environment recognition processing in the present specification does not necessarily have to be processed in time series in the order described in the flowchart, and may include processing in parallel or by a subroutine.

本発明は、先行車両の車両用のランプを特定する車外環境認識装置に利用することができる。   INDUSTRIAL APPLICABILITY The present invention can be used for an external environment recognition device that identifies a vehicle lamp for a preceding vehicle.

120 車外環境認識装置
160 画像取得部
164a 車両特定部
164b ランプ特定部
166 領域位置情報生成部
170 基準領域決定部
172 類似領域抽出部
174 統合領域生成部
176 情報更新部
120 External environment recognition device 160 Image acquisition unit 164a Vehicle identification unit 164b Lamp identification unit 166 Region position information generation unit 170 Reference region determination unit 172 Similar region extraction unit 174 Integrated region generation unit 176 Information update unit

Claims (5)

画像を取得する画像取得部と、
前記画像における車両領域を特定する車両特定部と、
前記車両領域において、ランプが占有するランプ領域を特定し、該ランプ領域が所定の条件を満たす場合に所定のランプと特定するランプ特定部と、
前記ランプ領域の画像上の位置を示す領域位置情報を生成する領域位置情報生成部と、
現在画像における前記ランプ領域のうち、該現在画像より前に撮像された過去画像におけるランプ領域の前記領域位置情報に対応する1のランプ領域を基準領域と決定する基準領域決定部と、
前記現在画像におけるランプ領域のうち、前記基準領域以外のランプ領域であって、前記過去画像の領域位置情報に基づいて設定される第1類似条件を満たすランプ領域を類似領域として抽出する類似領域抽出部と、
前記基準領域に、前記類似領域を統合して、1の統合領域を生成する統合領域生成部と、
前記統合領域が生成された場合、統合前の前記基準領域の領域位置情報および前記類似領域の領域位置情報を、該統合領域の領域位置情報に更新する情報更新部と、
を備え、
前記ランプ特定部は、前記統合領域が生成された場合、該統合領域を1のランプ領域と特定することを特徴とする車外環境認識装置。
An image acquisition unit for acquiring images;
A vehicle specifying unit for specifying a vehicle region in the image;
In the vehicle area, a lamp area that a lamp occupies is specified, and a lamp specifying unit that specifies a predetermined lamp when the lamp area satisfies a predetermined condition;
An area position information generating unit that generates area position information indicating the position of the lamp area on the image;
A reference area determination unit that determines, as a reference area, one lamp area corresponding to the area position information of the lamp area in a past image captured before the current image, among the lamp areas in the current image;
Similar region extraction that extracts, as a similar region, a lamp region other than the reference region that satisfies the first similarity condition set based on the region position information of the past image among the ramp regions in the current image. And
An integrated region generating unit that integrates the similar region into the reference region to generate one integrated region;
When the integrated area is generated, an information update unit that updates the area position information of the reference area before the integration and the area position information of the similar area to the area position information of the integrated area;
With
When the integrated area is generated, the lamp specifying unit specifies the integrated area as one lamp area.
前記車両特定部は、自車両に対する先行車両の挙動を予測し、
前記第1類似条件は、予測された前記先行車両の挙動に応じて導出される、前記過去画像の領域位置情報が示す位置と所定の位置関係にある前記現在画像における位置に基づいて設定されることを特徴とする請求項1に記載の車外環境認識装置。
The vehicle specifying unit predicts the behavior of a preceding vehicle relative to the host vehicle,
The first similarity condition is set based on a position in the current image that is derived according to the predicted behavior of the preceding vehicle and has a predetermined positional relationship with the position indicated by the region position information of the past image. The outside environment recognition device according to claim 1 characterized by things.
前記車両特定部は、自車両に対する先行車両の挙動を予測し、
前記第1類似条件は、予測された前記先行車両の挙動に応じて導出される、前記過去画像の領域位置情報が示す位置に相当する前記現在画像における位置である領域予測位置に基づいて設定されることを特徴とする請求項1に記載の車外環境認識装置。
The vehicle specifying unit predicts the behavior of a preceding vehicle relative to the host vehicle,
The first similarity condition is set based on a predicted area position that is a position in the current image corresponding to a position indicated by area position information of the past image, which is derived according to the predicted behavior of the preceding vehicle. The outside environment recognition device according to claim 1 characterized by things.
前記類似領域抽出部は、前記第1類似条件を満たし、かつ、該第1類似条件とは異なる第2類似条件を満たすランプ領域を類似領域として抽出し、
前記第2類似条件は、相異なるタイミングで撮像された複数の画像におけるランプ領域の検出回数に基づいて設定されることを特徴とする請求項1から3のいずれか1項に記載の車外環境認識装置。
The similar region extraction unit extracts a lamp region that satisfies the first similarity condition and satisfies a second similarity condition different from the first similarity condition as a similar region,
The vehicle exterior environment recognition according to any one of claims 1 to 3, wherein the second similarity condition is set based on the number of times of detection of a lamp area in a plurality of images taken at different timings. apparatus.
前記画像取得部が取得する画像はカラー画像であり、
前記類似領域抽出部は、前記第1類似条件を満たし、かつ、該第1類似条件とは異なる第3類似条件を満たすランプ領域を類似領域として抽出し、
前記第3類似条件は、所定のカラー範囲内のカラー値である画素の数に基づいて設定されることを特徴とする請求項1から3のいずれか1項に記載の車外環境認識装置。
The image acquired by the image acquisition unit is a color image,
The similar region extraction unit extracts a lamp region that satisfies the first similarity condition and satisfies a third similarity condition different from the first similarity condition as a similar region;
The external environment recognition device according to any one of claims 1 to 3, wherein the third similarity condition is set based on the number of pixels that are color values within a predetermined color range.
JP2014161169A 2014-08-07 2014-08-07 Outside environment recognition device Active JP6335065B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014161169A JP6335065B2 (en) 2014-08-07 2014-08-07 Outside environment recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014161169A JP6335065B2 (en) 2014-08-07 2014-08-07 Outside environment recognition device

Publications (2)

Publication Number Publication Date
JP2016038700A true JP2016038700A (en) 2016-03-22
JP6335065B2 JP6335065B2 (en) 2018-05-30

Family

ID=55529731

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014161169A Active JP6335065B2 (en) 2014-08-07 2014-08-07 Outside environment recognition device

Country Status (1)

Country Link
JP (1) JP6335065B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6472504B1 (en) * 2017-12-14 2019-02-20 株式会社 ディー・エヌ・エー Information processing apparatus, information processing program, and information processing method
US11619947B2 (en) * 2019-04-01 2023-04-04 Valeo Schalter Und Sensoren Gmbh Wireless communication for aligning a vehicle to a wireless charger

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120176499A1 (en) * 2009-06-15 2012-07-12 Hella Kgaa Hueck & Co. Method and apparatus for detecting a rear vehicle light
JP2013109457A (en) * 2011-11-18 2013-06-06 Fuji Heavy Ind Ltd Device and method for recognizing vehicle exterior environment
JP2013109391A (en) * 2011-11-17 2013-06-06 Fuji Heavy Ind Ltd Outside-vehicle environment recognition device and outside-vehicle environment recognition method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120176499A1 (en) * 2009-06-15 2012-07-12 Hella Kgaa Hueck & Co. Method and apparatus for detecting a rear vehicle light
JP2013109391A (en) * 2011-11-17 2013-06-06 Fuji Heavy Ind Ltd Outside-vehicle environment recognition device and outside-vehicle environment recognition method
JP2013109457A (en) * 2011-11-18 2013-06-06 Fuji Heavy Ind Ltd Device and method for recognizing vehicle exterior environment

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6472504B1 (en) * 2017-12-14 2019-02-20 株式会社 ディー・エヌ・エー Information processing apparatus, information processing program, and information processing method
JP2019106149A (en) * 2017-12-14 2019-06-27 株式会社 ディー・エヌ・エー Information processing device, information processing program and information processing method
US11619947B2 (en) * 2019-04-01 2023-04-04 Valeo Schalter Und Sensoren Gmbh Wireless communication for aligning a vehicle to a wireless charger

Also Published As

Publication number Publication date
JP6335065B2 (en) 2018-05-30

Similar Documents

Publication Publication Date Title
JP6132412B2 (en) Outside environment recognition device
US10286834B2 (en) Vehicle exterior environment recognition apparatus
US10442343B2 (en) Vehicle exterior environment recognition apparatus
JP6236039B2 (en) Outside environment recognition device
JP6034923B1 (en) Outside environment recognition device
JP5499011B2 (en) Outside environment recognition device and outside environment recognition method
JP5886809B2 (en) Outside environment recognition device
JP6420650B2 (en) Outside environment recognition device
JP5906224B2 (en) Outside environment recognition device
JP6335037B2 (en) Outside environment recognition device
JP6228492B2 (en) Outside environment recognition device
JP6259335B2 (en) Outside environment recognition device
JP6335065B2 (en) Outside environment recognition device
JP6329417B2 (en) Outside environment recognition device
JP6240475B2 (en) Outside environment recognition device
JP6174960B2 (en) Outside environment recognition device
JP6654870B2 (en) Outside environment recognition device
JP2020107052A (en) Vehicle exterior environment recognition device
JP6549974B2 (en) Outside environment recognition device
JP6378547B2 (en) Outside environment recognition device
JP2005339234A (en) Front vehicle monitoring device
JP6523694B2 (en) Outside environment recognition device
JP6273156B2 (en) Pedestrian recognition device
JP6313667B2 (en) Outside environment recognition device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170529

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180314

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180403

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180427

R150 Certificate of patent or registration of utility model

Ref document number: 6335065

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250