JP6591188B2 - Outside environment recognition device - Google Patents

Outside environment recognition device Download PDF

Info

Publication number
JP6591188B2
JP6591188B2 JP2015070329A JP2015070329A JP6591188B2 JP 6591188 B2 JP6591188 B2 JP 6591188B2 JP 2015070329 A JP2015070329 A JP 2015070329A JP 2015070329 A JP2015070329 A JP 2015070329A JP 6591188 B2 JP6591188 B2 JP 6591188B2
Authority
JP
Japan
Prior art keywords
group
distance
vehicle
image
groups
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015070329A
Other languages
Japanese (ja)
Other versions
JP2016191988A (en
Inventor
由佳 斉藤
由佳 斉藤
淑実 大久保
淑実 大久保
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Subaru Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Subaru Corp filed Critical Subaru Corp
Priority to JP2015070329A priority Critical patent/JP6591188B2/en
Publication of JP2016191988A publication Critical patent/JP2016191988A/en
Application granted granted Critical
Publication of JP6591188B2 publication Critical patent/JP6591188B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、自車両外の環境を認識する車外環境認識装置にかかり、特に、自車両の制御対象となる領域を特定する車外環境認識装置に関する。   The present invention relates to an outside environment recognition device that recognizes an environment outside the host vehicle, and more particularly to an outside environment recognition device that identifies a region to be controlled by the host vehicle.

従来、自車両の前方に位置する車両等の特定物を検出し、先行車両との衝突を回避したり(衝突回避制御)、先行車両との車間距離を安全な距離に保つように制御する(クルーズコントロール)技術が知られている。そして、先行車両を特定するために、車載されたステレオカメラを用いる技術が知られている。具体的には、自車両前方を撮像した2つの画像データからブロック毎に視差情報(自車両と立体物までの相対距離に相当)を導出し、視差情報を画像データに対応付けた距離画像を生成する。そして、距離画像を水平方向に対して複数の分割領域に分割し、その分割領域毎に、分割領域内の相対距離のヒストグラム(度数分布)を生成し、ヒストグラムに基づいて先行車両を特定する技術が知られている(例えば、特許文献1)。   Conventionally, a specific object such as a vehicle positioned in front of the host vehicle is detected, and a collision with a preceding vehicle is avoided (collision avoidance control), or the distance between the preceding vehicle and the preceding vehicle is controlled to be a safe distance ( (Cruise Control) technology is known. And in order to identify a preceding vehicle, the technique using the vehicle-mounted stereo camera is known. Specifically, parallax information (corresponding to a relative distance between the host vehicle and the three-dimensional object) is derived for each block from two image data obtained by capturing the front of the host vehicle, and a distance image in which the parallax information is associated with the image data is obtained. Generate. A technique for dividing a distance image into a plurality of divided areas in the horizontal direction, generating a histogram (frequency distribution) of relative distances in the divided areas for each divided area, and identifying a preceding vehicle based on the histogram Is known (for example, Patent Document 1).

特開平10−283461号公報JP-A-10-283461

上述した特許文献1の技術では、まず、近距離にあるブロック同士をグループ化し、さらに、距離があまり離隔していないグループ同士を仮に統合した場合に、それが車両として妥当であるか否か判定し、妥当であれば、そのグループ同士を統合し、先行車両として特定している。したがって、車両が一体的に認識されず、複数の部位がそれぞれ個別に認識された場合においても、それらを統合し、適切に先行車両として制御することが可能となる。   In the technique of Patent Document 1 described above, first, when blocks that are close to each other are grouped, and when groups that are not so far apart are integrated, it is determined whether or not it is appropriate as a vehicle. If appropriate, the groups are integrated and specified as a preceding vehicle. Therefore, even when the vehicle is not integrally recognized and a plurality of parts are individually recognized, they can be integrated and appropriately controlled as a preceding vehicle.

しかし、偶然、距離があまり離隔していない別体の立体物に相当する2つの立体像が画像の幅方向に並んで位置し、その立体像同士を仮に統合した場合に、それが車両として妥当であれば、それらを統合し、先行車両として認識してしまう。そうすると、衝突回避制御やクルーズコントロールによって、快適な走行が却って阻害されるおそれがある。   However, if two stereoscopic images corresponding to separate three-dimensional objects that are not far apart from each other are located side by side in the width direction of the image and the three-dimensional images are temporarily integrated, that is appropriate as a vehicle. If so, they are integrated and recognized as a preceding vehicle. If so, there is a risk that comfortable running may be hindered by collision avoidance control or cruise control.

本発明は、このような課題に鑑み、制御対象となる領域を適切に特定することが可能な車外環境認識装置を提供することを目的としている。   In view of such a problem, an object of the present invention is to provide an external environment recognition device that can appropriately specify a region to be controlled.

上記課題を解決するために、本発明の車外環境認識装置は、撮像装置により撮像された画像のうち、複数の、所定の画素の配列で表されたブロックを3次元の位置情報に変換した場合の複数のブロック間の距離が第1距離範囲内となると、複数のブロック同士をグループ化して第1グループを生成する第1グループ化部と、第1グループ化部がグループ化した複数の第1グループを3次元の位置情報に変換した場合の複数の第1グループ間の距離が第1距離範囲より大きい第2距離範囲内であり、かつ、複数の第1グループ同士が幅方向左右の位置関係にある場合に、複数の第1グループ同士の幅方向の間であり、画像上、複数の第1グループと高さ方向の位置が重なる領域において、自車両前方の相対距離が所定の閾値以上離れているブロックが所定数未満である統合条件を満たせば、複数の第1グループ同士を統合して第2グループを生成し、複数の第1グループの距離が第2距離範囲内であり、かつ、複数の第1グループ同士が幅方向左右の位置関係にある場合であっても、統合条件を満たさなければ、複数の第1グループ同士を統合しない第2グループ化部と、を備えるIn order to solve the above problems, the environment outside the vehicle recognition system of the present invention, among the image captured by the imaging device, and converted multiple, three-dimensional position information represented blocks in sequence of a given pixel When the distance between the plurality of blocks is within the first distance range, the first grouping unit that groups the plurality of blocks to generate the first group, and the plurality of grouped by the first grouping unit When the first group is converted into the three-dimensional position information, the distance between the plurality of first groups is within a second distance range that is larger than the first distance range, and the plurality of first groups are arranged in the left and right directions in the width direction. when in the positional relationship is between the width direction between the plurality of first group, the image on the, in the region where the position of the plurality of first groups and the height direction overlaps, in front of the vehicle relative distance predetermined threshold Bro you are away or more Satisfies the integration condition click is less than the predetermined number, generating a second group by integrating a plurality of first group together, the distance between the plurality of first group in the second distance range, and a plurality even if the first group each other are in the positional relationship in the width direction right includes to be met integration condition, a second grouping unit that does not integrate the plurality of first group together, a.

第2グループ化部は、さらに、複数の第1グループ同士を統合した場合の大きさが車両として妥当な大きさである場合に限り、複数の第1グループ同士を統合して第2グループを生成してもよい。 The second grouping unit further generates a second group by integrating the plurality of first groups only when the size when the plurality of first groups are integrated is a reasonable size as a vehicle. May be.

本発明によれば、制御対象となる領域を適切に特定することが可能となる。   According to the present invention, it is possible to appropriately specify a region to be controlled.

環境認識システムの接続関係を示したブロック図である。It is the block diagram which showed the connection relation of the environment recognition system. 車外環境認識装置の概略的な機能を示した機能ブロック図である。It is the functional block diagram which showed the schematic function of the external environment recognition apparatus. 車外環境認識処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a vehicle exterior environment recognition process. 輝度画像と距離画像を説明するための説明図である。It is explanatory drawing for demonstrating a luminance image and a distance image. ヒストグラム生成部の処理を説明するための説明図である。It is explanatory drawing for demonstrating the process of a histogram production | generation part. 第1グループ化部の処理を説明するための説明図である。It is explanatory drawing for demonstrating the process of a 1st grouping part. 第2グループ化部の処理を説明するための説明図である。It is explanatory drawing for demonstrating the process of a 2nd grouping part. 第2グループ化部の処理を説明するための説明図である。It is explanatory drawing for demonstrating the process of a 2nd grouping part. 第2グループ化部の処理を説明するための説明図である。It is explanatory drawing for demonstrating the process of a 2nd grouping part.

以下に添付図面を参照しながら、本発明の好適な実施形態について詳細に説明する。かかる実施形態に示す寸法、材料、その他具体的な数値などは、発明の理解を容易とするための例示にすぎず、特に断る場合を除き、本発明を限定するものではない。なお、本明細書および図面において、実質的に同一の機能、構成を有する要素については、同一の符号を付することにより重複説明を省略し、また本発明に直接関係のない要素は図示を省略する。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. The dimensions, materials, and other specific numerical values shown in the embodiment are merely examples for facilitating understanding of the invention, and do not limit the present invention unless otherwise specified. In the present specification and drawings, elements having substantially the same function and configuration are denoted by the same reference numerals, and redundant description is omitted, and elements not directly related to the present invention are not illustrated. To do.

近年では、車両に搭載した車載カメラによって自車両の前方の道路環境を撮像し、画像内における色情報や位置情報に基づいて、先行車両等の特定物を特定し、特定された特定物との衝突を回避したり、先行車両との車間距離を安全な距離に保つ(ACC:Adaptive Cruise Control)、所謂衝突防止機能を搭載した車両が普及しつつある。   In recent years, an in-vehicle camera mounted on a vehicle images a road environment ahead of the host vehicle, identifies a specific object such as a preceding vehicle based on color information and position information in the image, and Vehicles equipped with a so-called anti-collision function that avoids collisions and keeps the distance between the vehicle and the preceding vehicle at a safe distance (ACC: Adaptive Cruise Control) are becoming widespread.

このような車外環境を認識する車外環境認識装置を搭載した車両においては、例えば、自車両の前方に位置する立体物に対応する画像上の立体像が車両(先行車両)等の特定物であるか否か判定する。そして、立体像が先行車両であれば、その先行車両を制御対象とし、衝突を回避したり、車間距離を制御する。本実施形態では、このような先行車両等の特定物を適切に特定することが可能な車外環境認識装置を提供する。   In a vehicle equipped with such an external environment recognition device that recognizes such an external environment, for example, a three-dimensional image on an image corresponding to a three-dimensional object located in front of the host vehicle is a specific object such as a vehicle (preceding vehicle). It is determined whether or not. If the stereoscopic image is a preceding vehicle, the preceding vehicle is set as a control target, and a collision is avoided or the inter-vehicle distance is controlled. In the present embodiment, an outside environment recognition device capable of appropriately specifying a specific object such as a preceding vehicle is provided.

(環境認識システム100)
図1は、環境認識システム100の接続関係を示したブロック図である。環境認識システム100は、自車両1内に設けられた、撮像装置110と、車外環境認識装置120と、車両制御装置(ECU:Engine Control Unit)130とを含んで構成される。
(Environment recognition system 100)
FIG. 1 is a block diagram showing a connection relationship of the environment recognition system 100. The environment recognition system 100 includes an imaging device 110, a vehicle exterior environment recognition device 120, and a vehicle control device (ECU: Engine Control Unit) 130 provided in the host vehicle 1.

撮像装置110は、CCD(Charge-Coupled Device)やCMOS(Complementary Metal-Oxide Semiconductor)等の撮像素子を含んで構成され、自車両1の前方に相当する環境を撮像し、カラー画像やモノクロ画像を生成することができる。ここで、カラー値は、1つの輝度(Y)と2つの色差(UV)からなる、または、3つの色相(R(赤)、G(緑)、B(青))からなる数値群である。ここでは、撮像装置110で撮像されたカラー画像やモノクロ画像を輝度画像と呼び、後述する距離画像と区別する。   The imaging device 110 includes an imaging element such as a CCD (Charge-Coupled Device) or a CMOS (Complementary Metal-Oxide Semiconductor), captures an environment corresponding to the front of the host vehicle 1, and displays a color image or a monochrome image. Can be generated. Here, the color value is a numerical group consisting of one luminance (Y) and two color differences (UV), or three hues (R (red), G (green), B (blue)). . Here, a color image or a monochrome image captured by the imaging device 110 is referred to as a luminance image, and is distinguished from a distance image described later.

また、撮像装置110は、自車両1の進行方向側において2つの撮像装置110それぞれの光軸が略平行になるように、略水平方向に離隔して配置される。撮像装置110は、自車両1の前方の検出領域に存在する特定物を撮像した画像データを、例えば1/60秒のフレーム毎(60fps)に連続して生成する。ここで、認識対象となる特定物は、車両、人(歩行者)、信号機、ガードレールのように独立して存在する物のみならず、テールランプ、ウィンカー、信号機の各点灯部分等、独立して存在する物の一部も含む。以下の実施形態における各機能部は、このような画像データの更新を契機としてフレーム毎に各処理を遂行する。   In addition, the imaging devices 110 are arranged in a substantially horizontal direction so that the optical axes of the two imaging devices 110 are substantially parallel on the traveling direction side of the host vehicle 1. The imaging device 110 continuously generates image data obtained by imaging a specific object existing in the detection area in front of the host vehicle 1, for example, every 1/60 second frame (60 fps). Here, specific objects to be recognized exist independently such as vehicles, people (pedestrians), traffic lights, guardrails, as well as taillights, blinkers, traffic lights, etc. Includes some of the things to do. Each functional unit in the following embodiment performs each process for each frame in response to such update of the image data.

車外環境認識装置120は、2つの撮像装置110それぞれから画像データを取得し、所謂パターンマッチングを用いて視差を導き出し、導出された視差情報(後述する相対距離に相当)を画像データに対応付けて距離画像を生成する。輝度画像および距離画像については後ほど詳述する。また、車外環境認識装置120は、輝度画像に基づく輝度(カラー値)、および、距離画像に基づく自車両1との相対距離を用いて自車両1前方の検出領域に表示された立体像がいずれの特定物に対応するかを特定する。   The vehicle exterior environment recognition device 120 acquires image data from each of the two imaging devices 110, derives parallax using so-called pattern matching, and associates the derived parallax information (corresponding to a relative distance described later) with the image data. Generate a distance image. The luminance image and the distance image will be described in detail later. Further, the vehicle environment recognition apparatus 120 uses a luminance (color value) based on the luminance image and a stereoscopic image displayed in the detection area in front of the host vehicle 1 using the relative distance from the host vehicle 1 based on the distance image. Specify whether it corresponds to a specific thing.

車外環境認識装置120は、立体像が特定物、例えば、先行車両として特定されると、その先行車両を追跡しつつ、先行車両の相対速度等を導出し、先行車両と自車両1とが衝突する可能性が高いか否かの判定を行う。ここで、衝突の可能性が高いと判定した場合、車外環境認識装置120は、その旨、運転者の前方に設置されたディスプレイ122を通じて運転者に警告表示(報知)を行うとともに、車両制御装置130に対して、その旨を示す情報を出力する。   When the stereoscopic image is specified as a specific object, for example, a preceding vehicle, the vehicle exterior environment recognition device 120 tracks the preceding vehicle and derives the relative speed of the preceding vehicle, and the preceding vehicle and the host vehicle 1 collide. It is determined whether or not there is a high possibility of being. Here, when it is determined that the possibility of a collision is high, the vehicle environment recognition device 120 displays a warning (notification) to the driver through the display 122 installed in front of the driver, and the vehicle control device. Information indicating that is output to 130.

車両制御装置130は、ステアリングホイール132、アクセルペダル134、ブレーキペダル136を通じて運転者の操作入力を受け付け、操舵機構142、駆動機構144、制動機構146に伝達することで自車両1を制御する。また、車両制御装置130は、車外環境認識装置120の指示に従い、操舵機構142、駆動機構144、制動機構146を制御する。   The vehicle control device 130 receives a driver's operation input through the steering wheel 132, the accelerator pedal 134, and the brake pedal 136, and controls the host vehicle 1 by transmitting it to the steering mechanism 142, the drive mechanism 144, and the brake mechanism 146. Further, the vehicle control device 130 controls the steering mechanism 142, the drive mechanism 144, and the braking mechanism 146 in accordance with instructions from the outside environment recognition device 120.

以下、車外環境認識装置120の構成について詳述する。ここでは、本実施形態に特徴的な、自車両1前方に位置する先行車両等の特定物の特定手順について詳細に説明し、本実施形態の特徴と無関係の構成については説明を省略する。   Hereinafter, the configuration of the outside environment recognition device 120 will be described in detail. Here, a specific procedure for identifying a specific object such as a preceding vehicle located in front of the host vehicle 1 that is characteristic of the present embodiment will be described in detail, and description of a configuration unrelated to the characteristics of the present embodiment will be omitted.

(車外環境認識装置120)
図2は、車外環境認識装置120の概略的な機能を示した機能ブロック図である。図2に示すように、車外環境認識装置120は、I/F部150と、データ保持部152と、中央制御部154とを含んで構成される。
(Vehicle environment recognition device 120)
FIG. 2 is a functional block diagram showing a schematic function of the outside environment recognition device 120. As shown in FIG. 2, the vehicle exterior environment recognition device 120 includes an I / F unit 150, a data holding unit 152, and a central control unit 154.

I/F部150は、撮像装置110や車両制御装置130との双方向の情報交換を行うためのインターフェースである。データ保持部152は、RAM、フラッシュメモリ、HDD等で構成され、以下に示す各機能部の処理に必要な様々な情報を保持し、また、撮像装置110から受信した画像データを一時的に保持する。   The I / F unit 150 is an interface for performing bidirectional information exchange with the imaging device 110 and the vehicle control device 130. The data holding unit 152 includes a RAM, a flash memory, an HDD, and the like. The data holding unit 152 holds various pieces of information necessary for the processing of each function unit described below, and temporarily holds image data received from the imaging device 110. To do.

中央制御部154は、中央処理装置(CPU)、プログラム等が格納されたROM、ワークエリアとしてのRAM等を含む半導体集積回路で構成され、システムバス156を通じて、I/F部150、データ保持部152等を制御する。また、本実施形態において、中央制御部154は、画像処理部160、3次元位置情報生成部162、ヒストグラム生成部164、第1グループ化部166、第2グループ化部168、特定物特定部170、車両制御部172としても機能する。   The central control unit 154 is configured by a semiconductor integrated circuit including a central processing unit (CPU), a ROM storing a program, a RAM as a work area, and the like, and through the system bus 156, an I / F unit 150, a data holding unit 152 and the like are controlled. In the present embodiment, the central control unit 154 includes the image processing unit 160, the three-dimensional position information generation unit 162, the histogram generation unit 164, the first grouping unit 166, the second grouping unit 168, and the specific object specifying unit 170. Also functions as the vehicle control unit 172.

(車外環境認識処理)
図3は、車外環境認識処理の流れを示すフローチャートである。車外環境認識処理では、画像処理部160が、撮像装置110から取得した画像を処理し(S200)、ヒストグラム生成部164が、ヒストグラムを生成し(S202)、第1グループ化部166が、3次元位置に基づいてグループ化された第1グループを生成し(S204)、第2グループ化部168が、第1グループの出現態様に応じ、さらに第1グループ同士を統合して、第2グループを生成し(S206)、特定物特定部170が特定物を特定し(S208)、車両制御部172は、自車両1を制御する(S210)。以下、個々の処理を詳述する。
(External vehicle environment recognition processing)
FIG. 3 is a flowchart showing the flow of the external environment recognition process. In the environment recognition process outside the vehicle, the image processing unit 160 processes the image acquired from the imaging device 110 (S200), the histogram generation unit 164 generates a histogram (S202), and the first grouping unit 166 performs the three-dimensional operation. The first group grouped based on the position is generated (S204), and the second grouping unit 168 further integrates the first groups according to the appearance of the first group to generate the second group. Then, the specified object specifying unit 170 specifies the specified object (S208), and the vehicle control unit 172 controls the host vehicle 1 (S210). Hereinafter, each process is explained in full detail.

(画像処理S200)
画像処理部160は、2つの撮像装置110それぞれから画像データを取得し、一方の画像データから任意に抽出したブロック(例えば、水平4画素×垂直4画素の配列)に対応するブロックを他方の画像データから検索する、所謂パターンマッチングを用いて視差を導き出す。ここで、「水平」は、撮像した輝度画像の画面横方向を示し、「垂直」は、撮像した輝度画像の画面縦方向を示す。
(Image processing S200)
The image processing unit 160 acquires image data from each of the two imaging devices 110, and selects a block corresponding to a block arbitrarily extracted from one image data (for example, an array of 4 horizontal pixels × 4 vertical pixels) as the other image. The parallax is derived using so-called pattern matching, which is retrieved from the data. Here, “horizontal” indicates the horizontal direction of the captured luminance image, and “vertical” indicates the vertical direction of the captured luminance image.

このパターンマッチングとしては、2つの画像データ間において、任意の画像位置を示すブロック単位で輝度(Y色差信号)を比較することが考えられる。例えば、輝度の差分をとるSAD(Sum of Absolute Difference)、差分を2乗して用いるSSD(Sum of Squared intensity Difference)や、各画素の輝度から平均値を引いた分散値の類似度をとるNCC(Normalized Cross Correlation)等の手法がある。画像処理部160は、このようなブロック単位の視差導出処理を検出領域(例えば水平600画素×垂直180画素)に映し出されているすべてのブロックについて行う。ここでは、ブロックを水平4画素×垂直4画素としているが、ブロック内の画素数は任意に設定することができる。   As this pattern matching, it is conceivable to compare the luminance (Y color difference signal) in units of blocks indicating an arbitrary image position between two pieces of image data. For example, SAD (Sum of Absolute Difference) that takes the difference in luminance, SSD (Sum of Squared Intensity Difference) that uses the difference squared, or NCC that takes the similarity of the variance value obtained by subtracting the average value from the luminance of each pixel There are methods such as (Normalized Cross Correlation). The image processing unit 160 performs such a block-unit parallax derivation process for all blocks displayed in the detection area (for example, horizontal 600 pixels × vertical 180 pixels). Here, the block is assumed to be horizontal 4 pixels × vertical 4 pixels, but the number of pixels in the block can be arbitrarily set.

ただし、画像処理部160では、検出分解能単位であるブロック毎に視差を導出することはできるが、そのブロックがどのような立体像の一部であるかを認識できない。したがって、視差情報は、立体像単位ではなく、検出領域におけるブロック単位で独立して導出されることとなる。このようにして導出された視差情報(後述する相対距離に相当)を画像データの各ブロックに対応付けた画像を距離画像という。   However, the image processing unit 160 can derive the parallax for each block, which is a unit of detection resolution, but cannot recognize what part of the stereoscopic image the block is. Accordingly, the parallax information is derived independently in units of blocks in the detection area, not in units of stereoscopic images. An image in which disparity information derived in this way (corresponding to a relative distance described later) is associated with each block of image data is referred to as a distance image.

図4は、輝度画像210と距離画像212を説明するための説明図である。例えば、2つの撮像装置110を通じ、検出領域214について図4(a)のような輝度画像(画像データ)210が生成されたとする。ただし、ここでは、理解を容易にするため、2つの輝度画像210の一方のみを模式的に示している。本実施形態において、画像処理部160は、このような輝度画像210からブロック毎の視差を求め、図4(b)のような距離画像212を形成する。距離画像212における各ブロックには、そのブロックの視差が関連付けられている。ここでは、説明の便宜上、視差が導出されたブロックを黒のドットで表している。   FIG. 4 is an explanatory diagram for explaining the luminance image 210 and the distance image 212. For example, it is assumed that a luminance image (image data) 210 as illustrated in FIG. 4A is generated for the detection region 214 through the two imaging devices 110. However, only one of the two luminance images 210 is schematically shown here for easy understanding. In the present embodiment, the image processing unit 160 obtains the parallax for each block from the luminance image 210 and forms a distance image 212 as shown in FIG. Each block in the distance image 212 is associated with the parallax of the block. Here, for convenience of description, blocks from which parallax is derived are represented by black dots.

図2に戻って説明すると、3次元位置情報生成部162は、画像処理部160で生成された距離画像212に基づいて検出領域214内のブロック毎の視差情報を、所謂ステレオ法を用いて、水平距離、高さおよび相対距離を含む3次元の位置情報に変換する。ここで、ステレオ法は、三角測量法を用いることで、ブロックの視差からそのブロックの撮像装置110に対する相対距離を導出する方法である。このとき、3次元位置情報生成部162は、ブロックの相対距離と、ブロックと同相対距離にある道路表面上の点からブロックまでの距離画像212上の距離とに基づいて、ブロックの道路表面からの高さを導出する。かかる三次元の位置情報への変換については、特開2013−109391号公報等、既存の技術を参照できるので、ここでは、その詳細な説明を省略する。   Returning to FIG. 2, the three-dimensional position information generation unit 162 uses the so-called stereo method to calculate disparity information for each block in the detection region 214 based on the distance image 212 generated by the image processing unit 160. Convert into 3D position information including horizontal distance, height and relative distance. Here, the stereo method is a method of deriving a relative distance of the block with respect to the imaging device 110 from the parallax of the block by using a triangulation method. At this time, the three-dimensional position information generation unit 162 determines from the road surface of the block based on the relative distance of the block and the distance on the distance image 212 from the point on the road surface at the same relative distance to the block to the block. The height of is derived. Regarding the conversion to the three-dimensional position information, since existing techniques such as JP2013-109391A can be referred to, detailed description thereof is omitted here.

(ヒストグラム生成処理S202)
続いて、ヒストグラム生成部164は、距離画像212を複数の分割領域に分割し、分割領域毎に、分割領域内の複数のブロックの相対距離を複数の階級(等距離で区分した相対距離の距離区分を短い順に並べたもの)に振り分けたヒストグラム(度数分布)を生成する。以下に、ヒストグラム生成部164の具体的な処理を説明する。
(Histogram generation process S202)
Subsequently, the histogram generation unit 164 divides the distance image 212 into a plurality of divided regions, and for each divided region, the relative distances of the plurality of blocks in the divided region are divided into a plurality of classes (relative distances divided by equal distances). A histogram (frequency distribution) is generated in which the categories are sorted in the shortest order). Hereinafter, specific processing of the histogram generation unit 164 will be described.

図5は、ヒストグラム生成部164の処理を説明するための説明図である。ヒストグラム生成部164は、まず、距離画像212を、水平方向に対して複数の分割領域216に分割する。そうすると、分割領域216は、図5(a)のような垂直方向に延在する短冊形状になる。このような短冊形状の分割領域216は、本来、例えば、水平幅4画素のものが150列配列してなるが、ここでは、説明の便宜上、検出領域214を16等分したもので説明する。   FIG. 5 is an explanatory diagram for explaining the processing of the histogram generation unit 164. The histogram generation unit 164 first divides the distance image 212 into a plurality of divided regions 216 in the horizontal direction. Then, the divided region 216 has a strip shape extending in the vertical direction as shown in FIG. Such a strip-shaped divided region 216 is originally composed of, for example, 150 columns each having a horizontal width of 4 pixels, but here, for convenience of explanation, the detection region 214 is divided into 16 parts.

続いて、ヒストグラム生成部164は、分割領域216毎に、三次元の位置情報に基づき、分割領域216内の、道路表面より上方に位置するとみなされるすべてのブロックを対象に、相対距離が複数の階級のいずれに含まれるか判定し、相対距離をそれぞれ対応する階級に振り分けて、ヒストグラム(図5(b)中、横長の四角(バー)で示す)を生成する。すると、図5(b)のように、分割領域216毎のヒストグラムによる距離分布218が得られる。ここで、縦方向は、相対距離を等距離で区分した階級を、横方向は、階級に振り分けられたブロックの個数(度数)を示している。ただし、図5(b)は計算を行う上での仮想的な画面であり、実際には視覚的な画面の生成を伴わない。   Subsequently, for each divided region 216, the histogram generation unit 164 has a plurality of relative distances for all blocks that are considered to be located above the road surface in the divided region 216 based on the three-dimensional position information. It is determined which class is included, and the relative distances are assigned to the corresponding classes to generate a histogram (indicated by a horizontally long square (bar) in FIG. 5B). Then, as shown in FIG. 5B, a distance distribution 218 based on a histogram for each divided region 216 is obtained. Here, the vertical direction indicates a class obtained by dividing the relative distance into equal distances, and the horizontal direction indicates the number of blocks (frequency) allocated to the class. However, FIG. 5B is a virtual screen for calculation, and actually does not involve generation of a visual screen.

(第1グループ化処理S204)
図6は、第1グループ化部166の処理を説明するための説明図である。第1グループ化部166は、まず、分割領域216毎の距離分布218を参照し、同一の分割領域216内で有効な度数を有する階級が連続していれば、その連続した階級をグループ化して、図6(a)に示すように、分割領域216毎に立体物の候補である分割立体像候補220を生成する。そして、第1グループ化部166は、分割立体像候補220内で一番大きい度数(図6中、黒で塗りつぶした四角で示す)を代表距離222とする。
(First grouping process S204)
FIG. 6 is an explanatory diagram for explaining the processing of the first grouping unit 166. The first grouping unit 166 first refers to the distance distribution 218 for each divided region 216, and if there are consecutive classes having effective frequencies in the same divided region 216, the first grouping unit 166 groups the consecutive classes. As shown in FIG. 6A, a divided stereoscopic image candidate 220 that is a candidate for a three-dimensional object is generated for each divided region 216. Then, the first grouping unit 166 sets the largest frequency (indicated by a black square in FIG. 6) in the divided stereoscopic image candidate 220 as the representative distance 222.

続いて、第1グループ化部166は、隣接する分割領域216同士を比較し、代表距離222が近接する(例えば、1m以下に位置する)分割領域216同士をグループ化して、図6(b)に示すように、分割領域群240を生成する。このとき、3以上の分割領域216で代表距離222が近接していた場合にも、連続するすべての分割領域216を分割領域群240として纏める。かかるグループ化によって、道路表面より上方に位置する立体像の横幅方向の大きさを特定することができる。   Subsequently, the first grouping unit 166 compares the adjacent divided regions 216 with each other, groups the divided regions 216 whose representative distances 222 are close to each other (for example, located at 1 m or less), and FIG. As shown in FIG. 5, a divided region group 240 is generated. At this time, even when the representative distance 222 is close in three or more divided areas 216, all the continuous divided areas 216 are collected as a divided area group 240. By such grouping, it is possible to specify the size of the stereoscopic image located above the road surface in the horizontal width direction.

続いて、第1グループ化部166は、分割領域群240内における、相対距離zが代表距離222に相当するブロックを基点として、そのブロックと、水平距離xの差分、高さyの差分および相対距離zの差分が予め定められた第1距離範囲(例えば0.1m)内にあるブロックとを、同一の特定物に対応すると仮定してグループ化する。こうして、仮想的なブロック群である第1グループ242が生成される。上記の範囲は実空間上の距離で表され、製造者や搭乗者によって任意の値に設定することができる。また、第1グループ化部166は、グループ化により新たに追加されたブロックに関しても、そのブロックを基点として、水平距離xの差分、高さyの差分および相対距離zの差分が第1距離範囲内にあるブロックをさらにグループ化する。結果的に、同一の特定物と仮定可能なブロックすべてがグループ化されることとなる。   Subsequently, the first grouping unit 166 uses the block whose relative distance z corresponds to the representative distance 222 in the divided region group 240 as a base point, the difference between the block, the horizontal distance x, the height y difference, and the relative Blocks having a difference in distance z within a predetermined first distance range (for example, 0.1 m) are grouped on the assumption that they correspond to the same specific object. Thus, the first group 242 that is a virtual block group is generated. The above range is represented by a distance in real space, and can be set to an arbitrary value by a manufacturer or a passenger. In addition, the first grouping unit 166 also uses the block as a base point for the newly added block, and the difference in the horizontal distance x, the difference in the height y, and the difference in the relative distance z are the first distance range. The blocks inside are further grouped. As a result, all the blocks that can be assumed to be the same specific object are grouped.

また、ここでは、水平距離xの差分、高さyの差分および相対距離zの差分をそれぞれ独立して判定し、すべてが第1距離範囲に含まれる場合のみ同一のグループとしているが、他の計算によることもできる。例えば、水平距離xの差分、高さyの差分および相対距離zの差分の二乗平均√((水平距離xの差分)+(高さyの差分)+(相対距離zの差分))が第1距離範囲に含まれる場合に同一のグループとしてもよい。かかる計算により、ブロック同士の実空間上の正確な距離を導出することができるので、グループ化精度を高めることができる。かかるグループ化によって生成される第1グループ242や後述する第2グループは、グループ化された全てのブロックを含み、外形線が水平線および垂直線からなる矩形状の立体像として扱われる。 Also, here, the horizontal distance x difference, the height y difference, and the relative distance z difference are determined independently, and only when they are all included in the first distance range, they are in the same group. It can also be calculated. For example, the root mean square of the difference in horizontal distance x, the difference in height y, and the difference in relative distance z ((difference in horizontal distance x) 2 + (difference in height y) 2 + (difference in relative distance z) 2 ) Are included in the first distance range, the same group may be used. With this calculation, an accurate distance between blocks in real space can be derived, so that the grouping accuracy can be improved. The first group 242 generated by such grouping and the second group to be described later include all the grouped blocks, and are treated as a rectangular stereoscopic image whose outline is composed of a horizontal line and a vertical line.

(第2グループ化処理S206)
図7〜図9は、第2グループ化部168の処理を説明するための説明図である。図7(a)のように、距離画像212において先行車両が出現した場合に、画像データの輝度によってはパターンマッチングで距離が明確にでないブロックが生じ得る。第1グループ化部166は、本来、相対距離zがほぼ等しい先行車両の領域250全てをグループ化すべきであるが、実際には、図7(a)のように、先行車両の全てのブロックで相対距離zを得られず、複数の部位がそれぞれ個別に第1グループ242を形成することがある。
(Second grouping process S206)
7 to 9 are explanatory diagrams for explaining the processing of the second grouping unit 168. FIG. As shown in FIG. 7A, when a preceding vehicle appears in the distance image 212, a block whose distance is not clear by pattern matching may occur depending on the luminance of the image data. Originally, the first grouping unit 166 should group all the preceding vehicle regions 250 having a substantially equal relative distance z, but actually, in all blocks of the preceding vehicle, as shown in FIG. In some cases, the relative distance z cannot be obtained, and a plurality of parts individually form the first group 242.

そこで、第2グループ化部168は、第1グループ化部166がグループ化した第1グループ242の出現態様(第1グループ242相互の位置関係)に応じ、後述する統合条件(距離条件、車両性条件、連続性条件)に従って、さらに第1グループ242同士を統合し、第2グループを生成する。   Therefore, the second grouping unit 168 determines an integration condition (distance condition, vehicle property), which will be described later, according to the appearance mode of the first group 242 grouped by the first grouping unit 166 (the positional relationship between the first groups 242). The first group 242 is further integrated with each other in accordance with the condition and the continuity condition) to generate the second group.

(距離条件)
まず、第2グループ化部168は、図7のように、第1グループ242(第1グループ242の端点)同士の距離が、第1距離範囲より大きい第2距離範囲(例えば1m)内であれば、その第1グループ242同士を仮に統合して、図7(b)の如く、第2グループ254を形成する。
(Distance condition)
First, as shown in FIG. 7, the second grouping unit 168 has a distance between the first groups 242 (end points of the first group 242) within a second distance range (for example, 1 m) that is larger than the first distance range. For example, the first groups 242 are temporarily integrated to form the second group 254 as shown in FIG.

(車両性条件)
次に、第2グループ化部168は、上記距離条件によって第1グループ242同士を仮に統合した第2グループ254の大きさが車両として妥当な大きさ、例えば、水平方向に1.5m〜2.5m、垂直方向に0.5m〜3.8mの範囲に含まれていれば、新たに、当該第2グループ254を特定物の候補となる立体像とし、水平方向に1.5m〜2.5m、垂直方向に0.5m〜3.8mの範囲に含まれていなければ、第1グループ242はそれぞれ別体の立体像を示すとして、第2グループ254の生成を行わない。
(Vehicle condition)
Next, the second grouping unit 168 determines that the size of the second group 254 obtained by temporarily integrating the first groups 242 according to the distance condition is an appropriate size as a vehicle, for example, 1.5 m to 2. If it is included in the range of 5 m and 0.5 m to 3.8 m in the vertical direction, the second group 254 is newly made a stereoscopic image as a candidate for a specific object, and 1.5 m to 2.5 m in the horizontal direction. If it is not included in the range of 0.5 m to 3.8 m in the vertical direction, the first group 242 indicates a separate stereoscopic image, and the second group 254 is not generated.

なお、ここでは、車両らしさとして、車両の大きさの妥当性を判定しているが、かかる場合に限らず、車両の他の特徴を用いて車両らしさを判定してもよい。例えば、車両の後部が1つの面で表される特徴を用い、第1グループ242それぞれによって形成される面と水平面との交線同士がほぼ一直線上になる(傾きが等しくなる)ことをもって車両らしいと判定してもよい。   Here, the validity of the size of the vehicle is determined as the likelihood of the vehicle, but the present invention is not limited to this, and the likelihood of the vehicle may be determined using other characteristics of the vehicle. For example, using the feature that the rear part of the vehicle is represented by one surface, the intersection line between the surface formed by each of the first groups 242 and the horizontal surface is almost in a straight line (the inclination is equal), which seems to be a vehicle. May be determined.

このように距離条件と車両性条件を満たす第2グループ254を生成することで、先行車両が領域250として一体的に認識されず、複数の部位として認識された場合においても、図7(b)のように、適切な大きさで立体像(第2グループ254)を形成することが可能となる。しかし、かかる条件のみでは、以下の問題が生じ得る。   By generating the second group 254 that satisfies the distance condition and the vehicle property in this way, even when the preceding vehicle is not integrally recognized as the region 250 but is recognized as a plurality of parts, FIG. As described above, a stereoscopic image (second group 254) can be formed with an appropriate size. However, the following problems may occur only under such conditions.

ここで、図8(a)に示すように、距離があまり離隔していない別体の立体物260、例えば、看板と車両に相当する2つの第1グループ242が画像の幅方向に並んで位置しているとする。このとき、第1グループ242同士の距離が第2距離範囲内であり(距離条件を満たし)、図8(b)のように、第1グループ242同士を統合した第2グループ254の大きさが車両として妥当な大きさであった(車両性条件を満たした)とする。そうすると、第2グループ化部168は、第1グループ242同士を統合した第2グループ254を特定物の候補となる立体物として認識するので、衝突回避制御やクルーズコントロールによって、快適な走行が却って阻害されるおそれがある。   Here, as shown in FIG. 8A, separate three-dimensional objects 260 that are not far apart, for example, two first groups 242 corresponding to a signboard and a vehicle are arranged side by side in the width direction of the image. Suppose you are. At this time, the distance between the first groups 242 is within the second distance range (the distance condition is satisfied), and the size of the second group 254 that integrates the first groups 242 is as shown in FIG. 8B. It is assumed that the vehicle has a reasonable size (a vehicle condition is satisfied). Then, since the 2nd grouping part 168 recognizes the 2nd group 254 which unified 1st group 242 as a solid thing which becomes a candidate of a specific thing, comfortable run on the contrary is obstructed by collision avoidance control and cruise control. There is a risk of being.

ここで、図7と図8とを比較すると、図7(b)に一点鎖線で示した、第1グループ242同士の幅方向の間であり、画像上、第1グループ242と高さ方向の位置が重なる領域(したがって、幅は第1グループ242間の距離、高さは第1グループ242と等しい領域)262に存在するブロックの相対距離zは、第1グループ242の相対距離zとほぼ等しいのに対し、図8(b)に一点鎖線で示した、第1グループ242同士の幅方向の間の領域262に存在するブロック(ポール)の相対距離zは、第1グループ242より遠方である点が異なる。なお、ここでは、高さ方向の位置が重なる領域の対象として、2つの第1グループ242の高さ方向の最大値をとる。すなわち、2つの第1グループ242のうち上辺が高い第1グループ242の高さの最大値から、2つの第1グループ242のうち下辺が低い第1グループ242の高さの最小値までを高さ方向の位置が重なる領域としている。ただし、本実施形態の領域の対象は、かかる場合に限らず、規則的に定められていれば足り、例えば、2つの第1グループ242の高さ方向の最小値、すなわち、2つの第1グループ242のうち上辺が低い第1グループ242の高さの最大値から、2つの第1グループ242のうち下辺が高い第1グループ242の高さの最小値までとしてもよい。また、2つの第1グループ242のうちいずれか一方の第1グループ242を対象としてもよく、例えば、高さ方向の長さが長い方、高さ方向の長さが短い方、画像左側に位置する方、画像右側に位置する方を選択することができる。   Here, when FIG. 7 is compared with FIG. 8, it is between the width directions of the first groups 242 indicated by a one-dot chain line in FIG. The relative distance z of the blocks existing in the overlapping area (therefore, the width is the distance between the first groups 242 and the height is the same as the first group 242) 262 is approximately equal to the relative distance z of the first group 242. On the other hand, the relative distance z of the blocks (poles) existing in the region 262 between the first groups 242 in the width direction, which is indicated by a one-dot chain line in FIG. 8B, is farther from the first group 242. The point is different. Here, the maximum value in the height direction of the two first groups 242 is taken as the target of the region where the positions in the height direction overlap. That is, the height from the maximum value of the height of the first group 242 whose upper side is higher among the two first groups 242 to the minimum value of the height of the first group 242 whose lower side is lower among the two first groups 242. It is an area where the position of the direction overlaps. However, the target of the region of the present embodiment is not limited to this case, and it is sufficient if it is determined regularly. For example, the minimum value in the height direction of the two first groups 242, that is, the two first groups The maximum height of the first group 242 having the lower upper side of the 242 may be set to the minimum value of the height of the first group 242 having the higher lower side of the two first groups 242. In addition, one of the two first groups 242 may be the target, for example, the one with the longer height in the height direction, the one with the shorter length in the height direction, or the left side of the image. You can select the person who wants to be on the right side of the image.

そこで、第2グループ化部168は、第1グループ242同士の幅方向の間であり、画像上、第1グループ242と高さ方向の位置が重なる領域262に存在するブロック(相対距離zを得ることができたブロック)の相対距離zに応じて、第1グループ242同士の連続性を判断する。   Therefore, the second grouping unit 168 obtains a block (relative distance z) that exists between the first groups 242 in the width direction and exists in a region 262 where the position of the first group 242 and the height direction overlaps on the image. The continuity between the first groups 242 is determined according to the relative distance z of the blocks).

(連続性条件)
具体的に、第2グループ化部168は、第1グループ242同士が幅方向左右の位置関係にある場合に、第1グループ242同士の幅方向の間であり、画像上、第1グループ242と高さ方向の位置が重なる領域262において、所定の閾値(例えば5m)以上遠方に位置する(第1グループ242との相対距離zが閾値以上離れている)ブロックが所定数(例えば10)未満であれば、第1グループ242同士は特定物の候補となる同じ立体像を示すものとして、第1グループ242同士を正式に統合して当該第2グループ254を生成し、所定数以上であれば、第1グループ242はそれぞれ別体の立体像を示すとして、第2グループ254の生成を行わない。なお、所定数を1とすることで、所定の閾値以上遠方に位置するブロック自体が有るか無いかを条件とすることができる。
(Continuity condition)
Specifically, the second grouping unit 168 is located between the first groups 242 in the width direction when the first groups 242 are in the left-right positional relationship with each other. In the region 262 where the positions in the height direction overlap, the number of blocks located farther than a predetermined threshold (for example, 5 m) (the relative distance z to the first group 242 is more than the threshold) is less than a predetermined number (for example, 10). If there is, the first groups 242 form the second group 254 by formally integrating the first groups 242 with each other indicating the same stereoscopic image as a candidate for the specific object. The first group 242 indicates a separate stereoscopic image, and the second group 254 is not generated. Note that by setting the predetermined number to 1, it is possible to make a condition whether or not there is a block itself located farther than a predetermined threshold.

ここでは、所定の閾値(例えば5m)以上遠方に位置するブロックの数に応じて連続性を判断しているが、かかる場合に限らず、分割立体像候補220の数(分割領域216の数)に応じて連続性を判断してもよい。   Here, continuity is determined according to the number of blocks located far away from a predetermined threshold (for example, 5 m). However, the present invention is not limited to this, and the number of divided stereoscopic image candidates 220 (number of divided regions 216). The continuity may be determined according to

こうすることで、図7に示した先行車両は、統合条件(距離条件、車両性条件、連続性条件の全て)を満たすので、その先行車両の領域250全てを第2グループ254として抽出できる。一方、図8に示した別体の立体物260は、距離条件、車両性条件を満たしたとしても、連続性条件を満たさないので(統合条件を満たさないので)、第2グループ254の生成が行われず、統合される前の第1グループ242それぞれが特定物の候補となる立体像になる。   By doing so, the preceding vehicle shown in FIG. 7 satisfies the integration condition (all of the distance condition, the vehicle property condition, and the continuity condition), so that the entire region 250 of the preceding vehicle can be extracted as the second group 254. On the other hand, even if the separate three-dimensional object 260 shown in FIG. 8 satisfies the distance condition and the vehicle property condition, it does not satisfy the continuity condition (because the integration condition is not satisfied), so that the second group 254 is generated. Each of the first groups 242 before being integrated becomes a stereoscopic image that is a candidate for a specific object.

また、第1グループ242と、画像上、高さ方向の位置が重なる領域262のみを連続性条件の対象とすることで、第1グループ242同士の幅方向の間であって、かつ、第1グループ242より垂直上方や垂直下方に他の立体像が存在する場合であっても、互いに影響されることがない。   In addition, by setting only the region 262 where the position in the height direction on the image overlaps the first group 242, the width is between the first groups 242 and the first Even if another stereoscopic image exists vertically above or vertically below the group 242, there is no influence on each other.

例えば、図9(a)の距離画像212のように、相対距離zが近い側(手前側)の下方にフェンスがあり、遠い側(奥側)に立体物260が存在しているとする。ここで、状況によっては、同一のフェンスを示す第1グループ242同士が離れて生成されることがある。しかも、その幅方向の間には立体物260も存在している。しかし、第1グループ242と、画像上、高さ方向の位置が重なる領域262のみを連続性条件の対象としているので、適切に、特定物を特定することが可能となる。   For example, as shown in the distance image 212 of FIG. 9A, it is assumed that there is a fence below the side (near side) where the relative distance z is short and the three-dimensional object 260 exists on the far side (back side). Here, depending on the situation, the first groups 242 indicating the same fence may be generated apart from each other. Moreover, a three-dimensional object 260 also exists between the width directions. However, since only the first group 242 and the region 262 where the position in the height direction overlaps on the image are targeted for the continuity condition, it is possible to appropriately specify the specific object.

同様に、図9(b)の距離画像212のように、相対距離zが近い側(手前側)の上方に道路情報表示器があり、遠い側(奥側)に立体物260が存在しているとする。ここで、同一の道路情報表示器を示す第1グループ242同士が離れて生成されることがある。しかも、その幅方向の間には立体物260も存在している。しかし、第1グループ242と、画像上、高さ方向の位置が重なる領域262のみを連続性条件の対象としているので、図9(a)同様、適切に、特定物を特定することが可能となる。   Similarly, as shown in the distance image 212 of FIG. 9B, the road information indicator is above the side where the relative distance z is near (front side), and the three-dimensional object 260 is present on the far side (back side). Suppose that Here, the first groups 242 indicating the same road information display may be generated apart from each other. Moreover, a three-dimensional object 260 also exists between the width directions. However, since only the region 262 where the position in the height direction on the image overlaps with the first group 242 is the target of the continuity condition, it is possible to appropriately specify the specific object as in FIG. 9A. Become.

(特定物特定処理S208)
特定物特定部170は、第2グループ化部168がグループ化した第2グループ254、および、第2グループ化部168がグループ化を行わなかった第1グループ242を、複数の特定物の条件と比較し、条件を満たすと、特定物として特定する。例えば、特定物特定部170は、第2グループ化部168がグループ化した第2グループ254の幅が2.0m以上であり、第2グループ254の高さが1.0m以上であり、第2グループ254の道路表面からの高さが2.0m以下であり、自車両1の走行軌跡からの水平距離が5.0m以下であれば、その第1グループ242を先行車両と特定する。以上の構成により、道路上に位置する先行車両を効率的かつ適切に抽出することができる。
(Specific object identification process S208)
The specific object specifying unit 170 sets the second group 254 grouped by the second grouping unit 168 and the first group 242 not grouped by the second grouping unit 168 as a plurality of specific object conditions. If it is compared and the condition is satisfied, it is specified as a specific object. For example, in the specific object specifying unit 170, the width of the second group 254 grouped by the second grouping unit 168 is 2.0 m or more, and the height of the second group 254 is 1.0 m or more. If the height of the group 254 from the road surface is 2.0 m or less and the horizontal distance from the traveling locus of the host vehicle 1 is 5.0 m or less, the first group 242 is identified as the preceding vehicle. With the above configuration, the preceding vehicle located on the road can be extracted efficiently and appropriately.

(車両制御処理S210)
車両制御部172は、特定物特定部170が先行車両を特定すると、その先行車両を追跡しつつ、先行車両の相対速度等を導出し、先行車両と自車両1とが衝突する可能性が高いか否かの判定を行い、その結果を車両制御装置130に出力する。こうして、衝突回避制御やクルーズコントロールが実行される。
(Vehicle control processing S210)
When the specific object specifying unit 170 specifies the preceding vehicle, the vehicle control unit 172 derives the relative speed or the like of the preceding vehicle while tracking the preceding vehicle, and there is a high possibility that the preceding vehicle and the host vehicle 1 collide with each other. And the result is output to the vehicle control device 130. Thus, collision avoidance control and cruise control are executed.

以上、説明したように、本実施形態の車外環境認識装置120では、別体の立体物の距離が近い場合であっても、制御対象となる領域、例えば、先行車両を適切に特定することができるので、安定した衝突回避制御やクルーズコントロールを実現することが可能となる。   As described above, in the outside environment recognition device 120 of the present embodiment, even when the distance of a separate three-dimensional object is short, an area to be controlled, for example, a preceding vehicle can be appropriately specified. Therefore, stable collision avoidance control and cruise control can be realized.

また、上記車外環境認識装置120に加え、コンピュータを車外環境認識装置120として機能させるプログラムや、当該プログラムを記録した、コンピュータで読み取り可能なフレキシブルディスク、光磁気ディスク、ROM、CD、DVD、BD等の記憶媒体も提供される。ここで、プログラムは、任意の言語や記述方法にて記述されたデータ処理手段をいう。   Further, in addition to the above-described vehicle environment recognition device 120, a program that causes a computer to function as the vehicle environment recognition device 120, a computer-readable flexible disk, magneto-optical disk, ROM, CD, DVD, BD, or the like that records the program. A storage medium is also provided. Here, the program refers to data processing means described in an arbitrary language or description method.

以上、添付図面を参照しながら本発明の好適な実施形態について説明したが、本発明はかかる実施形態に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。   As mentioned above, although preferred embodiment of this invention was described referring an accompanying drawing, it cannot be overemphasized that this invention is not limited to this embodiment. It will be apparent to those skilled in the art that various changes and modifications can be made within the scope of the claims, and these are naturally within the technical scope of the present invention. Is done.

例えば、上述した実施形態においては、第2グループ化部168が、統合条件としての距離条件、車両性条件、連続性条件の3つの条件を全て満たした場合に、第1グループ242同士を統合し、第2グループ254を生成する例を挙げて説明したが、かかる場合に限らず、統合条件として、少なくとも距離条件、連続性条件の2つの条件を満たせば、第2グループ254を生成することができる。   For example, in the above-described embodiment, when the second grouping unit 168 satisfies all the three conditions of the distance condition, the vehicle condition, and the continuity condition as the integration conditions, the first groups 242 are integrated. However, the present invention is not limited to such a case, and the second group 254 may be generated if at least two conditions of the distance condition and the continuity condition are satisfied as the integration condition. it can.

また、上述した実施形態においては、同時に撮像された一対のフレーム画像(ステレオ画像)への適用例について説明したが、本発明はこれに限定されるものではなく、互いに関連性を有する一対のフレーム領域に対して広く適用可能である。このようなフレーム領域の別の例としては、いわゆるオプティカルフローの処理対象となる、異なる時刻に撮像された一対のフレーム画像が挙げられる。この場合、上述した撮像装置110の代わりに単眼カメラが用いられ、フレーム画像が時系列的に出力される。また、このようなフレーム領域は、輝度によって規定される画像(輝度分布)に限定されるものではなく、輝度以外の情報(例えば、遠赤外線カメラより得られる熱分布、レーザレーダやミリ波レーダより得られる反射強度の分布等)によって規定されるものであってもよい。   In the above-described embodiment, the application example to a pair of frame images (stereo images) captured at the same time has been described. However, the present invention is not limited to this, and a pair of frames having relevance to each other. Widely applicable to the area. As another example of such a frame region, there is a pair of frame images captured at different times, which are targets of so-called optical flow processing. In this case, a monocular camera is used instead of the imaging device 110 described above, and frame images are output in time series. Further, such a frame region is not limited to an image (luminance distribution) defined by luminance, but information other than luminance (for example, heat distribution obtained from a far-infrared camera, laser radar or millimeter wave radar) It may be defined by the obtained reflection intensity distribution or the like.

なお、本明細書の車外環境認識処理の各工程は、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はなく、並列的あるいはサブルーチンによる処理を含んでもよい。   It should be noted that each step of the vehicle environment recognition processing in the present specification does not necessarily have to be processed in time series in the order described in the flowchart, and may include processing in parallel or by a subroutine.

本発明は、自車両外の環境を認識する車外環境認識装置にかかり、特に、自車両の制御対象となる領域を特定する車外環境認識装置に利用することができる。   The present invention relates to a vehicle exterior environment recognition device that recognizes an environment outside the host vehicle, and can be used particularly for a vehicle exterior environment recognition device that identifies a region to be controlled by the host vehicle.

120 車外環境認識装置
166 第1グループ化部
168 第2グループ化部
242 第1グループ
254 第2グループ
120 Outside-vehicle environment recognition device 166 First grouping unit 168 Second grouping unit 242 First group 254 Second group

Claims (2)

像装置により撮像された画像のうち、複数の、所定の画素の配列で表されたブロックを3次元の位置情報に変換した場合の該複数のブロック間の距離が第1距離範囲内となると、該複数のブロック同士をグループ化して第1グループを生成する第1グループ化部と、
前記第1グループ化部がグループ化した複数の前記第1グループを3次元の位置情報に変換した場合の該複数の第1グループ間の距離が前記第1距離範囲より大きい第2距離範囲内であり、かつ、該複数の第1グループ同士が幅方向左右の位置関係にある場合に、該複数の第1グループ同士の幅方向の間であり、画像上、該複数の第1グループと高さ方向の位置が重なる領域において、自車両前方の相対距離が所定の閾値以上離れているブロックが所定数未満である統合条件を満たせば、該複数の第1グループ同士を統合して第2グループを生成し、
前記複数の第1グループの距離が前記第2距離範囲内であり、かつ、該複数の第1グループ同士が幅方向左右の位置関係にある場合であっても、前記統合条件を満たさなければ、該複数の第1グループ同士を統合しない第2グループ化部と、
を備える車外環境認識装置。
Of the image captured by the imaging device, the plurality, the distance between the plurality of blocks in the case of converting the block represented by sequence of a given pixel in the 3-dimensional position information is within the first distance range A first grouping unit that groups the plurality of blocks to generate a first group;
Within the plurality of distances between the first group is the first distance range is greater than the second distance range when the first grouping unit has converted a plurality of said first group of grouped three-dimensional position information There, and in the case where the plurality of first group with each other in a positional relationship in the width direction left is between the width direction between the plurality of first group, the image on the first group and the height of the plurality in the region where the direction of the position overlap satisfies the integrated conditional block relative distance of the vehicle ahead is away more than a predetermined threshold value is less than the predetermined number, the second group by integrating together said plurality of first group Generate
Wherein a plurality of the distance said second distance range between the first group, and, even when the plurality of first group with each other in a positional relationship in the width direction right, to meet the integrated condition a second grouping unit that does not integrate with each other the plurality of first group,
A vehicle exterior environment recognition device.
前記第2グループ化部は、さらに、前記複数の第1グループ同士を統合した場合の大きさが車両として妥当な大きさである場合に限り、該複数の第1グループ同士を統合して前記第2グループを生成することを特徴とする請求項1に記載の車外環境認識装置。 The second grouping unit is further only if the size of the case of the integration of the first group among the plurality is a reasonably large as the vehicle, the integrated with each other the plurality of first group third The outside environment recognition device according to claim 1, wherein two groups are generated.
JP2015070329A 2015-03-30 2015-03-30 Outside environment recognition device Active JP6591188B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015070329A JP6591188B2 (en) 2015-03-30 2015-03-30 Outside environment recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015070329A JP6591188B2 (en) 2015-03-30 2015-03-30 Outside environment recognition device

Publications (2)

Publication Number Publication Date
JP2016191988A JP2016191988A (en) 2016-11-10
JP6591188B2 true JP6591188B2 (en) 2019-10-16

Family

ID=57246761

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015070329A Active JP6591188B2 (en) 2015-03-30 2015-03-30 Outside environment recognition device

Country Status (1)

Country Link
JP (1) JP6591188B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6582027B2 (en) 2016-09-29 2019-09-25 花王株式会社 Foam discharge container
JP7062904B2 (en) * 2016-11-25 2022-05-09 株式会社リコー Information processing equipment, image pickup equipment, equipment control system, mobile body, information processing method and program
CN109541583B (en) * 2018-11-15 2020-05-01 众安信息技术服务有限公司 Front vehicle distance detection method and system
JP7406962B2 (en) * 2019-11-26 2023-12-28 株式会社Subaru Image processing device

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001331788A (en) * 2000-05-22 2001-11-30 Mitsubishi Electric Corp Vehicle detector
JP5612621B2 (en) * 2012-02-28 2014-10-22 富士重工業株式会社 Outside environment recognition device
JP6013884B2 (en) * 2012-11-08 2016-10-25 日立オートモティブシステムズ株式会社 Object detection apparatus and object detection method
CN104217208B (en) * 2013-06-03 2018-01-16 株式会社理光 Object detection method and device

Also Published As

Publication number Publication date
JP2016191988A (en) 2016-11-10

Similar Documents

Publication Publication Date Title
US8941738B2 (en) Vehicle exterior monitoring device and vehicle exterior monitoring method
JP6202367B2 (en) Image processing device, distance measurement device, mobile device control system, mobile device, and image processing program
JP5886809B2 (en) Outside environment recognition device
JP5906224B2 (en) Outside environment recognition device
JP7206583B2 (en) Information processing device, imaging device, device control system, moving object, information processing method and program
JP6743882B2 (en) Image processing device, device control system, imaging device, image processing method, and program
JP6741646B2 (en) Exterior environment recognition device
JP6591188B2 (en) Outside environment recognition device
JP2016146118A (en) Road surface detection apparatus and road surface detection method
JP6564218B2 (en) Outside environment recognition device
JP2015184907A (en) Image processor and image processing program
JP5955291B2 (en) Filtering device and environment recognition system
JP2010224936A (en) Object detection device
JP7356319B2 (en) Vehicle exterior environment recognition device
JP7229032B2 (en) External object detection device
JP7261006B2 (en) External environment recognition device
JP6174960B2 (en) Outside environment recognition device
JP6660367B2 (en) Outside environment recognition device
JP6240475B2 (en) Outside environment recognition device
JP6378594B2 (en) Outside environment recognition device
JP2019028528A (en) Vehicle exterior environment recognition apparatus
JP7071102B2 (en) External environment recognition device
JP5890816B2 (en) Filtering device and environment recognition system
JP6273156B2 (en) Pedestrian recognition device
JP2016143264A (en) Outside of car environment recognizing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190418

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190820

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190918

R150 Certificate of patent or registration of utility model

Ref document number: 6591188

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250