JP6313667B2 - Outside environment recognition device - Google Patents

Outside environment recognition device Download PDF

Info

Publication number
JP6313667B2
JP6313667B2 JP2014119300A JP2014119300A JP6313667B2 JP 6313667 B2 JP6313667 B2 JP 6313667B2 JP 2014119300 A JP2014119300 A JP 2014119300A JP 2014119300 A JP2014119300 A JP 2014119300A JP 6313667 B2 JP6313667 B2 JP 6313667B2
Authority
JP
Japan
Prior art keywords
cluster
group
clusters
unit
width
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014119300A
Other languages
Japanese (ja)
Other versions
JP2015232792A (en
Inventor
辰之輔 木戸
辰之輔 木戸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Subaru Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Subaru Corp filed Critical Subaru Corp
Priority to JP2014119300A priority Critical patent/JP6313667B2/en
Publication of JP2015232792A publication Critical patent/JP2015232792A/en
Application granted granted Critical
Publication of JP6313667B2 publication Critical patent/JP6313667B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本発明は、検出領域に存在する立体物がいずれの特定物に対応するかを特定する車外環境認識装置に関する。   The present invention relates to a vehicle environment recognition apparatus that identifies which specific object corresponds to a three-dimensional object existing in a detection area.

従来、自車両の前方に位置する車両等の特定物を検出し、先行車両との衝突を回避したり(衝突回避制御)、先行車両との車間距離を安全な距離に保つように制御する(クルーズコントロール)技術が知られている(例えば、特許文献1)。このような自車両の前方監視技術により、先行車両や歩行者などの物体との接触事故の回避や軽減にも効果が期待されている。   Conventionally, a specific object such as a vehicle positioned in front of the host vehicle is detected, and a collision with a preceding vehicle is avoided (collision avoidance control), or the distance between the preceding vehicle and the preceding vehicle is controlled to be a safe distance ( (Cruise control) technology is known (for example, Patent Document 1). Such forward monitoring technology of the host vehicle is expected to be effective in avoiding and reducing contact accidents with objects such as preceding vehicles and pedestrians.

特許文献1には、物体の特定技術として、自車両前方の車外環境を撮像した画像から、所定の画素群で構成されるブロックごとの三次元位置を導出し、三次元位置が近いブロック同士をグループ化して立体物を特定して、立体物の大きさ、形状等に基づき、立体物がいずれの特定物に対応するかを特定する技術が記載されている。   In Patent Document 1, as a technique for identifying an object, a three-dimensional position for each block composed of a predetermined pixel group is derived from an image obtained by capturing an environment outside the vehicle in front of the host vehicle, and blocks having similar three-dimensional positions are derived from each other. A technique is described in which a three-dimensional object is specified by grouping, and a solid object corresponds to the specific object based on the size, shape, and the like of the solid object.

特許第3349060号公報Japanese Patent No. 3349060

ところで、降雨や降雪等の環境下で車外環境を撮像した場合、露光時間の間に降下した、雨粒や雪粒等の降下物の像は、画像上において線形状に捉えられる。ここで、上述したような物体の特定技術を、降雨や降雪等の環境下で利用する場合、線形状に捉えられた複数の降下物に基づく複数のブロックが、画像上において一定領域を占める立体物としてグループ化されてしまい、車両や歩行者等の特定物と判断されないようにする必要がある。   By the way, when the environment outside the vehicle is imaged under an environment such as rainfall or snowfall, an image of fallen objects such as raindrops or snowdrops that fall during the exposure time is captured in a line shape on the image. Here, when the object identification technique as described above is used in an environment such as rainfall or snowfall, a plurality of blocks based on a plurality of falling objects captured in a line shape occupy a certain area on the image. It is necessary to prevent them from being identified as specific objects such as vehicles and pedestrians because they are grouped as objects.

本発明は、このような課題に鑑み、特定物の特定精度を向上することが可能な車外環境認識装置を提供することを目的としている。   In view of such a problem, an object of the present invention is to provide a vehicle environment recognition apparatus that can improve the accuracy of specifying a specific object.

上記課題を解決するために、本発明の車外環境認識装置は、画像を取得する画像取得部と、取得した前記画像を1または複数の画素で構成される複数のブロックに分割し、当該ブロックごとの三次元位置を導出する位置情報導出部と、前記三次元位置が所定の第1範囲内である複数のブロックをクラスタ化してクラスタを生成するクラスタ生成部と、前記位置情報導出部によって導出されたブロックの三次元位置に基づいて、前記クラスタの三次元位置であるクラスタ三次元位置を当該クラスタごとに導出するクラスタ位置導出部と、前記クラスタ三次元位置が、前記第1範囲よりも大きい第2範囲内である複数のクラスタをグループ化してグループを生成するグループ生成部と、前記画像における前記クラスタの占有領域に基づいて該クラスタの水平方向の幅を該クラスタごとに導出するクラスタ幅導出部と、前記クラスタの水平方向の幅に基づいて、前記グループの水平方向の幅を導出するグループ幅導出部と、前記グループを構成する前記複数のクラスタの水平方向の幅の合計値が、該グループの水平方向の幅に基づいて設定される第1閾値未満であり、かつ、該グループを構成する該複数のクラスタすべての水平方向の幅が、所定の特定物の少なくとも一部として特定されるべき水平方向の幅に基づいて設定される第2閾値未満である場合、該グループのグループ化を解除して前記複数のクラスタに戻すグループ解除部と、前記グループ、および、グループ化されていない前記クラスタを1の立体物とし、該立体物が所定の条件を満たす場合に該立体物を前記所定の特定物と特定する特定物特定部と、を備えたことを特徴とする。   In order to solve the above problems, an external environment recognition apparatus according to the present invention divides an acquired image into a plurality of blocks each composed of one or a plurality of pixels, and acquires the image. A position information deriving unit for deriving a three-dimensional position of the image, a cluster generating unit for generating a cluster by clustering a plurality of blocks having the three-dimensional position within a predetermined first range, and the position information deriving unit. A cluster position deriving unit that derives, for each cluster, a cluster three-dimensional position, which is a three-dimensional position of the cluster, based on the three-dimensional position of the block, and the cluster three-dimensional position is larger than the first range. A group generation unit configured to generate a group by grouping a plurality of clusters within two ranges, and the cluster based on an occupation area of the cluster in the image. A cluster width deriving unit for deriving a horizontal width of each group for each cluster, a group width deriving unit for deriving a horizontal width of the group based on the horizontal width of the cluster, and the group The total value of the horizontal widths of the plurality of clusters is less than a first threshold set based on the horizontal width of the group, and the horizontal direction of all of the plurality of clusters constituting the group Is less than a second threshold set based on a horizontal width to be specified as at least part of the predetermined specific object, the group is ungrouped and returned to the plurality of clusters. The group cancellation unit, the group, and the ungrouped cluster are defined as one solid object, and when the solid object satisfies a predetermined condition, the solid object is the predetermined specific object. Characterized in that and a specific object identifying unit that identifies.

また、前記グループ生成部が3つ以上のクラスタをグループ化して1のグループを生成した場合、前記グループ解除部は、前記グループを構成する前記複数のクラスタの水平方向の幅の合計値が前記第1閾値未満であり、かつ、該グループを構成する該複数のクラスタすべての水平方向の幅が前記第2閾値未満である場合であって、さらに、該グループにおいて隣り合う2つのクラスタ間の水平方向の離隔距離のいずれかが、前記1の立体物とすべき離隔距離に基づいて設定される第3閾値以上である場合、該グループのグループ化を解除して前記複数のクラスタに戻すとしてもよい。   In addition, when the group generation unit groups three or more clusters to generate one group, the group cancellation unit has a total value of horizontal widths of the plurality of clusters constituting the group as the first value. A horizontal direction between two adjacent clusters in the group, wherein the horizontal width of all of the plurality of clusters constituting the group is less than the second threshold value. If any one of the separation distances is equal to or greater than a third threshold set based on the separation distance to be the one three-dimensional object, the grouping may be canceled and returned to the plurality of clusters. .

上記課題を解決するために、本発明の他の車外環境認識装置は、画像を取得する画像取得部と、取得した前記画像を1または複数の画素で構成される複数のブロックに分割し、当該ブロックごとの三次元位置を導出する位置情報導出部と、前記三次元位置が所定の第1範囲内である複数のブロックをクラスタ化してクラスタを生成するクラスタ生成部と、前記位置情報導出部によって導出されたブロックの三次元位置に基づいて、前記クラスタの三次元位置であるクラスタ三次元位置を当該クラスタごとに導出するクラスタ位置導出部と、前記画像における前記クラスタの占有領域に基づいて該クラスタの水平方向の幅を該クラスタごとに導出するクラスタ幅導出部と、前記複数のクラスタの水平方向の幅の合計値が、第1閾値以上である、もしくは、該複数のクラスタすべての水平方向の幅が、所定の特定物の少なくとも一部として特定されるべき水平方向の幅に基づいて設定される第2閾値以上である場合、該複数のクラスタをグループ化してグループを生成するグループ生成部と、前記グループ、および、グループ化されていない前記クラスタを1の立体物とし、該立体物が所定の条件を満たす場合に該立体物を前記所定の特定物と特定する特定物特定部と、を備え、前記第1閾値は、前記クラスタの水平方向の幅に応じて導出される前記グループの水平方向の幅に基づいて設定されることを特徴とする。   In order to solve the above-described problem, another external environment recognition device of the present invention divides an image acquisition unit that acquires an image and the acquired image into a plurality of blocks including one or a plurality of pixels. A position information deriving unit for deriving a three-dimensional position for each block; a cluster generating unit for generating a cluster by clustering a plurality of blocks having the three-dimensional position within a predetermined first range; and the position information deriving unit. A cluster position deriving unit that derives, for each cluster, a cluster three-dimensional position that is a three-dimensional position of the cluster based on the derived three-dimensional position of the block; and the cluster based on the occupied area of the cluster in the image A horizontal width of each of the clusters, and a total value of the horizontal widths of the plurality of clusters is equal to or greater than a first threshold value. Alternatively, when the horizontal widths of all of the plurality of clusters are equal to or greater than a second threshold set based on the horizontal width to be specified as at least a part of the predetermined specific object, the plurality of clusters A group generation unit that generates a group by grouping the group and the cluster that is not grouped into one solid object, and when the solid object satisfies a predetermined condition, the solid object is A specific object specifying unit that specifies a specific object, wherein the first threshold value is set based on a horizontal width of the group derived according to a horizontal width of the cluster. To do.

また、前記グループ生成部は、前記第2範囲内に3つ以上のクラスタがある場合、前記複数のクラスタの水平方向の幅の合計値が前記第1閾値以上でなく、かつ、該複数のクラスタすべての水平方向の幅が前記第2閾値以上でない場合であって、該複数のクラスタのうち隣り合う2つのクラスタ間の水平方向の幅のいずれかが、前記1の立体物とすべき離隔距離に基づいて設定される第3閾値未満である場合、該複数のクラスタをグループ化するとしてもよい。   In addition, when there are three or more clusters in the second range, the group generation unit is configured such that a total value of horizontal widths of the plurality of clusters is not equal to or more than the first threshold value, and the plurality of clusters When all horizontal widths are not equal to or greater than the second threshold value, any one of the horizontal widths between two adjacent clusters among the plurality of clusters is the separation distance to be the three-dimensional object. If it is less than the third threshold value set based on, the plurality of clusters may be grouped.

また、前記グループ生成部が、2つのクラスタをグループ化して1のグループを生成する場合、前記第1閾値は、前記グループの水平方向の幅に加えて、該複数のクラスタの相対距離に基づいて設定されるとしてもよい。   Further, when the group generation unit generates two groups by grouping two clusters, the first threshold is based on a relative distance between the plurality of clusters in addition to the horizontal width of the group. It may be set.

本発明によれば、特定物の特定精度を向上することが可能となる。   According to the present invention, it is possible to improve the accuracy of specifying a specific object.

環境認識システムの接続関係を示したブロック図である。It is the block diagram which showed the connection relation of the environment recognition system. 第1の実施形態にかかる車外環境認識装置の概略的な機能を示した機能ブロック図である。It is a functional block diagram showing the schematic function of the outside environment recognition device concerning a 1st embodiment. 第1の実施形態にかかる車外環境認識処理を示すフローチャートである。It is a flowchart which shows the external environment recognition process concerning 1st Embodiment. 輝度画像と距離画像を説明するための説明図である。It is explanatory drawing for demonstrating a luminance image and a distance image. クラスタ生成部の処理を説明するための図である。It is a figure for demonstrating the process of a cluster production | generation part. クラスタ生成部の処理を説明するための図である。It is a figure for demonstrating the process of a cluster production | generation part. グループ生成部によるグループ化処理を説明するための図である。It is a figure for demonstrating the grouping process by a group production | generation part. グループ生成部によるグループ化処理を説明するための図である。It is a figure for demonstrating the grouping process by a group production | generation part. クラスタ幅導出部、グループ幅導出部、グループ解除部の処理を説明するための図である。It is a figure for demonstrating the process of a cluster width deriving part, a group width deriving part, and a group cancellation | release part. 第2の実施形態にかかる車外環境認識装置の概略的な機能を示した機能ブロック図である。It is the functional block diagram which showed the schematic function of the external environment recognition apparatus concerning 2nd Embodiment. 第2の実施形態にかかる車外環境認識処理を示すフローチャートである。It is a flowchart which shows the external environment recognition process concerning 2nd Embodiment.

以下に添付図面を参照しながら、本発明の好適な実施形態について詳細に説明する。かかる実施形態に示す寸法、材料、その他具体的な数値などは、発明の理解を容易とするための例示にすぎず、特に断る場合を除き、本発明を限定するものではない。なお、本明細書および図面において、実質的に同一の機能、構成を有する要素については、同一の符号を付することにより重複説明を省略し、また本発明に直接関係のない要素は図示を省略する。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. The dimensions, materials, and other specific numerical values shown in the embodiment are merely examples for facilitating understanding of the invention, and do not limit the present invention unless otherwise specified. In the present specification and drawings, elements having substantially the same function and configuration are denoted by the same reference numerals, and redundant description is omitted, and elements not directly related to the present invention are not illustrated. To do.

近年では、車両に搭載した車載カメラによって自車両の前方の車外環境を撮像し、撮像した画像内における色情報や位置情報に基づいて先行車両等の立体物を特定し、特定された立体物との衝突を回避したり、先行車両との車間距離を安全な距離に保つ(ACC:Adaptive Cruise Control)、所謂衝突防止機能を搭載した車両が普及しつつある。   In recent years, an in-vehicle camera mounted on a vehicle images an environment outside the vehicle ahead, identifies a three-dimensional object such as a preceding vehicle based on color information and position information in the captured image, Vehicles equipped with a so-called collision prevention function that avoids such collisions and keeps the distance between the vehicle and the preceding vehicle at a safe distance (ACC: Adaptive Cruise Control) are becoming popular.

かかるACCや衝突防止機能では、例えば、自車両前方に位置する立体物の、自車両との相対距離を導出し、かかる相対距離に基づいて、自車両の前方に位置する立体物との衝突を回避したり、立体物が車両(先行車両)であった場合、その先行車両との相対距離を安全な距離に保つように制御する。以下、このような目的を達成するための環境認識システムを説明し、その具体的な構成要素である車外環境認識装置を詳述する。   In the ACC and the collision prevention function, for example, a relative distance between a three-dimensional object located in front of the own vehicle and the own vehicle is derived, and based on the relative distance, a collision with a three-dimensional object located in front of the own vehicle is detected. If it is avoided or the three-dimensional object is a vehicle (preceding vehicle), control is performed so that the relative distance to the preceding vehicle is kept at a safe distance. Hereinafter, an environment recognition system for achieving such an object will be described, and a vehicle exterior environment recognition apparatus as a specific component thereof will be described in detail.

(環境認識システム100)
図1は、環境認識システム100の接続関係を示したブロック図である。環境認識システム100は、自車両1内に設けられた、撮像装置110と、車外環境認識装置120、420と、車両制御装置(ECU:Engine Control Unit)130とを含んで構成される。
(Environment recognition system 100)
FIG. 1 is a block diagram showing a connection relationship of the environment recognition system 100. The environment recognition system 100 includes an imaging device 110, vehicle exterior environment recognition devices 120 and 420, and a vehicle control device (ECU: Engine Control Unit) 130 provided in the host vehicle 1.

撮像装置110は、CCD(Charge-Coupled Device)やCMOS(Complementary Metal-Oxide Semiconductor)等の撮像素子を含んで構成され、自車両1の前方に相当する環境を撮像し、3つの色相(R(赤)、G(緑)、B(青))からなる輝度画像やモノクロ画像の画像データを生成する。ここでは、撮像装置110で撮像された画像を輝度画像として採用し、後述する距離画像と区別する。   The imaging device 110 includes an imaging element such as a charge-coupled device (CCD) or a complementary metal-oxide semiconductor (CMOS), captures an environment corresponding to the front of the host vehicle 1, and captures three hues (R ( Brightness images and monochrome image data consisting of red), G (green), and B (blue)) are generated. Here, an image picked up by the image pickup device 110 is adopted as a luminance image, and is distinguished from a distance image described later.

また、撮像装置110は、自車両1の進行方向側において2つの撮像装置110それぞれの光軸が略平行になるように、略水平方向に離隔して配置される。撮像装置110は、自車両1の前方の検出領域に存在する立体物を撮像した画像データを、例えば1/60秒のフレーム毎(60fps)に連続して生成する。ここで、画像内において認識する立体物は、車両、歩行者、信号機、道路(進行路)、ガードレール、建物といった独立して存在する立体物のみならず、ブレーキランプ、ハイマウントストップランプ、テールランプ、ウィンカー、信号機の各点灯部分等、立体物の一部として特定できる物も含む。以下の実施形態における各機能部は、このような画像データの更新を契機としてフレーム毎に各処理を遂行する。   In addition, the imaging devices 110 are arranged in a substantially horizontal direction so that the optical axes of the two imaging devices 110 are substantially parallel on the traveling direction side of the host vehicle 1. The imaging device 110 continuously generates image data obtained by imaging a three-dimensional object existing in the detection area in front of the host vehicle 1, for example, every 1/60 second frame (60 fps). Here, solid objects to be recognized in the image are not only solid objects such as vehicles, pedestrians, traffic lights, roads (traveling paths), guardrails, buildings, but also brake lights, high-mount stop lamps, tail lamps, The thing which can be specified as a part of solid objects, such as each lighting part of a blinker and a traffic light, is also included. Each functional unit in the following embodiment performs each process for each frame in response to such update of the image data.

車外環境認識装置120、420は、2つの撮像装置110それぞれから画像データを取得し、所謂パターンマッチングを用いて視差を導き出し、導出された視差情報(後述する奥行距離に相当)を画像データに対応付けて距離画像を生成する。輝度画像および距離画像については後ほど詳述する。また、車外環境認識装置120、420は、自車両1との相対距離を含む実空間における三次元の位置情報を用いて、自車両1前方の検出領域における立体物がいずれの特定物(例えば、先行車両)に対応するかを特定する。   The vehicle exterior environment recognition devices 120 and 420 acquire image data from each of the two imaging devices 110, derive parallax using so-called pattern matching, and correspond the derived parallax information (corresponding to a depth distance described later) to the image data. Add a distance image. The luminance image and the distance image will be described in detail later. Further, the outside environment recognition devices 120 and 420 use the three-dimensional position information in the real space including the relative distance to the host vehicle 1 to determine which three-dimensional object in the detection area in front of the host vehicle 1 is (for example, Specify whether it corresponds to the preceding vehicle).

車外環境認識装置120、420は、立体物を任意の特定物、例えば、先行車両を特定すると、その先行車両を追跡しつつ、先行車両との相対距離および先行車両の相対速度等を導出し、先行車両と自車両1とが衝突する可能性が高いか否かの判定を行う。そして、先行車両と衝突の可能性が高いと判定した場合、車外環境認識装置120、420は、その旨、運転者の前方に設置されたディスプレイ122を通じて運転者に警告表示(報知)を行うとともに、車両制御装置130に対して、その旨を示す情報を出力する。   The vehicle exterior environment recognition devices 120 and 420, when specifying a specific object as a three-dimensional object, for example, a preceding vehicle, derives a relative distance from the preceding vehicle, a relative speed of the preceding vehicle, and the like while tracking the preceding vehicle. It is determined whether or not there is a high possibility that the preceding vehicle and the host vehicle 1 collide. When it is determined that there is a high possibility of a collision with the preceding vehicle, the outside environment recognition devices 120 and 420 display a warning (notification) to the driver through the display 122 installed in front of the driver. Then, information indicating that is output to the vehicle control device 130.

車両制御装置130は、ステアリングホイール132、アクセルペダル134、ブレーキペダル136を通じて運転者の操作入力を受け付け、操舵機構142、駆動機構144、制動機構146に伝達することで自車両1を制御する。また、車両制御装置130は、車外環境認識装置120、420の指示に従い、駆動機構144、制動機構146を制御する。例えば、車外環境認識装置120、420から先行車両と衝突の可能性が高い旨の情報が入力されると、車両制御装置130は、制動機構146を通じて運転者のブレーキ操作を支援する。   The vehicle control device 130 receives a driver's operation input through the steering wheel 132, the accelerator pedal 134, and the brake pedal 136, and controls the host vehicle 1 by transmitting it to the steering mechanism 142, the drive mechanism 144, and the brake mechanism 146. In addition, the vehicle control device 130 controls the drive mechanism 144 and the braking mechanism 146 in accordance with instructions from the outside environment recognition devices 120 and 420. For example, when information indicating that there is a high possibility of a collision with a preceding vehicle is input from the outside environment recognition devices 120 and 420, the vehicle control device 130 supports the driver's braking operation through the braking mechanism 146.

以下、車外環境認識装置120、420の構成について詳述する。ここでは、本実施形態に特徴的な、所定の特定物を特定する処理について詳細に説明し、本実施形態の特徴と無関係の構成については説明を省略する。   Hereinafter, the configuration of the outside environment recognition devices 120 and 420 will be described in detail. Here, the process for specifying a predetermined specific object, which is characteristic of the present embodiment, will be described in detail, and the description of the configuration unrelated to the characteristics of the present embodiment will be omitted.

(第1の実施形態:車外環境認識装置120)
図2は、第1の実施形態にかかる車外環境認識装置120の概略的な機能を示した機能ブロック図である。図2に示すように、車外環境認識装置120は、I/F部150と、データ保持部152と、中央制御部154とを含んで構成される。
(First Embodiment: Outside environment recognition device 120)
FIG. 2 is a functional block diagram showing a schematic function of the vehicle exterior environment recognition apparatus 120 according to the first embodiment. As shown in FIG. 2, the vehicle exterior environment recognition device 120 includes an I / F unit 150, a data holding unit 152, and a central control unit 154.

I/F部150は、撮像装置110や車両制御装置130との双方向の情報交換を行うためのインターフェースである。データ保持部152は、RAM、フラッシュメモリ、HDD等で構成され、以下に示す各機能部の処理に必要な様々な情報を保持し、また、撮像装置110から受信した画像データを一時的に保持する。   The I / F unit 150 is an interface for performing bidirectional information exchange with the imaging device 110 and the vehicle control device 130. The data holding unit 152 includes a RAM, a flash memory, an HDD, and the like. The data holding unit 152 holds various pieces of information necessary for the processing of each function unit described below, and temporarily holds image data received from the imaging device 110. To do.

中央制御部154は、中央処理装置(CPU)、プログラム等が格納されたROM、ワークエリアとしてのRAM等を含む半導体集積回路で構成され、システムバス156を通じて、I/F部150、データ保持部152等を制御する。また、本実施形態において、中央制御部154は、画像取得部160、画像処理部162、位置情報導出部164、クラスタ生成部166、クラスタ位置導出部168、グループ生成部170、クラスタ幅導出部172、グループ幅導出部174、グループ解除部176、特定物特定部178としても機能する。以下、各機能部の動作を説明するとともに、本実施形態に特徴的な車外環境認識処理について詳述する。   The central control unit 154 is configured by a semiconductor integrated circuit including a central processing unit (CPU), a ROM storing a program, a RAM as a work area, and the like, and through the system bus 156, an I / F unit 150, a data holding unit 152 and the like are controlled. In the present embodiment, the central control unit 154 includes the image acquisition unit 160, the image processing unit 162, the position information deriving unit 164, the cluster generation unit 166, the cluster position deriving unit 168, the group generation unit 170, and the cluster width deriving unit 172. , And also functions as a group width deriving unit 174, a group releasing unit 176, and a specific object specifying unit 178. Hereinafter, the operation of each functional unit will be described, and a vehicle environment recognition process characteristic of the present embodiment will be described in detail.

(車外環境認識処理)
図3は、第1の実施形態にかかる車外環境認識処理を示すフローチャートである。車外環境認識装置120の画像取得部160は、2つの撮像装置110それぞれから画像データ(輝度画像)を取得する(S300)。
(External vehicle environment recognition processing)
FIG. 3 is a flowchart showing an environment recognition process outside the vehicle according to the first embodiment. The image acquisition unit 160 of the outside environment recognition device 120 acquires image data (luminance image) from each of the two imaging devices 110 (S300).

画像処理部162は、一方の画像データから任意に抽出したブロック(例えば水平4画素×垂直4画素の配列)に対応するブロックを他方の画像データから検索する、所謂パターンマッチングを用いて視差、および、任意のブロックの画面内の位置を示す画面位置を含む視差情報を導出する(S302)。ここで、水平は、撮像した画像の画面横方向を示し、垂直は、撮像した画像の画面縦方向を示す。このパターンマッチングとしては、一対の画像間において、任意のブロック単位で輝度(Y)を比較することが考えられる。例えば、輝度値の差分をとるSAD(Sum of Absolute Difference)、差分を2乗して用いるSSD(Sum of Squared intensity Difference)や、各画素の輝度から平均値を引いた分散値の類似度をとるNCC(Normalized Cross Correlation)等の手法がある。画像処理部162は、このようなブロック単位の視差導出処理を検出領域(例えば600画素×200画素)に映し出されているすべてのブロックについて行う。ここでは、ブロックを4画素×4画素としているが、ブロック内の画素数は任意に設定することができる。   The image processing unit 162 searches for a block corresponding to a block arbitrarily extracted from one image data (for example, an array of horizontal 4 pixels × vertical 4 pixels) from the other image data, so-called parallax using so-called pattern matching, and The parallax information including the screen position indicating the position of the arbitrary block in the screen is derived (S302). Here, the horizontal indicates the horizontal direction of the captured image, and the vertical indicates the vertical direction of the captured image. As this pattern matching, it is conceivable to compare the luminance (Y) in an arbitrary block unit between a pair of images. For example, SAD (Sum of Absolute Difference) that takes the difference in luminance value, SSD (Sum of Squared intensity Difference) that uses the difference squared, and the similarity of the variance value obtained by subtracting the average value from the luminance of each pixel. There are methods such as NCC (Normalized Cross Correlation). The image processing unit 162 performs such a block-unit parallax derivation process for all blocks displayed in the detection area (for example, 600 pixels × 200 pixels). Here, the block is 4 pixels × 4 pixels, but the number of pixels in the block can be arbitrarily set.

ただし、画像処理部162では、検出分解能単位であるブロック毎に視差を導出することはできるが、そのブロックがどのような立体物の一部であるかを認識できない。したがって、視差情報は、立体物単位ではなく、検出領域における検出分解能単位(例えばブロック単位)で独立して導出されることとなる。ここでは、このようにして導出された視差情報を画像データに対応付けた画像を、上述した輝度画像と区別して距離画像という。   However, the image processing unit 162 can derive the parallax for each block, which is a unit of detection resolution, but cannot recognize what kind of three-dimensional object the block is. Therefore, the parallax information is independently derived not in units of solid objects but in units of detection resolution (for example, blocks) in the detection region. Here, an image in which the parallax information derived in this way is associated with image data is referred to as a distance image in distinction from the above-described luminance image.

図4は、輝度画像126と距離画像128を説明するための説明図である。例えば、2つの撮像装置110を通じ、検出領域124について図4(a)のような輝度画像(画像データ)126が生成されたとする。画像処理部162は、このような輝度画像126からブロック毎の視差を求め、図4(b)のような距離画像128を形成する。距離画像128における各ブロックには、そのブロックの視差が関連付けられている。ここでは、説明の便宜上、視差が導出されたブロックを黒のドットで表している。   FIG. 4 is an explanatory diagram for explaining the luminance image 126 and the distance image 128. For example, assume that a luminance image (image data) 126 as shown in FIG. 4A is generated for the detection region 124 through the two imaging devices 110. The image processing unit 162 obtains the parallax for each block from the luminance image 126 and forms a distance image 128 as shown in FIG. Each block in the distance image 128 is associated with the parallax of the block. Here, for convenience of description, blocks from which parallax is derived are represented by black dots.

図3に戻って説明すると、位置情報導出部164は、距離画像128における検出領域124内のブロック毎の視差情報を、ステレオ法を用いて、水平距離x、(道路表面からの)高さyおよび相対距離zを含む三次元の位置情報に変換する(S304)。ステレオ法は、三角測量法を用いることで、立体物の視差からその立体物の撮像装置110に対する相対距離を導出する方法である。ここで、視差情報が、距離画像128における各ブロックの視差を示すのに対し、三次元の位置情報は、実空間における各ブロックの相対距離の情報を示す。また、視差情報が画素単位ではなくブロック単位、即ち複数の画素単位で導出されている場合、その視差情報はブロックに属するすべての画素の視差情報とみなして、画素単位の計算を実行することができる。かかる三次元の位置情報への変換については、特開2013−109391号公報等、既存の技術を参照できるので、ここでは、その詳細な説明を省略する。   Returning to FIG. 3, the position information deriving unit 164 uses the stereo method to calculate disparity information for each block in the detection area 124 in the distance image 128, the horizontal distance x, and the height y (from the road surface). And converted into three-dimensional position information including the relative distance z (S304). The stereo method is a method of deriving a relative distance of the three-dimensional object from the imaging device 110 from the parallax of the three-dimensional object by using a triangulation method. Here, the parallax information indicates the parallax of each block in the distance image 128, while the three-dimensional position information indicates information on the relative distance of each block in the real space. Further, when the disparity information is derived not in pixel units but in block units, that is, in a plurality of pixel units, the disparity information may be regarded as disparity information of all pixels belonging to the block, and calculation in pixel units may be executed. it can. Regarding the conversion to the three-dimensional position information, since existing techniques such as JP2013-109391A can be referred to, detailed description thereof is omitted here.

続いて、クラスタ生成部166は、三次元位置が所定の第1範囲内である複数のブロックをクラスタ化してクラスタを生成する。   Subsequently, the cluster generation unit 166 generates a cluster by clustering a plurality of blocks whose three-dimensional positions are within a predetermined first range.

図5および図6は、クラスタ生成部166の処理を説明するための図である。クラスタ生成部166は、まず、距離画像128の検出領域124を、水平方向に対して複数の分割領域216に分割する(S306)。すると、分割領域216は図5(a)のような短冊形状になる。このような短冊形状の分割領域216は、本来、例えば、水平幅4画素のものが150列配列してなるが、ここでは、説明の便宜上、検出領域124を16等分したもので説明する。   5 and 6 are diagrams for explaining the processing of the cluster generation unit 166. FIG. The cluster generation unit 166 first divides the detection area 124 of the distance image 128 into a plurality of divided areas 216 in the horizontal direction (S306). Then, the divided area 216 has a strip shape as shown in FIG. Such a strip-shaped divided region 216 is originally composed of, for example, 150 columns each having a horizontal width of 4 pixels, but here, for convenience of explanation, the detection region 124 is divided into 16 parts.

続いて、クラスタ生成部166は、分割領域216毎に、位置情報に基づき、道路表面より上方に位置するすべてのブロックを対象に、複数に区分した所定距離それぞれに含まれる相対距離を積算してヒストグラム(図5(b)中、横長の四角(バー)で示す)を生成する(S308)。すると、図5(b)のような距離分布218が得られる。ここで、縦方向は、区分した所定距離(距離区分)を、横方向は、距離区分それぞれに相対距離が含まれるブロックの個数(度数)を示している。ただし、図5(b)は計算を行う上での仮想的な画面であり、実際には視覚的な画面の生成を伴わない。そして、クラスタ生成部166は、このようにして導出された距離分布218を参照し、ピークに相当する相対距離である代表距離(図5(b)中、黒で塗りつぶした四角で示す)220を特定する(S310)。ここで、ピークに相当するとは、ピーク値またはピーク近傍で任意の条件を満たす値をいう。   Subsequently, for each divided region 216, the cluster generation unit 166 adds up the relative distances included in each of the predetermined distances divided into a plurality of blocks located above the road surface based on the position information. A histogram (indicated by a horizontally long square (bar) in FIG. 5B) is generated (S308). Then, a distance distribution 218 as shown in FIG. 5B is obtained. Here, the vertical direction indicates the divided predetermined distance (distance division), and the horizontal direction indicates the number of blocks (frequency) in which the relative distance is included in each distance division. However, FIG. 5B is a virtual screen for calculation, and actually does not involve generation of a visual screen. Then, the cluster generation unit 166 refers to the distance distribution 218 derived in this way, and represents a representative distance 220 (shown by a black square in FIG. 5B) that is a relative distance corresponding to the peak. Specify (S310). Here, “corresponding to a peak” means a peak value or a value that satisfies an arbitrary condition in the vicinity of the peak.

次に、クラスタ生成部166は、隣接する分割領域216同士を比較し、図6に示すように、代表距離220が近接する(例えば、0.1m以下に位置する)分割領域216をグループ化して1または複数の分割領域群222を生成する(S312)。このとき、3以上の分割領域216で代表距離220が近接していた場合にも、連続するすべての分割領域216を分割領域群222として纏める。これにより、クラスタ生成部166は、道路表面より上方に位置する1または複数の立体物を特定物の候補とすることができる。   Next, the cluster generation unit 166 compares the adjacent divided areas 216 with each other, and groups the divided areas 216 whose representative distance 220 is close (for example, located at 0.1 m or less) as shown in FIG. One or a plurality of divided region groups 222 are generated (S312). At this time, even when the representative distance 220 is close in three or more divided areas 216, all the continuous divided areas 216 are collected as a divided area group 222. Thereby, the cluster generation unit 166 can select one or more solid objects positioned above the road surface as candidates for the specific object.

続いて、クラスタ生成部166は、分割領域群222内における、相対距離zが代表距離220に相当するブロックを基点として、そのブロックと、三次元位置が所定の第1範囲内(水平距離xの差分、高さyの差分および相対距離zの差分が予め定められた範囲(例えば0.1m)内)にあるブロックとを、同一の立体物に対応すると仮定してクラスタ化する(S314)。   Subsequently, the cluster generation unit 166 uses the block in the divided region group 222 whose relative distance z corresponds to the representative distance 220 as a base point, and the block and the three-dimensional position are within a predetermined first range (with a horizontal distance x). Blocks in which the difference, the difference in height y and the difference in relative distance z are within a predetermined range (for example, within 0.1 m) are clustered on the assumption that they correspond to the same three-dimensional object (S314).

こうして、仮想的なブロック群であるクラスタ224が生成される。上記の第1範囲は実空間上の距離で表され、製造者や搭乗者によって任意の値に設定することができる。また、クラスタ生成部166は、クラスタ化により新たに追加されたブロックに関しても、そのブロックを基点として、第1範囲内にあるブロックをさらにクラスタ化する。結果的に、同一の立体物と仮定可能なブロックすべてがクラスタ化されることとなる。   Thus, a cluster 224 that is a virtual block group is generated. Said 1st range is represented by the distance on real space, and can be set to arbitrary values by a manufacturer or a passenger. Also, the cluster generation unit 166 further clusters the blocks within the first range with the block newly added by clustering as a base point. As a result, all blocks that can be assumed to be the same three-dimensional object are clustered.

また、ここでは、水平距離xの差分、高さyの差分および相対距離zの差分をそれぞれ独立して判定し、すべてが第1範囲に含まれる場合のみ同一のクラスタ224としているが、他の計算によることもできる。例えば、第1範囲として、水平距離xの差分、高さyの差分および相対距離zの差分の二乗平均√((水平距離xの差分)+(高さyの差分)+(相対距離zの差分))が所定範囲に含まれる場合に同一のクラスタ224としてもよい。かかる計算により、ブロック同士の実空間上の正確な距離を導出することができるので、クラスタ化の精度を高めることができる。 Here, the difference in horizontal distance x, the difference in height y, and the difference in relative distance z are determined independently, and only when all are included in the first range, the same cluster 224 is used. It can also be calculated. For example, as the first range, the root mean square of the difference in horizontal distance x, the difference in height y, and the difference in relative distance z ((difference in horizontal distance x) 2 + (difference in height y) 2 + (relative distance) The same cluster 224 may be used when the difference z) 2 ) is included in the predetermined range. With this calculation, an accurate distance between blocks in real space can be derived, so that the accuracy of clustering can be improved.

図3に戻って説明すると、クラスタ位置導出部168は、位置情報導出部164によって導出されたブロックの三次元位置に基づいて、クラスタ224の三次元位置であるクラスタ三次元位置をクラスタ224ごとに導出する(S316)。クラスタ位置導出部168は、例えば、クラスタ224を構成するブロックの重心位置を、クラスタ三次元位置として導出したり、クラスタ224を構成するブロックの三次元位置の平均値をクラスタ三次元位置として導出したり、またはクラスタ224を構成するブロックの出現頻度が最も高い三次元位置を、クラスタ三次元位置とすることができる。   Returning to FIG. 3, the cluster position deriving unit 168 determines the cluster three-dimensional position, which is the three-dimensional position of the cluster 224, for each cluster 224 based on the three-dimensional position of the block derived by the position information deriving unit 164. Derived (S316). For example, the cluster position deriving unit 168 derives the barycentric position of the blocks constituting the cluster 224 as the cluster three-dimensional position, or derives the average value of the three-dimensional positions of the blocks constituting the cluster 224 as the cluster three-dimensional position. Alternatively, the three-dimensional position where the frequency of appearance of the blocks constituting the cluster 224 is highest can be set as the cluster three-dimensional position.

グループ生成部170は、クラスタ三次元位置が、上記第1範囲よりも大きい第2範囲内(水平距離xの差分、高さyの差分および相対距離zの差分が予め定められた範囲(例えば0.5m)内)である複数のクラスタ224をグループ化してグループを生成する(S318)。   The group generation unit 170 has a cluster three-dimensional position within a second range that is larger than the first range (a range in which a difference in horizontal distance x, a difference in height y, and a difference in relative distance z are predetermined (for example, 0 A group is generated by grouping a plurality of clusters 224 within (5m)) (S318).

図7および図8は、グループ生成部170によるグループ化処理S318を説明するための図であり、図7(a)、図8(a)、図8(d)は、輝度画像126を示し、図7(b)、図8(b)、図8(e)は、クラスタ生成部166が生成するクラスタ224の概念図を示し、図8(c)、(f)は、グループ生成部170が生成するグループ226の概念図を示す。ただし、図7(b)、図8(b)、図8(c)、図8(e)、図8(f)は計算を行う上での、ブロックの高さに関する情報が省略された仮想的な画面であり、実際には視覚的な画面の生成を伴わない。   7 and 8 are diagrams for explaining the grouping process S318 performed by the group generation unit 170. FIGS. 7A, 8A, and 8D show the luminance image 126, and FIG. FIGS. 7B, 8B, and 8E show conceptual diagrams of the cluster 224 generated by the cluster generation unit 166. FIGS. 8C and 8F show the group generation unit 170. The conceptual diagram of the group 226 to produce | generate is shown. However, FIG. 7 (b), FIG. 8 (b), FIG. 8 (c), FIG. 8 (e), and FIG. 8 (f) are virtual in which information regarding the height of the block is omitted in the calculation. This is a typical screen and does not actually involve the generation of a visual screen.

例えば、図7(a)に示すように、晴天の環境下において、先行車両を含む車外環境を撮像した場合、先行車両全体が輝度画像126に写りこむこととなる。かかる輝度画像126から形成された距離画像128に基づいて、クラスタ生成部166がクラスタ224を生成すると、図7(b)に示すように、1の先行車両が1のクラスタ224として生成されることとなる。   For example, as illustrated in FIG. 7A, when an environment outside the vehicle including a preceding vehicle is imaged under a clear sky environment, the entire preceding vehicle is reflected in the luminance image 126. When the cluster generation unit 166 generates the cluster 224 based on the distance image 128 formed from the luminance image 126, one preceding vehicle is generated as one cluster 224 as shown in FIG. It becomes.

一方、図8(a)に示すように、降雨や降雪等の環境下において、先行車両を含む車外環境を撮像した場合、先行車両に降下物が重畳され、先行車両が降下物によって分断(分割)されて輝度画像126に写りこむことがある。かかる輝度画像126から形成された距離画像128に基づいて、クラスタ生成部166がクラスタ224を生成すると、図8(b)に示すように、1の先行車両から複数(例えば、3つ)のクラスタ224が生成されることとなる。この場合、図8(c)に示すように、グループ生成部170は、クラスタ三次元位置が、上記第1範囲よりも大きい第2範囲内である複数のクラスタ224をグループ化してグループ226を生成することにより、1の立体物(先行車両)を、1のグループ226(ブロック群)として扱うことができる。   On the other hand, as shown in FIG. 8A, when an environment outside the vehicle including a preceding vehicle is imaged under an environment such as rain or snow, a falling object is superimposed on the preceding vehicle, and the preceding vehicle is divided (divided) by the falling object. ) And may appear in the luminance image 126. When the cluster generation unit 166 generates the cluster 224 based on the distance image 128 formed from the luminance image 126, a plurality of (for example, three) clusters from one preceding vehicle as shown in FIG. 8B. 224 will be generated. In this case, as illustrated in FIG. 8C, the group generation unit 170 generates a group 226 by grouping a plurality of clusters 224 whose cluster three-dimensional positions are within the second range that is larger than the first range. By doing so, one solid object (preceding vehicle) can be handled as one group 226 (block group).

また、図8(a)に示すように、輝度画像126には、降下物(雨粒、雪粒等)の像が線形状になって写りこむ。したがって、降下物についても、クラスタ224が生成されることとなるが、クラスタ三次元位置が、第2範囲外である場合には、図8(c)に示すように当該降下物に基づくクラスタ224はグループ化されない。   Further, as shown in FIG. 8A, the luminance image 126 includes an image of falling objects (raindrops, snowdrops, etc.) in a linear shape. Therefore, a cluster 224 is also generated for the falling object. However, if the cluster three-dimensional position is outside the second range, the cluster 224 based on the falling object is shown in FIG. 8C. Are not grouped.

しかし、図8(d)、図8(e)に示すように、降下物に基づく複数のクラスタ224の三次元位置が第2範囲内である場合、降下物に基づく複数のクラスタ224を、誤ってグループ化してしまい(図8(f)参照)、後述する特定物特定部178が、先行車両等の特定物と誤判断してしまうおそれがある。   However, as shown in FIGS. 8D and 8E, when the three-dimensional positions of the plurality of clusters 224 based on the fallout are within the second range, the plurality of clusters 224 based on the fallout are erroneously Grouped (see FIG. 8 (f)), and there is a possibility that the specific object specifying unit 178, which will be described later, may erroneously determine that the specific object is a preceding vehicle or the like.

そこで、本実施形態では、降下物に基づくクラスタ224の水平方向の幅が短いことや、降下物に基づくクラスタ224同士の水平方向の離隔距離が大きいことに着目し、グループ226を構成するクラスタ224の特徴を判定することで、降下物に基づくクラスタ224のグループ化を解除する。以下、かかる処理を実行するクラスタ幅導出部172、グループ幅導出部174、グループ解除部176について詳述する。   Therefore, in the present embodiment, focusing on the fact that the horizontal width of the clusters 224 based on the falling objects is short and the horizontal separation distance between the clusters 224 based on the falling objects is large, the clusters 224 constituting the group 226 are focused on. The grouping of the clusters 224 based on the fallout is canceled by determining the characteristics of Hereinafter, the cluster width deriving unit 172, the group width deriving unit 174, and the group releasing unit 176 that execute such processing will be described in detail.

図9は、クラスタ幅導出部172、グループ幅導出部174、グループ解除部176の処理を説明するための図である。クラスタ幅導出部172は、クラスタ三次元位置および輝度画像126におけるクラスタ224の占有領域に基づいてクラスタ224の水平方向の幅(以下、「クラスタ幅CW」と称する)をクラスタ224ごとに導出する(S320)。ここで、クラスタ幅導出部172は、クラスタ224の占有領域の外接矩形の水平方向の幅をクラスタ幅CWとして導出する。なお、外接矩形は、長方形であり、外縁の横方向が画像の横方向に平行となり、外縁の縦方向が画像の縦方向に平行となる。   FIG. 9 is a diagram for explaining the processing of the cluster width deriving unit 172, the group width deriving unit 174, and the group releasing unit 176. The cluster width deriving unit 172 derives the horizontal width of the cluster 224 (hereinafter referred to as “cluster width CW”) for each cluster 224 based on the cluster three-dimensional position and the area occupied by the cluster 224 in the luminance image 126 (hereinafter referred to as “cluster width CW”). S320). Here, the cluster width deriving unit 172 derives the horizontal width of the circumscribed rectangle of the area occupied by the cluster 224 as the cluster width CW. Note that the circumscribed rectangle is a rectangle, and the horizontal direction of the outer edge is parallel to the horizontal direction of the image, and the vertical direction of the outer edge is parallel to the vertical direction of the image.

グループ幅導出部174は、クラスタ三次元位置およびクラスタ幅CWに基づいて、グループ226の水平方向の幅(以下、「グループ幅GW」と称する)を導出する(S322)。例えば、グループ幅導出部174は、図9に示すように、グループ226を構成するクラスタ224のうち、最も左側に位置するクラスタ224Aの左端から、最も右側に位置するクラスタ224Cの右端までの水平方向の幅をグループ幅GWとする。   The group width deriving unit 174 derives the horizontal width of the group 226 (hereinafter referred to as “group width GW”) based on the cluster three-dimensional position and the cluster width CW (S322). For example, as shown in FIG. 9, the group width deriving unit 174 in the horizontal direction from the left end of the leftmost cluster 224A to the right end of the rightmost cluster 224C among the clusters 224 constituting the group 226 Is the group width GW.

グループ解除部176は、グループ226が、下記(1)〜(3)に示す解除条件をすべて満たすか否かを判定し(S324)、解除条件をすべて満たした場合(S324におけるYES)、グループ226のグループ化を解除してクラスタ224に戻す(S326)。一方、解除条件をすべて満たさない場合(S324におけるNO)、グループ226のグループ化を解除せず、後述する特定物特定処理S328に移る。   The group cancellation unit 176 determines whether or not the group 226 satisfies all the cancellation conditions shown in the following (1) to (3) (S324). If all the cancellation conditions are satisfied (YES in S324), the group 226 Is released and returned to the cluster 224 (S326). On the other hand, when all the release conditions are not satisfied (NO in S324), the grouping of the group 226 is not released and the process proceeds to a specific object specifying process S328 described later.

上記解除条件(1)は、グループ226を構成する複数のクラスタ224のクラスタ幅CWの合計値が、グループ幅GWに基づいて決定される第1閾値未満であることである。第1閾値は、グループ幅GWに所定の係数(1未満)を乗算した値である。ここで、第1閾値は、例えば、降雨や降雪等の環境下において先行車両を撮像した場合に生成されたクラスタ224をグループ化したとき、グループ226を構成する複数のクラスタ224のクラスタ幅CWの合計値が、第1閾値以上となるように設定される値である。   The cancellation condition (1) is that the total value of the cluster widths CW of the plurality of clusters 224 constituting the group 226 is less than a first threshold value determined based on the group width GW. The first threshold is a value obtained by multiplying the group width GW by a predetermined coefficient (less than 1). Here, the first threshold value is, for example, the cluster width CW of the plurality of clusters 224 constituting the group 226 when the clusters 224 generated when the preceding vehicle is imaged in an environment such as rain or snow are grouped. The total value is a value set so as to be equal to or greater than the first threshold value.

降下物に基づくクラスタ224は、撮像装置110の露光時間の間に降下した降下物の像に基づいてクラスタ化されたものである。降下物は、撮像装置110の露光時間の間に水平方向にほとんど移動しないため、降下物に基づくクラスタ224のクラスタ幅CWは小さい。したがって、降下物に基づくクラスタ224がグループ化された場合、グループ幅GWにおける、複数のクラスタ224のクラスタ幅CWの合計値が占める割合は小さくなる。   The cluster 224 based on the falling object is clustered based on the image of the falling object that has fallen during the exposure time of the imaging apparatus 110. Since the falling object hardly moves in the horizontal direction during the exposure time of the imaging device 110, the cluster width CW of the cluster 224 based on the falling object is small. Therefore, when the clusters 224 based on the fallout are grouped, the ratio of the total value of the cluster widths CW of the plurality of clusters 224 in the group width GW is small.

一方、水平方向の幅が降下物よりも大きい1の立体物(例えば、先行車両)から、複数のクラスタ224が生成されるということは、例えば、立体物に降下物が重畳して撮像された場合である。つまり、水平方向の幅が降下物よりも大きい1の立体物から、複数のクラスタ224が生成される際のクラスタ224のクラスタ幅CWの合計値が、降下物に基づく複数のクラスタ224のクラスタ幅CWの合計値よりも小さくなることはないと考えられる。したがって、1の立体物から生成された複数のクラスタ224がグループ化された場合、グループ幅GWにおける、複数のクラスタ224のクラスタ幅CWの合計値が占める割合は大きくなる。   On the other hand, the fact that a plurality of clusters 224 are generated from a single three-dimensional object (for example, a preceding vehicle) whose horizontal width is larger than the falling object means that, for example, the falling object is superimposed on the three-dimensional object and captured. Is the case. That is, the total value of the cluster widths CW of the clusters 224 when the plurality of clusters 224 are generated from one solid object whose horizontal width is larger than the falling object is the cluster width of the plurality of clusters 224 based on the falling object. It is considered that it will not become smaller than the total value of CW. Therefore, when a plurality of clusters 224 generated from one solid object are grouped, the ratio of the total value of the cluster widths CW of the plurality of clusters 224 in the group width GW increases.

したがって、上記解除条件(1)を満たすか否かを判定することにより、グループ226を1の立体物としてみなせるかを判定することができる。   Therefore, by determining whether or not the release condition (1) is satisfied, it is possible to determine whether the group 226 can be regarded as one solid object.

上記解除条件(2)は、グループ226において、すべてのクラスタ224のクラスタ幅CWが第2閾値未満であることである。第2閾値は、所定の特定物(例えば、先行車両)の少なくとも一部として特定されるべき水平方向の幅に基づいて設定され、例えば、雨粒や雪粒等の降下物の水平方向の幅を上回る大きさであるナンバープレートの水平方向の幅である。   The release condition (2) is that in the group 226, the cluster width CW of all the clusters 224 is less than the second threshold value. The second threshold value is set based on a horizontal width to be specified as at least a part of a predetermined specific object (for example, a preceding vehicle), for example, the horizontal width of a fallen object such as raindrops or snowdrops. This is the horizontal width of the license plate, which is larger.

水平方向の幅が降下物よりも大きい1の立体物から、複数のクラスタ224が生成される際、複数のクラスタ224のうち水平方向の幅が最も小さいクラスタ224のクラスタ幅CWであっても、降下物に基づくクラスタ224のクラスタ幅CWよりも小さくなる可能性は低い。また、複数のクラスタ224のうち水平方向の幅が最も小さいクラスタ224のクラスタ幅CWは、少なくとも、ナンバープレートの水平方向の幅より大きくなる可能性が高い。   When a plurality of clusters 224 are generated from one solid object whose horizontal width is larger than the falling object, even if the cluster width CW of the cluster 224 has the smallest horizontal width among the plurality of clusters 224, It is unlikely that the cluster width CW of the cluster 224 based on the fallout will be smaller. In addition, the cluster width CW of the cluster 224 having the smallest horizontal width among the plurality of clusters 224 is likely to be at least larger than the horizontal width of the license plate.

そこで、解除条件(2)を満たすか否かを判定することにより、グループ226を構成するすべてのクラスタ224が、1の立体物として特定すべき水平方向の幅を有していないかを判定することができる。   Therefore, by determining whether or not the release condition (2) is satisfied, it is determined whether all the clusters 224 constituting the group 226 have a horizontal width that should be specified as one solid object. be able to.

上記解除条件(3)は、グループ226において隣り合う2つのクラスタ224間の水平方向の離隔距離(以下、「離隔距離RK」と称する)のいずれかが第3閾値以上であるクラスタ224があることである。第3閾値は、1の立体物とすべき離隔距離に基づいて設定される。ここで、第3閾値は、例えば、降雨や降雪等の環境下において先行車両を撮像した場合に生成された複数のクラスタ224をグループ化したとき、グループ226において隣り合う2つのクラスタ224間の離隔距離RKのすべてが第3閾値未満となるように設定される値である。   The cancellation condition (3) is that there is a cluster 224 in which any of the horizontal separation distances between the two adjacent clusters 224 in the group 226 (hereinafter referred to as “separation distance RK”) is equal to or greater than the third threshold value. It is. The third threshold is set based on the separation distance that should be one solid object. Here, the third threshold value is, for example, a separation between two adjacent clusters 224 in the group 226 when a plurality of clusters 224 generated when the preceding vehicle is imaged in an environment such as rainfall or snowfall are grouped. This is a value set so that all of the distances RK are less than the third threshold value.

降雨や降雪等の環境下において、隣り合う降下物間の離隔距離が降下物の水平方向の幅よりも小さくなる可能性は低い。したがって、降下物に基づくクラスタ224がグループ化されたグループ226において、隣り合う2つのクラスタ224間の離隔距離RKは、降下物の水平方向の幅(降下物に基づくクラスタ224のクラスタ幅CW)より大きくなる。一方、水平方向の幅が降下物よりも大きい1の立体物から、複数のクラスタ224が生成された場合の、隣り合う2つのクラスタ224間の離隔距離RKは、降下物の水平方向の幅(降下物に基づくクラスタ224のクラスタ幅CW)程度と小さい。   In an environment such as rainfall or snowfall, it is unlikely that the separation distance between adjacent falling objects will be smaller than the horizontal width of the falling objects. Therefore, in the group 226 in which the clusters 224 based on the fallout object are grouped, the separation distance RK between two adjacent clusters 224 is greater than the horizontal width of the fallout (the cluster width CW of the cluster 224 based on the fallout object). growing. On the other hand, the separation distance RK between two adjacent clusters 224 when a plurality of clusters 224 are generated from one solid object whose horizontal width is larger than that of the falling object is the horizontal width ( The cluster width CW of the cluster 224 based on the fallout is as small as about.

そこで、解除条件(3)を満たすか否かを判定することにより、グループ226を構成するクラスタ224において、降下物に基づくクラスタ224が含まれているかを判定することができる。   Therefore, by determining whether or not the release condition (3) is satisfied, it is possible to determine whether or not the cluster 224 based on the fallout is included in the clusters 224 constituting the group 226.

なお、2つのクラスタ224がグループ化されてグループ226が生成される場合、上記解除条件(1)と解除条件(3)は、実質的に等しい条件とみなすことができる。具体的に説明すると、上記解除条件(1)は、グループ幅GWに対する、2つのクラスタ224のクラスタ幅CWa、CWbの合計値が占める割合を判定する条件、換言すれば、(CWa+CWb)/GWが第1閾値未満であることである。また、解除条件(3)は、2つのクラスタ224間の離隔距離RKを判定する条件である。2つのクラスタ224がグループ化された場合、解除条件(1)の(CWa+CWb)/GWは、(GW−RK)/GWと言い換えることもできるため、上記解除条件(1)と解除条件(3)は、実質的に等しい条件とみなすことができると言える。   When the two clusters 224 are grouped to generate the group 226, the release condition (1) and the release condition (3) can be regarded as substantially equal conditions. Specifically, the cancellation condition (1) is a condition for determining the ratio of the total value of the cluster widths CWa and CWb of the two clusters 224 to the group width GW, in other words, (CWa + CWb) / GW It is less than the first threshold. The release condition (3) is a condition for determining the separation distance RK between the two clusters 224. When the two clusters 224 are grouped, (CWa + CWb) / GW of the release condition (1) can be rephrased as (GW−RK) / GW. Therefore, the release condition (1) and the release condition (3) Can be regarded as substantially equal conditions.

したがって、グループ解除部176は、2つのクラスタ224がグループ化されたグループ226を判定する場合、上記解除条件(1)および解除条件(2)を満たすか否かを判定すればよい。   Therefore, when determining the group 226 in which the two clusters 224 are grouped, the group cancellation unit 176 may determine whether or not the cancellation condition (1) and the cancellation condition (2) are satisfied.

また、この場合、第1閾値は、グループ幅GWに加えて、複数のクラスタ224の相対距離zに基づいて決定されるとよい。具体的に説明すると、1の立体物からクラスタ224が生成された場合、クラスタ224を構成するブロック数は、相対距離zが小さいと多くなり、相対距離zが大きいと少なくなる。ここで、グループ幅GWに乗算する係数を固定値とすると、相対距離zが大きい場合、1の立体物からグループ226が生成された場合であっても、グループ226が解除されてしまう場合がある。   In this case, the first threshold value may be determined based on the relative distance z of the plurality of clusters 224 in addition to the group width GW. More specifically, when the cluster 224 is generated from one solid object, the number of blocks constituting the cluster 224 increases when the relative distance z is small, and decreases when the relative distance z is large. Here, if the coefficient multiplied by the group width GW is a fixed value, the group 226 may be canceled even if the group 226 is generated from one solid object when the relative distance z is large. .

仮に、自車両1から降下物までの相対距離zが等しく、自車両1から先行車両までの相対距離zが異なるとし、降下物の水平方向の幅が等しい場合について説明する。この場合において、先行車両が降下物によって分断(分割)されて輝度画像126に写りこむとすると、相対距離zが大きい先行車両に基づくクラスタ224は、相対距離zが小さい先行車両のクラスタ224と比較して、クラスタ幅CWは小さく、離隔距離RKは大きくなる。ここで、グループ幅GWに乗算する係数を固定値とすると、相対距離zが大きい場合、1の立体物からグループ226が生成された場合であっても、クラスタ幅CWが小さく第1閾値未満となったり、離隔距離RKが大きく第3閾値以上となったりして、グループ226が解除されてしまう場合がある。   A case will be described where the relative distance z from the own vehicle 1 to the falling object is equal, the relative distance z from the own vehicle 1 to the preceding vehicle is different, and the horizontal width of the falling object is equal. In this case, if the preceding vehicle is divided (divided) by the fallen object and is reflected in the luminance image 126, the cluster 224 based on the preceding vehicle having the large relative distance z is compared with the cluster 224 of the preceding vehicle having the small relative distance z. Thus, the cluster width CW is small and the separation distance RK is large. Here, when the coefficient multiplied by the group width GW is a fixed value, when the relative distance z is large, even when the group 226 is generated from one solid object, the cluster width CW is small and less than the first threshold value. Or the separation distance RK is large and exceeds the third threshold, and the group 226 may be released.

そこで、第1閾値については、相対距離zに応じてグループ幅GWに乗算する係数を変化させる、例えば、相対距離zが大きい場合には、相対距離zが小さい場合よりも小さい係数を乗算する。これにより、相対距離zによって、グループ226が解除されてしまう事態を回避することが可能となる。   Therefore, for the first threshold, a coefficient to be multiplied by the group width GW is changed according to the relative distance z. For example, when the relative distance z is large, a coefficient smaller than that when the relative distance z is small is multiplied. This makes it possible to avoid a situation where the group 226 is released due to the relative distance z.

図3に戻って説明すると、特定物特定部178は、グループ226、および、グループ化されていないクラスタ224を1の立体物とし、当該立体物がいずれの特定物に対応するか特定する。本実施形態において、特定物特定部178は、特に、立体物が、予め定められた車両に相当する所定の条件を満たしていれば、その立体物を特定物「車両」として決定する(S328)。例えば、特定物特定部178は、立体物が道路上に位置する場合、その立体物全体の大きさが、特定物「車両」の大きさに相当するか否かを判定し、特定物「車両」の大きさに相当すると判定されれば、その立体物を特定物「車両」と特定する。   Returning to FIG. 3, the specific object specifying unit 178 sets the group 226 and the ungrouped cluster 224 as one solid object, and specifies which specific object the solid object corresponds to. In the present embodiment, the specific object specifying unit 178 determines the three-dimensional object as the specific object “vehicle” particularly when the three-dimensional object satisfies a predetermined condition corresponding to a predetermined vehicle (S328). . For example, when the three-dimensional object is located on the road, the specific object specifying unit 178 determines whether or not the size of the three-dimensional object as a whole corresponds to the size of the specific object “vehicle”. If it is determined that it corresponds to the size of “,” the three-dimensional object is identified as the specific object “vehicle”.

こうして、車外環境認識装置120では、距離画像128から、立体物を、特定物、例えば、車両(先行車両)として抽出することができ、その情報を様々な制御に用いることが可能となる。例えば、検出領域124内の任意の立体物が車両であると特定されると、特定した車両(先行車両)を追跡し、相対距離や相対加速度を検出して、先行車両との衝突を回避したり、先行車両との車間距離を安全な距離に保つように制御することができる。   Thus, the vehicle exterior environment recognition device 120 can extract a three-dimensional object from the distance image 128 as a specific object, for example, a vehicle (preceding vehicle), and use the information for various controls. For example, when an arbitrary three-dimensional object in the detection area 124 is identified as a vehicle, the identified vehicle (preceding vehicle) is tracked to detect a relative distance and a relative acceleration to avoid a collision with the preceding vehicle. Or the distance between the preceding vehicle and the preceding vehicle can be controlled to be kept at a safe distance.

以上説明したように、本実施形態にかかる車外環境認識装置120によれば、雨粒や雪粒等の降下物を、車両や歩行者等の特定物と誤判断する事態を回避し、特定物の特定精度を向上することが可能となる。   As described above, according to the outside environment recognition device 120 according to the present embodiment, it is possible to avoid a situation in which a fallen object such as raindrops or snowdrops is erroneously determined as a specific object such as a vehicle or a pedestrian. The specific accuracy can be improved.

(第2の実施形態:車外環境認識装置420)
上記第1の実施形態では、クラスタ224をグループ化してグループ226とした後、上記解除条件(1)〜(3)をすべて満たした場合、グループ226を解除してクラスタ224に戻す構成について説明した。しかし、クラスタ224をグループ化する際に、解除条件を結合条件として用いて、結合条件を満たすか否かを判定してもよい。第2の実施形態では、クラスタ224をグループ化する際に、結合条件を判定する構成について説明する。
(2nd Embodiment: Outside vehicle environment recognition apparatus 420)
In the first embodiment, a configuration has been described in which the cluster 224 is grouped into the group 226 and then the group 226 is released and returned to the cluster 224 when all the release conditions (1) to (3) are satisfied. . However, when the clusters 224 are grouped, the release condition may be used as a join condition to determine whether or not the join condition is satisfied. In the second embodiment, a configuration for determining a join condition when grouping the clusters 224 will be described.

図10は、第2の実施形態にかかる車外環境認識装置420の概略的な機能を示した機能ブロック図である。図11は、第2の実施形態にかかる車外環境認識処理を示すフローチャートである。   FIG. 10 is a functional block diagram showing a schematic function of the external environment recognition device 420 according to the second embodiment. FIG. 11 is a flowchart showing an external environment recognition process according to the second embodiment.

図10に示すように、車外環境認識装置420は、I/F部150と、データ保持部152と、中央制御部454とを含んで構成される。   As shown in FIG. 10, the vehicle exterior environment recognition device 420 includes an I / F unit 150, a data holding unit 152, and a central control unit 454.

中央制御部454は、中央処理装置(CPU)、プログラム等が格納されたROM、ワークエリアとしてのRAM等を含む半導体集積回路で構成され、システムバス156を通じて、I/F部150、データ保持部152等を制御する。また、本実施形態において、中央制御部454は、画像取得部160、画像処理部162、位置情報導出部164、クラスタ生成部166、クラスタ位置導出部168、クラスタ幅導出部172、グループ生成部470、特定物特定部178としても機能する。   The central control unit 454 is configured by a semiconductor integrated circuit including a central processing unit (CPU), a ROM in which programs are stored, a RAM as a work area, and the like. 152 and the like are controlled. In the present embodiment, the central control unit 454 includes the image acquisition unit 160, the image processing unit 162, the position information deriving unit 164, the cluster generation unit 166, the cluster position deriving unit 168, the cluster width deriving unit 172, and the group generating unit 470. Also, it functions as the specific object specifying unit 178.

なお、第1の実施形態における構成要素と実質的に機能が等しい構成要素については、同一の符号を付して説明を省略し、ここでは、機能が異なるグループ生成部470を主に説明する。また、第1の実施形態における処理と実質的に等しい処理については、同一の符号を付して説明を省略し、ここでは、結合条件判定処理S510、グループ化処理S512について説明する。   Note that components having substantially the same functions as the components in the first embodiment are denoted by the same reference numerals and description thereof is omitted, and here, the group generation unit 470 having different functions will be mainly described. Also, processes that are substantially the same as the processes in the first embodiment are denoted by the same reference numerals and description thereof is omitted. Here, the join condition determination process S510 and the grouping process S512 will be described.

グループ生成部470は、まず、クラスタ三次元位置が、第1範囲よりも大きい第2範囲内である複数のクラスタ224を仮にグループ化した場合のグループ幅GWを導出する。そして、グループ生成部470は、クラスタ三次元位置が、第1範囲よりも大きい第2範囲内である複数のクラスタ224について、上記解除条件(1)〜(3)を結合条件(1)〜(3)として用いて、結合条件(1)〜(3)のいずれかを満たすか否かを判定する(S510)。   First, the group generation unit 470 derives a group width GW when a plurality of clusters 224 whose cluster three-dimensional positions are within a second range that is larger than the first range are grouped. Then, the group generation unit 470 applies the release conditions (1) to (3) to the combination conditions (1) to (3) for the plurality of clusters 224 whose cluster three-dimensional positions are in the second range larger than the first range. It is used as 3) to determine whether any one of the coupling conditions (1) to (3) is satisfied (S510).

そして、上記結合条件(1)〜(3)のいずれかを満たす場合(S510におけるYES)、グループ生成部470は、複数のクラスタ224をグループ化して、グループ226を生成する(S512)。   If any one of the above join conditions (1) to (3) is satisfied (YES in S510), the group generation unit 470 groups a plurality of clusters 224 to generate a group 226 (S512).

また、グループ生成部470は、2つのクラスタ224をグループ化する場合、上記解除条件(1)と解除条件(2)との関係と同様に、上記結合条件(1)と結合条件(3)を、実質的に等しい条件とみなすことができる。このため、2つのクラスタ224をグループ化する場合、グループ生成部470は、上記結合条件(1)または結合条件(2)を満たすか否かを判定すればよい。   Further, when grouping the two clusters 224, the group generation unit 470 sets the combination condition (1) and the combination condition (3) in the same manner as the relationship between the release condition (1) and the release condition (2). Can be regarded as substantially equal conditions. For this reason, when the two clusters 224 are grouped, the group generation unit 470 may determine whether or not the above combination condition (1) or combination condition (2) is satisfied.

以上説明したように、本実施形態にかかる車外環境認識装置420によっても、雨粒や雪粒等の降下物を、車両や歩行者等の特定物と誤判断する事態を回避し、特定物の特定精度を向上することが可能となる。   As described above, the outside environment recognition apparatus 420 according to the present embodiment also avoids a situation in which a fallen object such as raindrops or snowdrops is erroneously determined as a specific object such as a vehicle or a pedestrian, and specifies a specific object. The accuracy can be improved.

また、コンピュータを、車外環境認識装置120、420として機能させるプログラムや当該プログラムを記録した、コンピュータで読み取り可能なフレキシブルディスク、光磁気ディスク、ROM、CD、DVD、BD等の記憶媒体も提供される。ここで、プログラムは、任意の言語や記述方法にて記述されたデータ処理手段をいう。   Also provided are a program that causes the computer to function as the vehicle environment recognition devices 120 and 420, and a computer-readable storage medium such as a flexible disk, magneto-optical disk, ROM, CD, DVD, and BD that records the program. . Here, the program refers to data processing means described in an arbitrary language or description method.

以上、添付図面を参照しながら本発明の好適な実施形態について説明したが、本発明はかかる実施形態に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。   As mentioned above, although preferred embodiment of this invention was described referring an accompanying drawing, it cannot be overemphasized that this invention is not limited to this embodiment. It will be apparent to those skilled in the art that various changes and modifications can be made within the scope of the claims, and these are naturally within the technical scope of the present invention. Is done.

例えば、上述した第1の実施形態において、グループ解除部176が3つ以上のクラスタ224で構成されるグループ226を判定する場合、上記解除条件(1)〜(3)をすべて満たすか否かを判定する構成について説明した。しかし、少なくとも上記解除条件(1)および解除条件(2)を満たすか否かを判定すればよい。   For example, in the first embodiment described above, when the group cancellation unit 176 determines a group 226 composed of three or more clusters 224, it is determined whether or not all the cancellation conditions (1) to (3) are satisfied. The configuration for determining has been described. However, it is only necessary to determine whether or not at least the release condition (1) and the release condition (2) are satisfied.

また、上述した第2の実施形態において、グループ生成部470が3つ以上のクラスタ224をグループ化する場合、上記結合条件(1)〜(3)(解除条件(1)〜(3))のいずれかを満たすか否かを判定する構成について説明した。しかし、上記結合条件(1)〜(3)のうち、複数の結合条件を満たすか否かを判定してもよい。   In the second embodiment described above, when the group generation unit 470 groups three or more clusters 224, the combination conditions (1) to (3) (release conditions (1) to (3)) are satisfied. The configuration for determining whether or not any of the above is satisfied has been described. However, it may be determined whether or not a plurality of coupling conditions are satisfied among the coupling conditions (1) to (3).

また、上述した実施形態において、グループ生成部170、470が、2つのクラスタ224をグループ化して1のグループ226を生成する場合、第1閾値は、グループ幅GWに加えて、複数のクラスタ224の相対距離zに基づいて決定される構成を例に挙げて説明した。しかし、第1閾値は、グループ幅GWのみに基づいて決定されてもよい。   In the above-described embodiment, when the group generation units 170 and 470 group the two clusters 224 to generate one group 226, the first threshold value is set to the plurality of clusters 224 in addition to the group width GW. The configuration determined based on the relative distance z has been described as an example. However, the first threshold value may be determined based only on the group width GW.

なお、本明細書の車外環境認識処理の各工程は、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はなく、並列的あるいはサブルーチンによる処理を含んでもよい。   It should be noted that each step of the vehicle environment recognition processing in the present specification does not necessarily have to be processed in time series in the order described in the flowchart, and may include processing in parallel or by a subroutine.

本発明は、検出領域に存在する立体物がいずれの特定物に対応するかを特定する車外環境認識装置に利用することができる。   INDUSTRIAL APPLICABILITY The present invention can be used for an external environment recognition device that specifies which specific object corresponds to a three-dimensional object existing in a detection region.

120、420 車外環境認識装置
160 画像取得部
164 位置情報導出部
166 クラスタ生成部
168 クラスタ位置導出部
170、470 グループ生成部
172 クラスタ幅導出部
174 グループ幅導出部
176 グループ解除部
178 特定物特定部
120, 420 Outside environment recognition device 160 Image acquisition unit 164 Position information deriving unit 166 Cluster generating unit 168 Cluster position deriving unit 170, 470 Group generating unit 172 Cluster width deriving unit 174 Group width deriving unit 176 Group releasing unit 178 Specific object identifying unit

Claims (5)

画像を取得する画像取得部と、
取得した前記画像を1または複数の画素で構成される複数のブロックに分割し、当該ブロックごとの三次元位置を導出する位置情報導出部と、
前記三次元位置が所定の第1範囲内である複数のブロックをクラスタ化してクラスタを生成するクラスタ生成部と、
前記位置情報導出部によって導出されたブロックの三次元位置に基づいて、前記クラスタの三次元位置であるクラスタ三次元位置を当該クラスタごとに導出するクラスタ位置導出部と、
前記クラスタ三次元位置が、前記第1範囲よりも大きい第2範囲内である複数のクラスタをグループ化してグループを生成するグループ生成部と、
前記画像における前記クラスタの占有領域に基づいて該クラスタの水平方向の幅を該クラスタごとに導出するクラスタ幅導出部と、
前記クラスタの水平方向の幅に基づいて、前記グループの水平方向の幅を導出するグループ幅導出部と、
前記グループを構成する前記複数のクラスタの水平方向の幅の合計値が、該グループの水平方向の幅に基づいて設定される第1閾値未満であり、かつ、該グループを構成する該複数のクラスタすべての水平方向の幅が、所定の特定物の少なくとも一部として特定されるべき水平方向の幅に基づいて設定される第2閾値未満である場合、該グループのグループ化を解除して前記複数のクラスタに戻すグループ解除部と、
前記グループ、および、グループ化されていない前記クラスタを1の立体物とし、該立体物が所定の条件を満たす場合に該立体物を前記所定の特定物と特定する特定物特定部と、
を備えたことを特徴とする車外環境認識装置。
An image acquisition unit for acquiring images;
A position information deriving unit that divides the acquired image into a plurality of blocks composed of one or a plurality of pixels and derives a three-dimensional position for each block;
A cluster generation unit that generates a cluster by clustering a plurality of blocks in which the three-dimensional position is within a predetermined first range;
Based on the three-dimensional position of the block derived by the position information deriving unit, a cluster position deriving unit that derives, for each cluster, a cluster three-dimensional position that is a three-dimensional position of the cluster;
A group generation unit that generates a group by grouping a plurality of clusters in which the cluster three-dimensional position is in a second range that is larger than the first range;
A cluster width deriving unit for deriving a horizontal width of the cluster for each cluster based on an occupation area of the cluster in the image;
A group width deriving unit for deriving a horizontal width of the group based on a horizontal width of the cluster;
The total value of the horizontal widths of the plurality of clusters constituting the group is less than a first threshold set based on the horizontal width of the group, and the plurality of clusters constituting the group When all the horizontal widths are less than a second threshold set based on the horizontal width to be specified as at least a part of the predetermined specific object, the group is ungrouped and the plural Ungrouping unit to return to the cluster of
A specific object specifying unit for specifying the three-dimensional object as the predetermined specific object when the group and the cluster that is not grouped are set as one three-dimensional object and the three-dimensional object satisfies a predetermined condition;
An outside environment recognition device comprising:
前記グループ生成部が3つ以上のクラスタをグループ化して1のグループを生成した場合、
前記グループ解除部は、前記グループを構成する前記複数のクラスタの水平方向の幅の合計値が前記第1閾値未満であり、かつ、該グループを構成する該複数のクラスタすべての水平方向の幅が前記第2閾値未満である場合であって、さらに、該グループにおいて隣り合う2つのクラスタ間の水平方向の離隔距離のいずれかが、前記1の立体物とすべき離隔距離に基づいて設定される第3閾値以上である場合、該グループのグループ化を解除して前記複数のクラスタに戻すことを特徴とする請求項1に記載の車外環境認識装置。
When the group generation unit groups three or more clusters to generate one group,
The group cancellation unit is configured such that a total value of horizontal widths of the plurality of clusters constituting the group is less than the first threshold value, and a horizontal width of all of the plurality of clusters constituting the group is In the case of being less than the second threshold value, any one of the horizontal separation distances between two adjacent clusters in the group is set based on the separation distance to be the first three-dimensional object. The outside environment recognition device according to claim 1, wherein when it is equal to or greater than a third threshold value, the grouping is canceled and returned to the plurality of clusters.
画像を取得する画像取得部と、
取得した前記画像を1または複数の画素で構成される複数のブロックに分割し、当該ブロックごとの三次元位置を導出する位置情報導出部と、
前記三次元位置が所定の第1範囲内である複数のブロックをクラスタ化してクラスタを生成するクラスタ生成部と、
前記位置情報導出部によって導出されたブロックの三次元位置に基づいて、前記クラスタの三次元位置であるクラスタ三次元位置を当該クラスタごとに導出するクラスタ位置導出部と、
前記画像における前記クラスタの占有領域に基づいて該クラスタの水平方向の幅を該クラスタごとに導出するクラスタ幅導出部と、
前記複数のクラスタの水平方向の幅の合計値が、第1閾値以上である、もしくは、該複数のクラスタすべての水平方向の幅が、所定の特定物の少なくとも一部として特定されるべき水平方向の幅に基づいて設定される第2閾値以上である場合、該複数のクラスタをグループ化してグループを生成するグループ生成部と、
前記グループ、および、グループ化されていない前記クラスタを1の立体物とし、該立体物が所定の条件を満たす場合に該立体物を前記所定の特定物と特定する特定物特定部と、
を備え、
前記第1閾値は、前記クラスタの水平方向の幅に応じて導出される前記グループの水平方向の幅に基づいて設定されることを特徴とする車外環境認識装置。
An image acquisition unit for acquiring images;
A position information deriving unit that divides the acquired image into a plurality of blocks composed of one or a plurality of pixels and derives a three-dimensional position for each block;
A cluster generation unit that generates a cluster by clustering a plurality of blocks in which the three-dimensional position is within a predetermined first range;
Based on the three-dimensional position of the block derived by the position information deriving unit, a cluster position deriving unit that derives, for each cluster, a cluster three-dimensional position that is a three-dimensional position of the cluster;
A cluster width deriving unit for deriving a horizontal width of the cluster for each cluster based on an occupation area of the cluster in the image;
The horizontal direction in which the total value of the horizontal widths of the plurality of clusters is greater than or equal to a first threshold value, or the horizontal widths of all of the plurality of clusters are to be specified as at least part of a predetermined specific object A group generation unit that generates a group by grouping the plurality of clusters when the second threshold is greater than or equal to a second threshold set based on the width of
A specific object specifying unit for specifying the three-dimensional object as the predetermined specific object when the group and the cluster that is not grouped are set as one three-dimensional object and the three-dimensional object satisfies a predetermined condition;
With
The vehicle exterior environment recognition apparatus, wherein the first threshold is set based on a horizontal width of the group derived according to a horizontal width of the cluster.
前記グループ生成部は、
前記第2範囲内に3つ以上のクラスタがある場合、
前記複数のクラスタの水平方向の幅の合計値が前記第1閾値以上でなく、かつ、該複数のクラスタすべての水平方向の幅が前記第2閾値以上でない場合であって、該複数のクラスタのうち隣り合う2つのクラスタ間の水平方向の幅のいずれかが、前記1の立体物とすべき離隔距離に基づいて設定される第3閾値未満である場合、該複数のクラスタをグループ化することを特徴とする請求項3に記載の車外環境認識装置。
The group generation unit
If there are more than two clusters in the second range,
The total value of the horizontal widths of the plurality of clusters is not equal to or greater than the first threshold value, and the horizontal widths of all the plurality of clusters are not equal to or greater than the second threshold value. If any one of the horizontal widths between two adjacent clusters is less than a third threshold set based on the separation distance to be the first three-dimensional object, the plurality of clusters are grouped. The outside environment recognition device according to claim 3 characterized by things.
前記グループ生成部が、2つのクラスタをグループ化して1のグループを生成する場合、
前記第1閾値は、前記グループの水平方向の幅に加えて、該複数のクラスタの相対距離に基づいて設定されることを特徴とする請求項1または3に記載の車外環境認識装置。
When the group generation unit generates two groups by grouping two clusters,
The external environment recognition device according to claim 1 or 3, wherein the first threshold value is set based on a relative distance between the plurality of clusters in addition to a horizontal width of the group.
JP2014119300A 2014-06-10 2014-06-10 Outside environment recognition device Active JP6313667B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014119300A JP6313667B2 (en) 2014-06-10 2014-06-10 Outside environment recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014119300A JP6313667B2 (en) 2014-06-10 2014-06-10 Outside environment recognition device

Publications (2)

Publication Number Publication Date
JP2015232792A JP2015232792A (en) 2015-12-24
JP6313667B2 true JP6313667B2 (en) 2018-04-18

Family

ID=54934197

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014119300A Active JP6313667B2 (en) 2014-06-10 2014-06-10 Outside environment recognition device

Country Status (1)

Country Link
JP (1) JP6313667B2 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4100823B2 (en) * 1999-05-27 2008-06-11 本田技研工業株式会社 Object judgment device
JP4414054B2 (en) * 2000-03-27 2010-02-10 本田技研工業株式会社 Object recognition device
JP3966419B2 (en) * 2004-12-15 2007-08-29 三菱電機株式会社 Change area recognition apparatus and change recognition system
JP6013884B2 (en) * 2012-11-08 2016-10-25 日立オートモティブシステムズ株式会社 Object detection apparatus and object detection method

Also Published As

Publication number Publication date
JP2015232792A (en) 2015-12-24

Similar Documents

Publication Publication Date Title
JP5906224B2 (en) Outside environment recognition device
JP5886809B2 (en) Outside environment recognition device
JP6132412B2 (en) Outside environment recognition device
JP2014006882A (en) Road surface slope recognition device, road surface slope recognition method, and road surface slope recognition program
JP6034923B1 (en) Outside environment recognition device
JP6236039B2 (en) Outside environment recognition device
JP6420650B2 (en) Outside environment recognition device
JP2014006885A (en) Level difference recognition apparatus, level difference recognition method, and program for level difference recognition
JP6722084B2 (en) Object detection device
JP2013250907A (en) Parallax calculation device, parallax calculation method and parallax calculation program
JP5955291B2 (en) Filtering device and environment recognition system
JP6591188B2 (en) Outside environment recognition device
JP6564218B2 (en) Outside environment recognition device
JP7229032B2 (en) External object detection device
JP6174960B2 (en) Outside environment recognition device
JP7261006B2 (en) External environment recognition device
JP6329438B2 (en) Outside environment recognition device
JP2021064316A (en) Vehicle exterior environment recognition device
JP6240475B2 (en) Outside environment recognition device
JP6313667B2 (en) Outside environment recognition device
JP6378547B2 (en) Outside environment recognition device
JP6378594B2 (en) Outside environment recognition device
JP6335065B2 (en) Outside environment recognition device
JP6273156B2 (en) Pedestrian recognition device
JP6523694B2 (en) Outside environment recognition device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170307

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180222

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180227

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180323

R150 Certificate of patent or registration of utility model

Ref document number: 6313667

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250