JP5922947B2 - Outside environment recognition device and outside environment recognition method - Google Patents

Outside environment recognition device and outside environment recognition method Download PDF

Info

Publication number
JP5922947B2
JP5922947B2 JP2012035946A JP2012035946A JP5922947B2 JP 5922947 B2 JP5922947 B2 JP 5922947B2 JP 2012035946 A JP2012035946 A JP 2012035946A JP 2012035946 A JP2012035946 A JP 2012035946A JP 5922947 B2 JP5922947 B2 JP 5922947B2
Authority
JP
Japan
Prior art keywords
specific object
possibility
image
unit
latent
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012035946A
Other languages
Japanese (ja)
Other versions
JP2013171489A (en
Inventor
辰之輔 木戸
辰之輔 木戸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Fuji Jukogyo KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Jukogyo KK filed Critical Fuji Jukogyo KK
Priority to JP2012035946A priority Critical patent/JP5922947B2/en
Publication of JP2013171489A publication Critical patent/JP2013171489A/en
Application granted granted Critical
Publication of JP5922947B2 publication Critical patent/JP5922947B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、自車両外の環境を認識する車外環境認識装置および車外環境認識方法に関する。   The present invention relates to a vehicle environment recognition apparatus and a vehicle environment recognition method for recognizing an environment outside a host vehicle.

従来、自車両の前方に位置する車両や障害物等の特定物を検出し、検出した特定物との衝突を回避したり(衝突回避制御)、先行車両との車間距離を安全な距離に保つように制御する(クルーズコントロール)技術が知られている(例えば、特許文献1)。   Conventionally, a specific object such as a vehicle or an obstacle positioned in front of the host vehicle is detected, and a collision with the detected specific object is avoided (collision avoidance control), or the distance between the preceding vehicle and the preceding vehicle is kept at a safe distance. Such a control (cruise control) technique is known (for example, Patent Document 1).

こうした技術の多くは、先行車両を追跡して位置情報を更新し、先行車両の移動速度等を計算するように構成されており、この結果が、例えば衝突回避制御やクルーズコントロールなどに反映される。また、このような制御を円滑に遂行すべく、先行車両以外の車外環境、例えば、信号機や道路標識といった特定物を認識して自車両の走行をサポートしたり、先行車両のブレーキランプを認識して先行車両の急な減速に備えたりしている。   Many of these technologies are configured to track the preceding vehicle, update the position information, and calculate the moving speed of the preceding vehicle, and this result is reflected in, for example, collision avoidance control and cruise control. . In addition, in order to smoothly perform such control, the vehicle environment other than the preceding vehicle, for example, specific objects such as traffic lights and road signs, are recognized to support the traveling of the host vehicle, or the brake lamp of the preceding vehicle is recognized. In preparation for sudden deceleration of the preceding vehicle.

かかる特定物は、自車両前方の車外環境を撮像した画像に基づいて特定される。例えば、車外のカラー画像を撮像し、同一の輝度(色)を有する、隣接する画素同士をグループ化し、信号機の赤色灯等の光源を特定物として認識する技術が知られている(例えば、特許文献2、3)。   Such a specific object is specified based on an image obtained by capturing an environment outside the vehicle in front of the host vehicle. For example, a technology is known that captures a color image outside a vehicle, groups adjacent pixels having the same luminance (color), and recognizes a light source such as a red light of a traffic light as a specific object (for example, a patent) Literature 2, 3).

特許第3349060号Japanese Patent No. 3349060 特開2005−301518号公報JP 2005-301518 A 特開2010−224924号公報JP 2010-224924 A

上述した衝突回避制御やクルーズコントロールを円滑に遂行するためには、例えば、信号機の赤色・黄色・青色灯等の車外環境を通じて、車両を走行させる上で必要な交通情報をより正確に取得する必要がある。そして、自車両の直前の信号機において赤色灯が点灯していたら、運転者の制動操作をサポートすることが考えられる。   In order to smoothly perform the collision avoidance control and cruise control described above, for example, it is necessary to obtain more accurate traffic information necessary for driving the vehicle through the exterior environment such as red, yellow, and blue lights of traffic lights. There is. And if the red light is lit in the traffic light immediately before the host vehicle, it is conceivable to support the driver's braking operation.

ただし、信号機の赤色灯が点灯していたとしても、それに付属する(併設された)矢印信号機の青色灯が点灯していれば、自車両の進行方向によっては制動の必要がない。したがって、衝突回避制御やクルーズコントロールでは、信号機の赤色灯に加え矢印信号機の青色灯も把握し、両信号が点灯している場合、制動操作のサポートを抑制している。しかし、このような信号機の赤色灯と矢印信号機の青色灯が点灯している状況下で、先行車両等により、矢印信号機の青色灯のみが遮蔽されると、信号機の赤色灯しか認識できず、不要に制動操作のサポートが行われる場合がある。このように、運転者の意に反した動作が生じると、運転者はその動作を煩わしく思い、交通に関する注意が疎かになるおそれがある。そこで、信号機が赤色灯であっても、それに付属する矢印信号機の青色灯が点灯している可能性があれば制動操作のサポートを抑制するように設定することがある。   However, even if the red light of the traffic light is lit, there is no need for braking depending on the traveling direction of the own vehicle as long as the blue light of the arrow traffic light attached (attached) is lit. Therefore, in collision avoidance control and cruise control, the blue light of the arrow traffic light is grasped in addition to the red light of the traffic light, and when both signals are lit, support for the braking operation is suppressed. However, when only the blue light of the arrow traffic light is shielded by the preceding vehicle or the like under the situation where the red light of the traffic light and the blue light of the arrow traffic light are lit, only the red light of the traffic light can be recognized, Support for braking operation may be performed unnecessarily. As described above, when an operation contrary to the driver's intention occurs, the driver feels bothered by the operation, and there is a possibility that attention regarding traffic may be lost. Therefore, even if the traffic light is a red light, setting may be made so as to suppress the support of the braking operation if there is a possibility that the blue light of the arrow traffic light attached thereto is lit.

信号機の赤色灯に付属する矢印信号機の青色灯が点灯している可能性は、矢印信号機の青色灯が存在する可能性がある領域と、自車両の前方に位置する可能性がある特定物が占有する領域とを比較すれば足りる。しかし、衝突回避制御やクルーズコントロールでは、処理効率向上のため、追跡対象とする特定物を直前の車両等、一部に絞り、その特定物に対して制御が行われる場合がある。したがって、信号機と直前の車両とを比較するだけでは、矢印信号機の青色灯が潜在している可能性があるにも拘わらず、潜在の可能性がないと判断する場合があった。   The possibility that the blue light of the arrow traffic light attached to the red light of the traffic light is lit is that there are areas where the blue light of the arrow traffic light may exist and certain things that may be located in front of the host vehicle. It is sufficient to compare with the occupied area. However, in the collision avoidance control and the cruise control, in order to improve the processing efficiency, the specific object to be tracked may be limited to a part such as the immediately preceding vehicle and the specific object may be controlled. Therefore, there is a case where it is determined that there is no potential even if the blue light of the arrow traffic signal may be latent only by comparing the traffic light with the immediately preceding vehicle.

さらに、トラック等、荷台を有する車両の場合、荷台の後端部分のみを追跡対象としてしまい、キャビンがあるにも拘わらず、荷台の背面部分が占有する領域をもってして矢印信号機の青色灯が潜在している可能性がないと誤判断してしまう場合があった。   Furthermore, in the case of a vehicle having a loading platform such as a truck, only the rear end portion of the loading platform is tracked, and the blue light of the arrow traffic light is latent with the area occupied by the rear portion of the loading platform even though there is a cabin. There was a case where it was misjudged that there was no possibility of doing.

本発明は、このような課題に鑑み、直前の特定物のみを追跡対象とする場合であっても、矢印信号機が点灯している可能性を高精度で判断し、衝突回避制御やクルーズコントロールによる不要な制動操作への介入を回避することが可能な、車外環境認識装置および車外環境認識方法を提供することを目的としている。   In view of such a problem, the present invention determines with high accuracy the possibility that an arrow traffic light is illuminated even when only the specific object immediately before is tracked, and is based on collision avoidance control and cruise control. An object of the present invention is to provide a vehicle exterior environment recognition device and a vehicle exterior environment recognition method capable of avoiding unnecessary intervention in braking operation.

上記課題を解決するために、本発明の車外環境認識装置は、車外環境を撮像した画像を取得する画像取得部と、画像の部分画像に対応する対象物の自車両に対する相対距離を導出する位置情報導出部と、相対距離に基づいて1または複数の特定物を特定する第1グループ化部と、1または複数の特定物から追跡対象となる1の特定物を選択する特定物選択部と、画像内の色および大きさに基づいて停止または進行不可を示す停止信号灯を特定する第2グループ化部と、選択された特定物である選択特定物と停止信号灯との位置関係に基づいて、停止信号灯に付属する進行許可を示す進行信号灯が潜在する可能性を判定する第1可能性判定部と、第1可能性判定部によって進行信号灯が潜在する可能性の判定が完了しなかった場合、停止信号灯より相対距離が短い空間における、停止信号灯を基準として定められる信号探索領域を遮蔽する遮蔽物を探索し、信号探索領域における遮蔽物の占有面積比に基づいて進行信号灯が潜在する可能性を判定する第2可能性判定部と、を備えることを特徴とする。
In order to solve the above-described problem, an external environment recognition apparatus according to the present invention includes an image acquisition unit that acquires an image obtained by capturing an external environment, and a position for deriving a relative distance of an object corresponding to the partial image of the image with respect to the host vehicle. An information deriving unit; a first grouping unit that identifies one or more specific objects based on a relative distance; a specific object selection unit that selects one specific object to be tracked from the one or more specific objects; The second grouping unit that identifies stop signal lights that indicate stop or inability to proceed based on the color and size in the image, and the stop based on the positional relationship between the selected specific object that is the selected specific object and the stop signal light Stop if the first possibility determination unit that determines the possibility that the progress signal lamp indicating the progress permission attached to the signal lamp is latent and the first possibility determination unit has not determined the possibility that the progress signal lamp is latent Signal light Relative distance in a short space Ri, determines the possibility of exploring the shield that shields the signal search area defined based on the stop signal lamp, progressive signal lamp based on the occupied area ratio of the shield in the signal search area potentially A second possibility determination unit.

第2可能性判定部は、信号探索領域における遮蔽物の占有面積比が予め定められた閾値以上であれば、進行信号灯が潜在する可能性があると判定してもよい。   The second possibility determination unit may determine that there is a possibility that the progress signal lamp is latent if the occupied area ratio of the shielding object in the signal search region is equal to or greater than a predetermined threshold.

第2可能性判定部は、選択特定物を基準として予め定められた相対距離範囲のみ、信号探索領域を遮蔽する遮蔽物を探索し、進行信号灯が潜在する可能性を判定してもよい。   The second possibility determination unit may search for a shielding object that shields the signal search region only in a predetermined relative distance range with the selected specific object as a reference, and determine the possibility that the progress signal lamp is latent.

第1可能性判定部は、選択特定物と停止信号灯との水平方向の位置および高さに基づいて、進行信号灯が潜在する可能性を判定してもよい。   The first possibility determination unit may determine the possibility that the progress signal lamp is latent based on the horizontal position and height of the selected specific object and the stop signal lamp.

上記課題を解決するために、本発明の車外環境認識方法は、車外環境を撮像した画像を取得し、画像の部分画像に対応する対象物の自車両に対する相対距離を導出し、相対距離に基づいて1または複数の特定物を特定し、1または複数の特定物から追跡対象となる1の特定物を選択し、画像内の色および大きさに基づいて停止または進行不可を示す停止信号灯を特定し、選択した特定物である選択特定物と停止信号灯との位置関係に基づいて、停止信号灯に付属する進行許可を示す進行信号灯が潜在する可能性を判定し、判定によって進行信号灯が潜在する可能性の判定ができなかった場合、停止信号灯より相対距離が短い空間における、停止信号灯を基準として予め定められた信号探索領域を遮蔽する遮蔽物を探索し、信号探索領域における遮蔽物の占有面積比に基づいて進行信号灯が潜在する可能性を判定することを特徴とする。

In order to solve the above-described problem, an external environment recognition method of the present invention acquires an image obtained by capturing an external environment, derives a relative distance of an object corresponding to a partial image of the image with respect to the host vehicle, and is based on the relative distance. Identify one or more specific objects, select one specific object to be tracked from one or more specific objects, and identify a stop signal light that indicates stop or no progress based on the color and size in the image Then, based on the positional relationship between the selected specific object, which is the selected specific object, and the stop signal light, the possibility of the progress signal light indicating the progress permission attached to the stop signal light is determined, and the progress signal light may be latent depending on the determination. when unable to sex determination, in the relative distance is shorter space than the stop signal lamp, searching the shield that shields the predetermined signal search area based on the stop signal lamp, put the signal search area Progressive signal light based on the occupied area ratio of the shield is characterized by determining the possibility of potential.

本発明によれば、直前の特定物のみを追跡対象とする場合であっても、矢印信号機が点灯している可能性を高精度で判断し、衝突回避制御やクルーズコントロールによる不要な制動操作への介入を回避することが可能となる。   According to the present invention, even if only the immediately preceding specific object is to be tracked, it is possible to determine with high accuracy the possibility that the arrow traffic light is on, and to perform unnecessary braking operation by collision avoidance control or cruise control. It is possible to avoid intervention.

環境認識システムの接続関係を示したブロック図である。It is the block diagram which showed the connection relation of the environment recognition system. 輝度画像と距離画像を説明するための説明図である。It is explanatory drawing for demonstrating a luminance image and a distance image. 車外環境認識装置の概略的な機能を示した機能ブロック図である。It is the functional block diagram which showed the schematic function of the external environment recognition apparatus. 色識別子テーブルを説明するための説明図である。It is explanatory drawing for demonstrating a color identifier table. 位置情報導出部による三次元の位置情報への変換を説明するための説明図である。It is explanatory drawing for demonstrating the conversion to the three-dimensional positional information by a positional information derivation | leading-out part. 分割領域と代表距離とを説明するための説明図である。It is explanatory drawing for demonstrating a division area and a representative distance. 分割領域群を説明するための説明図である。It is explanatory drawing for demonstrating a division area group. 第1グループ化部の処理を説明するための説明図である。It is explanatory drawing for demonstrating the process of a 1st grouping part. 色識別子マップを説明するための説明図である。It is explanatory drawing for demonstrating a color identifier map. 選択特定物と矢印信号機との関係を示した説明図である。It is explanatory drawing which showed the relationship between a selection specific thing and an arrow traffic light. 選択特定物と矢印信号機との関係を示した説明図である。It is explanatory drawing which showed the relationship between a selection specific thing and an arrow traffic light. 選択特定物と信号機の赤色灯との関係を示した説明図である。It is explanatory drawing which showed the relationship between the selection specific thing and the red light of a signal apparatus. 信号探索領域を説明するための説明図である。It is explanatory drawing for demonstrating a signal search area | region. 車外環境認識方法の処理の大まかな流れを示したフローチャートである。It is the flowchart which showed the rough flow of the process of the environment recognition method outside a vehicle. 視差導出処理の流れを示したフローチャートである。It is the flowchart which showed the flow of the parallax derivation process. 位置情報導出処理の流れを示したフローチャートである。It is the flowchart which showed the flow of the positional information derivation processing. 代表距離導出処理の流れを示したフローチャートである。It is the flowchart which showed the flow of the representative distance derivation processing. 第1グループ化処理の流れを示したフローチャートである。It is the flowchart which showed the flow of the 1st grouping process. 色識別子設定処理の流れを示したフローチャートである。It is the flowchart which showed the flow of the color identifier setting process. 第2グループ化処理の流れを示したフローチャートである。It is the flowchart which showed the flow of the 2nd grouping process. 第1可能性判定処理の流れを示したフローチャートである。It is the flowchart which showed the flow of the 1st possibility determination process. 第2可能性判定処理の流れを示したフローチャートである。It is the flowchart which showed the flow of the 2nd possibility determination process.

以下に添付図面を参照しながら、本発明の好適な実施形態について詳細に説明する。かかる実施形態に示す寸法、材料、その他具体的な数値などは、発明の理解を容易とするための例示にすぎず、特に断る場合を除き、本発明を限定するものではない。なお、本明細書及び図面において、実質的に同一の機能、構成を有する要素については、同一の符号を付することにより重複説明を省略し、また本発明に直接関係のない要素は図示を省略する。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. The dimensions, materials, and other specific numerical values shown in the embodiment are merely examples for facilitating understanding of the invention, and do not limit the present invention unless otherwise specified. In the present specification and drawings, elements having substantially the same function and configuration are denoted by the same reference numerals, and redundant description is omitted, and elements not directly related to the present invention are not illustrated. To do.

(環境認識システム100)
図1は、環境認識システム100の接続関係を示したブロック図である。環境認識システム100は、自車両1内に設けられた、複数(本実施形態では2つ)の撮像装置110と、車外環境認識装置120と、車両制御装置130とを含んで構成される。
(Environment recognition system 100)
FIG. 1 is a block diagram showing a connection relationship of the environment recognition system 100. The environment recognition system 100 includes a plurality (two in the present embodiment) of imaging devices 110, a vehicle exterior environment recognition device 120, and a vehicle control device 130 provided in the host vehicle 1.

撮像装置110は、CCD(Charge-Coupled Device)やCMOS(Complementary Metal-Oxide Semiconductor)等の撮像素子を含んで構成され、カラー画像、即ち、画素単位で3つの色相(R(赤)、G(緑)、B(青))の輝度を取得することができる。本実施形態においては、色と輝度とを同等に扱い、同一の文章に両文言が含まれる場合、互いを、色を構成する輝度、または、輝度を有する色と読み替えることができる。ここでは、撮像装置110で撮像されたカラーの画像を輝度画像と呼び、後述する距離画像と区別する。   The imaging device 110 includes an imaging device such as a charge-coupled device (CCD) or a complementary metal-oxide semiconductor (CMOS), and is a color image, that is, three hues (R (red), G (pixel-by-pixel)). The brightness of green) and B (blue) can be acquired. In the present embodiment, color and luminance are treated equally, and when both words are included in the same sentence, each other can be read as luminance constituting the color or a color having luminance. Here, a color image picked up by the image pickup apparatus 110 is called a luminance image, and is distinguished from a distance image described later.

また、撮像装置110は、自車両1の進行方向側において2つの撮像装置110それぞれの撮像軸(光軸)が、同一の水平面上で位置を異にし、略平行になるように離隔して配置される。撮像装置110は、自車両1の前方の検出領域に存在する対象物を撮像した画像データを、例えば1/60秒毎(60fps)に連続して生成する。以下の実施形態における各機能部は、このような画像データの更新を契機として各処理を遂行する。したがって、各機能部は、フレーム単位で処理を繰り返すこととなる。ここで、対象物は、画像データに基づく画像の各部位に対応する車外環境に実在する物である。また、特定物は、対象物のうち、衝突回避制御やクルーズコントロール上で特定される物である。特定物は、車両、信号機、道路、ガードレールといった独立して存在する特定物のみならず、信号機の各点灯部分、ブレーキランプ(テールランプ)、ウィンカー等、特定物の部分として特定できる物も含む。   Further, the imaging devices 110 are arranged so that the imaging axes (optical axes) of the two imaging devices 110 are different in position on the same horizontal plane and are substantially parallel on the traveling direction side of the host vehicle 1. Is done. The imaging device 110 continuously generates, for example, every 1/60 seconds (60 fps), image data obtained by imaging an object existing in the detection area in front of the host vehicle 1. Each functional unit in the following embodiment performs each process triggered by such update of image data. Therefore, each functional unit repeats the process in units of frames. Here, the object is an object that actually exists in the environment outside the vehicle corresponding to each part of the image based on the image data. Further, the specific object is an object specified on the collision avoidance control or cruise control among the objects. Specific items include not only specific items that exist independently, such as vehicles, traffic lights, roads, and guardrails, but also those that can be specified as parts of specific items such as each lighting part of a traffic light, brake lamp (tail lamp), blinker, and the like.

車外環境認識装置120は、2つの撮像装置110それぞれから画像データを取得し、一方の画像データに基づく画像から任意に抽出したブロック(ここでは水平4画素×垂直4画素の配列で構成される)に対応するブロックを他方の画像データに基づく画像から検出する、所謂パターンマッチングを用いて視差を導き出す。ここで、ブロックの説明に用いられた「水平」は、撮像した画像の画面横方向を示し、実空間上の水平方向に相当する。また、「垂直」は、撮像した画像の画面縦方向を示し、実空間上の鉛直方向に相当する。   The outside-vehicle environment recognition device 120 acquires image data from each of the two imaging devices 110, and is a block arbitrarily extracted from an image based on one of the image data (here, composed of an array of horizontal 4 pixels × vertical 4 pixels). The parallax is derived using so-called pattern matching, in which a block corresponding to is detected from an image based on the other image data. Here, “horizontal” used in the description of the block indicates the horizontal direction of the captured image and corresponds to the horizontal direction in real space. “Vertical” indicates the vertical direction of the captured image and corresponds to the vertical direction in real space.

このパターンマッチングとしては、2つの画像データ間において、任意の画像位置を示すブロック単位で輝度値(Y色差信号)を比較することが考えられる。例えば、輝度値の差分をとるSAD(Sum of Absolute Difference)、差分を2乗して用いるSSD(Sum of Squared intensity Difference)や、各画素の輝度値から平均値を引いた分散値の類似度をとるNCC(Normalized Cross Correlation)等の手法がある。車外環境認識装置120は、このようなブロック単位の視差導出処理を検出領域(例えば600画素×200画素)に映し出されている全てのブロックについて行う。ここでは、ブロックを4画素×4画素としているが、ブロック内の画素数は任意に設定することができる。   As this pattern matching, it is conceivable to compare luminance values (Y color difference signals) in units of blocks indicating an arbitrary image position between two pieces of image data. For example, the SAD (Sum of Absolute Difference) that takes the difference in luminance value, the SSD (Sum of Squared intensity Difference) that uses the difference squared, and the similarity of the variance value obtained by subtracting the average value from the luminance value of each pixel. There are methods such as NCC (Normalized Cross Correlation). The vehicle exterior environment recognition apparatus 120 performs such block-based parallax derivation processing for all blocks displayed in the detection area (for example, 600 pixels × 200 pixels). Here, the block is 4 pixels × 4 pixels, but the number of pixels in the block can be arbitrarily set.

しかし、車外環境認識装置120では、パターンマッチングを通じて検出分解能単位であるブロック毎に視差を導出することはできるが、そのブロックがどのような特定物の一部であるかを認識できない。したがって、視差情報は、特定物単位ではなく、検出領域における検出分解能単位(例えばブロック単位)で独立して導出されることとなる。ここでは、このようにして導出された視差情報(後述する相対距離に相当)を画像データに対応付けた画像を距離画像という。   However, the vehicle environment recognition apparatus 120 can derive the parallax for each block, which is a unit of detection resolution, through pattern matching, but cannot recognize what kind of specific object the block is. Accordingly, disparity information is derived independently not in units of specific objects but in units of detection resolution (for example, blocks) in the detection region. Here, an image in which the parallax information derived in this way (corresponding to a relative distance described later) is associated with image data is referred to as a distance image.

図2は、輝度画像124と距離画像126を説明するための説明図である。例えば、2つの撮像装置110を通じ、検出領域122について図2(a)のような輝度画像(画像データ)124が生成されたとする。ただし、ここでは、理解を容易にするため、2つの輝度画像124の一方のみを模式的に示している。車外環境認識装置120は、このような輝度画像124からブロック毎の視差を求め、図2(b)のような距離画像126を形成する。距離画像126における各ブロックには、そのブロックの視差が関連付けられている。ここでは、説明の便宜上、視差が導出されたブロックを黒のドットで表している。   FIG. 2 is an explanatory diagram for explaining the luminance image 124 and the distance image 126. For example, it is assumed that a luminance image (image data) 124 as illustrated in FIG. 2A is generated for the detection region 122 through the two imaging devices 110. However, only one of the two luminance images 124 is schematically shown here for easy understanding. The vehicle environment recognition apparatus 120 obtains the parallax for each block from the luminance image 124 and forms a distance image 126 as shown in FIG. Each block in the distance image 126 is associated with the parallax of the block. Here, for convenience of description, blocks from which parallax is derived are represented by black dots.

視差は、画像のエッジ部分(隣り合う画素間で明暗の差分が大きい部分)で特定され易いので、距離画像126において黒のドットが付されている、視差が導出されたブロックは、輝度画像124においてもエッジとなっていることが多い。したがって、図2(a)に示す輝度画像124と図2(b)に示す距離画像126とは各特定物の輪郭について似たものとなる。   Since the parallax is easily specified at the edge portion of the image (the portion where the difference in brightness between adjacent pixels is large), the block to which the black dot is attached in the distance image 126 and from which the parallax is derived is the luminance image 124. Are often edges. Therefore, the luminance image 124 shown in FIG. 2A and the distance image 126 shown in FIG. 2B are similar to the contour of each specific object.

そして、車外環境認識装置120は、距離画像126に基づく自車両1との相対距離(以下、単に相対距離という。)を用いて検出領域122に表示されている対象物がどのような種類の特定物に対応するかを特定する。例えば、所定の相対距離を維持している(自車両と同速度で走行する)特定物を先行車両と認識する。また、車外環境認識装置120は、さらに、輝度画像124の輝度に基づき、例えば、先行車両のブレーキランプを特定することで、ブレーキランプの点灯を通じて当該先行車両の減速を迅速に把握し、衝突回避制御やクルーズコントロールに利用することが可能となる。   Then, the vehicle environment recognition apparatus 120 uses the relative distance from the host vehicle 1 based on the distance image 126 (hereinafter simply referred to as “relative distance”) to identify what type of object is displayed in the detection area 122. Identify whether it corresponds to an object. For example, a specific object that maintains a predetermined relative distance (runs at the same speed as the host vehicle) is recognized as a preceding vehicle. Further, the outside environment recognition device 120 further identifies, for example, the brake lamp of the preceding vehicle based on the luminance of the luminance image 124, thereby quickly grasping the deceleration of the preceding vehicle through the lighting of the brake lamp and avoiding the collision. It can be used for control and cruise control.

尚、上記距離画像126に基づく自車両1との相対距離は、距離画像126におけるブロック毎の視差情報を、所謂ステレオ法を用いて三次元の位置情報に変換することで求められる。ここで、ステレオ法は、三角測量法を用いることで、特定物の視差からその特定物の撮像装置110に対する相対距離を導出する方法である。かかる車外環境認識装置120の処理に関しては、後ほど詳述する。   The relative distance from the host vehicle 1 based on the distance image 126 is obtained by converting the parallax information for each block in the distance image 126 into three-dimensional position information using a so-called stereo method. Here, the stereo method is a method of deriving the relative distance of the specific object from the imaging device 110 from the parallax of the specific object by using a triangulation method. The processing of the outside environment recognition device 120 will be described in detail later.

車両制御装置130は、車外環境認識装置120で特定された特定物との衝突を回避したり(衝突回避制御)、先行車両との車間距離を安全な距離に保つ制御(クルーズコントロール)を実行する。具体的に、車両制御装置130は、操舵の角度を検出する舵角センサ132や自車両1の速度を検出する車速センサ134等を通じて現在の自車両1の走行状態を取得し、アクチュエータ136を制御して先行車両との車間距離を安全な距離に保つ。ここで、アクチュエータ136は、ブレーキ、スロットルバルブ、舵角等を制御するために用いられる車両制御用のアクチュエータである。また、車両制御装置130は、特定物との衝突が想定される場合、運転者の前方に設置されたディスプレイ138にその旨警告表示(報知)を行うと共に、アクチュエータ136を制御して自車両1を自動的に制動する。かかる車両制御装置130は、車外環境認識装置120と一体的に形成することもできる。   The vehicle control device 130 avoids a collision with a specific object specified by the outside environment recognition device 120 (collision avoidance control), or executes a control (cruise control) that keeps the distance between the vehicle and the preceding vehicle at a safe distance. . Specifically, the vehicle control device 130 acquires the current traveling state of the host vehicle 1 through the steering angle sensor 132 that detects the steering angle, the vehicle speed sensor 134 that detects the speed of the host vehicle 1, and the like, and controls the actuator 136. The distance between the vehicle and the preceding vehicle is kept safe. Here, the actuator 136 is a vehicle control actuator used to control a brake, a throttle valve, a steering angle, and the like. Further, when a collision with a specific object is assumed, the vehicle control device 130 displays a warning (notification) on the display 138 installed in front of the driver and controls the actuator 136 to control the host vehicle 1. Brake automatically. Such a vehicle control device 130 can also be formed integrally with the outside environment recognition device 120.

本実施形態では、上記環境認識システム100を通じて、特定物である先行車両が占有する特定領域(特定物に準じる、検出領域中の一部の領域)を特定すると共に、信号機の赤色灯や黄色灯(停止または進行不可を示す停止信号灯)を特定する。そして、両者の位置関係から、矢印信号機の青色灯(進行許可を示す進行信号灯)が潜在している可能性を導き出す。以下、車外環境認識装置120について詳述する。   In the present embodiment, through the environment recognition system 100, a specific area (part of the detection area in accordance with the specific object) occupied by the preceding vehicle that is the specific object is specified, and the red light or yellow light of the traffic light is specified. (Stop signal light indicating stop or no progress) is identified. And the possibility that the blue light of the arrow traffic light (a progress signal lamp indicating progress permission) is latent is derived from the positional relationship between the two. Hereinafter, the outside environment recognition device 120 will be described in detail.

(車外環境認識装置120)
図3は、車外環境認識装置120の概略的な機能を示した機能ブロック図である。図3に示すように、車外環境認識装置120は、I/F部150と、データ保持部152と、中央制御部154とを含んで構成される。
(Vehicle environment recognition device 120)
FIG. 3 is a functional block diagram showing a schematic function of the outside environment recognition device 120. As shown in FIG. 3, the vehicle exterior environment recognition apparatus 120 includes an I / F unit 150, a data holding unit 152, and a central control unit 154.

I/F部150は、撮像装置110や車両制御装置130との双方向の情報交換を行うためのインターフェースである。かかるI/F部150は撮像装置110から輝度画像124を取得する画像取得部として機能する。データ保持部152は、RAM、フラッシュメモリ、HDD等で構成され、色識別子テーブルや、以下に示す各機能部の処理に必要な様々な情報を保持すると共に、撮像装置110から受信した輝度画像124を一時的に保持する。ここで、色識別子テーブルは、以下のように利用される。   The I / F unit 150 is an interface for performing bidirectional information exchange with the imaging device 110 and the vehicle control device 130. The I / F unit 150 functions as an image acquisition unit that acquires the luminance image 124 from the imaging device 110. The data holding unit 152 includes a RAM, a flash memory, an HDD, and the like. The data holding unit 152 holds a color identifier table and various pieces of information necessary for processing of each functional unit described below, and the luminance image 124 received from the imaging device 110. Hold temporarily. Here, the color identifier table is used as follows.

図4は、色識別子テーブル200を説明するための説明図である。色識別子テーブル200では、予め定められた所定数の色を表す輝度範囲202が色識別子204に対応付けられている。例えば、色識別子「1」には、赤色の特定物に相当する輝度範囲、例えば、輝度範囲(R)「80以上」、輝度範囲(G)「40以下」、輝度範囲(B)「40以下」が対応付けられている。同様に、色識別子「2」、「3」、「4」、「5」、「6」、「7」、「8」には、黄色、青緑色、マゼンタ色、橙色、朱色、青色、緑色の特定物に相当する輝度範囲が対応付けられている。ただし、輝度範囲は図4に記載された輝度範囲に限定されず、また、その数も限定されないのは言うまでもない。   FIG. 4 is an explanatory diagram for explaining the color identifier table 200. In the color identifier table 200, a luminance range 202 representing a predetermined number of colors that are determined in advance is associated with the color identifier 204. For example, the color identifier “1” includes a luminance range corresponding to a red specific object, for example, a luminance range (R) “80 or more”, a luminance range (G) “40 or less”, and a luminance range (B) “40 or less. "Is associated. Similarly, for the color identifiers “2”, “3”, “4”, “5”, “6”, “7”, “8”, yellow, blue-green, magenta, orange, vermilion, blue, green A luminance range corresponding to the specific object is associated. However, it goes without saying that the luminance range is not limited to the luminance range shown in FIG. 4, and the number thereof is not limited.

ここで、図示はしていないが、色識別子テーブル200における各色識別子には、1または複数の特定物が対応付けられている。例えば、色識別子「1」には赤色の特定物「信号機の赤色灯」が対応付けられる。これは、輝度が近似している特定物同士を同一の基準(輝度範囲)で抽出することで、計算負荷の増加を回避するためである。   Here, although not shown, each color identifier in the color identifier table 200 is associated with one or more specific objects. For example, the color identifier “1” is associated with a red specific object “red light of traffic light”. This is for avoiding an increase in calculation load by extracting specific objects having similar brightness with the same reference (brightness range).

中央制御部154は、中央処理装置(CPU)、プログラム等が格納されたROM、ワークエリアとしてのRAM等を含む半導体集積回路で構成され、システムバス156を通じて、I/F部150やデータ保持部152を制御する。また、本実施形態において、中央制御部154は、視差導出部160、位置情報導出部162、代表距離導出部164、第1グループ化部166、特定物選択部168、色識別子設定部170、第2グループ化部172、第1可能性判定部174、第2可能性判定部176としても機能する。   The central control unit 154 is configured by a semiconductor integrated circuit including a central processing unit (CPU), a ROM storing a program and the like, a RAM as a work area, and the like, and through the system bus 156, the I / F unit 150 and the data holding unit. 152 is controlled. In the present embodiment, the central control unit 154 includes the parallax deriving unit 160, the position information deriving unit 162, the representative distance deriving unit 164, the first grouping unit 166, the specific object selecting unit 168, the color identifier setting unit 170, the first It also functions as a two-grouping unit 172, a first possibility determination unit 174, and a second possibility determination unit 176.

視差導出部160は、撮像装置110から取得した2の画像データ(輝度画像)を比較し、一方の画像データに基づく画像(基準画像)における、1または複数の画素からなる任意のブロックと相関の高いブロックを、他方の画像データに基づく画像(比較画像)から抽出する。そして、両ブロックの視差を求め、視差情報とする。   The parallax deriving unit 160 compares the two pieces of image data (luminance image) acquired from the imaging device 110, and correlates with an arbitrary block composed of one or a plurality of pixels in an image (reference image) based on one image data. A high block is extracted from an image (comparison image) based on the other image data. And the parallax of both blocks is calculated | required and it is set as parallax information.

位置情報導出部162は、距離画像126における検出領域122内のブロック毎の視差情報を、上述したステレオ法を用いて、水平距離x、高さyおよび相対距離zを含む三次元の位置情報に変換する。ここで、視差情報が、距離画像126における各ブロックの視差を示すのに対し、三次元の位置情報は、実空間における各ブロックの相対距離の情報を示す。また、視差情報が画素単位ではなくブロック単位、即ち複数の画素単位で導出されている場合、その視差情報はブロックに属する全ての画素の視差情報とみなして、画素単位の計算を実行することができる。   The position information deriving unit 162 converts the disparity information for each block in the detection region 122 in the distance image 126 into three-dimensional position information including the horizontal distance x, the height y, and the relative distance z using the stereo method described above. Convert. Here, the parallax information indicates the parallax of each block in the distance image 126, while the three-dimensional position information indicates information on the relative distance of each block in the real space. Further, when the disparity information is derived not in pixel units but in block units, that is, in a plurality of pixel units, the disparity information may be regarded as disparity information of all pixels belonging to the block, and calculation in pixel units may be executed. it can.

図5は、位置情報導出部162による三次元の位置情報への変換を説明するための説明図である。位置情報導出部162は、まず、距離画像126を図5の如く画素単位の座標系として認識する。ここでは、図5中、左下隅を原点(0,0)とし、横方向をi座標軸、縦方向をj座標軸とする。したがって、視差を有する画素は、画素位置i、jと視差を示す視差情報dpとによって(i,j,dp)のように表すことができる。   FIG. 5 is an explanatory diagram for explaining the conversion into three-dimensional position information by the position information deriving unit 162. First, the position information deriving unit 162 recognizes the distance image 126 as a pixel unit coordinate system as shown in FIG. In FIG. 5, the lower left corner is the origin (0, 0), the horizontal direction is the i coordinate axis, and the vertical direction is the j coordinate axis. Therefore, a pixel having parallax can be expressed as (i, j, dp) by the pixel position i, j and the parallax information dp indicating the parallax.

本実施形態における実空間上の三次元座標系を、自車両1を中心とした相対座標系で考える。ここでは、自車両1の進行方向右側方をX軸の正方向、自車両1の上方をY軸の正方向、自車両1の進行方向(前方)をZ軸の正方向、2つの撮像装置110の中央を通る鉛直線と道路表面との交点を原点(0,0,0)とする。このとき、道路を平面と仮定すると、道路表面がX−Z平面(y=0)と一致することとなる。位置情報導出部162は、以下の(数式1)〜(数式3)によって距離画像126上のブロック(i,j,dp)を、実空間上の三次元の点(x,y,z)に座標変換する。
x=CD/2+z・PW・(i−IV) …(数式1)
y=CH+z・PW・(j−JV) …(数式2)
z=KS/dp …(数式3)
ここで、CDは撮像装置110同士の間隔(基線長)であり、PWは1画素当たりの視野角であり、CHは撮像装置110の道路表面からの配置高さであり、IV、JVは自車両1の真正面における無限遠点の画像上の座標(画素)であり、KSは距離係数(KS=CD/PW)である。
The three-dimensional coordinate system in real space in the present embodiment is considered as a relative coordinate system with the host vehicle 1 as the center. Here, the right side of the traveling direction of the host vehicle 1 is the positive direction of the X axis, the upper direction of the host vehicle 1 is the positive direction of the Y axis, and the traveling direction (front) of the host vehicle 1 is the positive direction of the Z axis. The intersection of the vertical line passing through the center of 110 and the road surface is defined as the origin (0, 0, 0). At this time, assuming that the road is a plane, the road surface coincides with the XZ plane (y = 0). The position information deriving unit 162 converts the block (i, j, dp) on the distance image 126 to a three-dimensional point (x, y, z) in the real space by the following (Formula 1) to (Formula 3). Convert coordinates.
x = CD / 2 + z · PW · (i-IV) (Equation 1)
y = CH + z · PW · (j−JV) (Formula 2)
z = KS / dp (Formula 3)
Here, CD is the interval (baseline length) between the imaging devices 110, PW is the viewing angle per pixel, CH is the height of the imaging device 110 from the road surface, and IV and JV are The coordinates (pixels) on the image of the point at infinity in front of the vehicle 1 and KS is a distance coefficient (KS = CD / PW).

したがって、位置情報導出部162は、ブロックの相対距離と、ブロックと同相対距離にある道路表面上の点とブロックとの距離画像126上の検出距離(例えば画素数)とに基づいて、道路表面からの高さを導出していることとなる。   Therefore, the position information deriving unit 162 determines the road surface based on the relative distance of the block and the detected distance (for example, the number of pixels) on the distance image 126 between the block and the point on the road surface at the same relative distance as the block. The height from is derived.

代表距離導出部164は、まず、距離画像126の検出領域122を、水平方向に対して複数の分割領域に分割する。続いて、代表距離導出部164は、道路表面より上方に位置するブロックを対象に、位置情報に基づいて分割領域毎に、複数に区分した所定距離それぞれに含まれる相対距離を積算してヒストグラムを生成する。そして、代表距離導出部164は、積算した距離分布のピークに相当する代表距離を導出する。ここで、ピークに相当するとは、ピーク値またはピーク近傍で任意の条件を満たす値をいう。   First, the representative distance deriving unit 164 divides the detection area 122 of the distance image 126 into a plurality of divided areas in the horizontal direction. Subsequently, the representative distance deriving unit 164 adds up the relative distances included in each of the predetermined distances divided into a plurality of divided areas based on the position information for blocks located above the road surface, and displays a histogram. Generate. Then, the representative distance deriving unit 164 derives a representative distance corresponding to the peak of the accumulated distance distribution. Here, “corresponding to a peak” means a peak value or a value that satisfies an arbitrary condition in the vicinity of the peak.

図6は、分割領域216と代表距離220とを説明するための説明図である。図6に示したように、距離画像126を水平方向に複数分割すると、分割領域216は図6(a)のような短冊形状になる。このような短冊形状の分割領域216は、本来、例えば、水平幅4画素のものが150列配列して成るが、ここでは、説明の便宜上、検出領域122を16等分したもので説明する。   FIG. 6 is an explanatory diagram for explaining the divided region 216 and the representative distance 220. As shown in FIG. 6, when the distance image 126 is divided into a plurality of parts in the horizontal direction, the divided region 216 has a strip shape as shown in FIG. Such a strip-shaped divided region 216 is originally composed of, for example, 150 columns each having a horizontal width of 4 pixels, but here, for convenience of explanation, the detection region 122 is divided into 16 parts.

続いて、代表距離導出部164は、各分割領域216において、全てのブロックの相対距離を参照し、ヒストグラム(図6(b)中、横長の四角(バー)で示す)を作成すると、図6(b)のような距離分布218が得られる。ここで、縦方向は、区分した所定距離を、横方向は、区分した所定距離それぞれに相対距離が含まれるブロックの個数を示している。ただし、図6(b)は計算を行う上での仮想的な画面であり、実際には視覚的な画面の生成を伴わない。そして、代表距離導出部164は、このようにして導出された距離分布218を参照し、ピークに相当する相対距離である代表距離(図6(b)中、黒で塗りつぶした四角で示す)220を特定する。   Subsequently, the representative distance deriving unit 164 refers to the relative distances of all the blocks in each divided region 216 and creates a histogram (shown as a horizontally long square (bar) in FIG. 6B). A distance distribution 218 as shown in (b) is obtained. Here, the vertical direction indicates the divided predetermined distance, and the horizontal direction indicates the number of blocks in which the relative distance is included in each of the divided predetermined distances. However, FIG. 6B is a virtual screen for performing the calculation, and actually does not involve generation of a visual screen. Then, the representative distance deriving unit 164 refers to the distance distribution 218 derived in this way, and represents a representative distance (indicated by a square filled in black in FIG. 6B) that is a relative distance corresponding to a peak. Is identified.

第1グループ化部166は、まず、隣接する分割領域216同士の代表距離220を順次比較し、代表距離220が近接する(例えば、1m以下に位置する)分割領域216をグループ化して1または複数の分割領域群を生成する。このとき、3以上の分割領域216で代表距離220が近接していた場合にも、連続する全ての分割領域216を分割領域群として纏める。   The first grouping unit 166 first sequentially compares the representative distances 220 between adjacent divided areas 216, and groups the divided areas 216 that are close to each other (for example, located at 1 m or less) into one or a plurality of divided areas 216. A divided region group is generated. At this time, even when the representative distance 220 is close in three or more divided areas 216, all the continuous divided areas 216 are collected as a divided area group.

図7は、分割領域群222を説明するための説明図である。第1グループ化部166は、分割領域216同士を比較し、図7に示すように代表距離220をグループ化する(グループ化後の仮想的なグループ224)。かかるグループ化によって、第1グループ化部166は、道路表面より上方に位置する特定物を特定することができる。また、第1グループ化部166は、そのグループ化された分割領域群222中における水平方向および鉛直方向の相対距離の推移に基づいて、グループ224が、先行車両の後部、側部、またはガードレール等の道路に沿った構造物等のいずれであるかを認識することが可能となる。   FIG. 7 is an explanatory diagram for explaining the divided region group 222. The first grouping unit 166 compares the divided areas 216 and groups the representative distances 220 as shown in FIG. 7 (virtual group 224 after grouping). By such grouping, the first grouping unit 166 can identify a specific object located above the road surface. Further, the first grouping unit 166 is configured such that the group 224 is changed to a rear portion, a side portion, a guardrail, or the like of the preceding vehicle based on the transition of the relative distance in the horizontal direction and the vertical direction in the grouped divided region group 222. It is possible to recognize which is a structure along the road.

続いて、第1グループ化部166は、自車両1との相対的な位置関係に応じ、先行車両等の特定物を特定し、その特定物の外縁に従って、1または複数の特定領域を定める。   Subsequently, the first grouping unit 166 identifies a specific object such as a preceding vehicle according to the relative positional relationship with the host vehicle 1, and determines one or more specific areas according to the outer edge of the specific object.

図8は、第1グループ化部166の処理を説明するための説明図である。特定領域230は、特定物の外縁を収容する予め定められた様々な形状で表すことができるが、ここでは図8のように、四角形の枠で表すこととする。具体的に、第1グループ化部166は、第1グループ化部166が生成した分割領域群222内における、相対距離zが代表距離220に相当するブロックを基点として、そのブロックと、水平距離xの差分、高さyの差分および相対距離zの差分が予め定められた範囲(例えば0.1m)内にあるブロックとを、同一の特定物に対応すると仮定してグループ化する。上記の範囲は実空間上の距離で表され、製造者や搭乗者によって任意の値に設定することができる。また、第1グループ化部166は、グループ化により新たに追加されたブロックに関しても、そのブロックを基点として、水平距離xの差分、高さyの差分および相対距離zの差分が所定範囲内にあるブロックをさらにグループ化する。結果的に、同一の特定物と仮定可能なブロック全てがグループ化されることとなる。   FIG. 8 is an explanatory diagram for explaining the processing of the first grouping unit 166. The specific area 230 can be expressed by various predetermined shapes that accommodate the outer edge of the specific object. Here, the specific area 230 is expressed by a rectangular frame as shown in FIG. Specifically, the first grouping unit 166 uses the block whose relative distance z corresponds to the representative distance 220 in the divided region group 222 generated by the first grouping unit 166 as a base point, and the horizontal distance x , The difference in height y, and the difference in relative distance z are grouped on the assumption that they correspond to the same specific object in a predetermined range (for example, 0.1 m). The above range is represented by a distance in real space, and can be set to an arbitrary value by a manufacturer or a passenger. The first grouping unit 166 also uses the block as a base point for the newly added block by grouping so that the difference in the horizontal distance x, the difference in the height y, and the difference in the relative distance z are within a predetermined range. A block is further grouped. As a result, all blocks that can be assumed to be the same specific object are grouped.

また、ここでは、水平距離xの差分、高さyの差分および相対距離zの差分をそれぞれ独立して判定し、全てが所定範囲に含まれる場合のみ同一のグループとしているが、他の計算によることもできる。例えば、水平距離xの差分、高さyの差分および相対距離zの差分の二乗平均√((水平距離xの差分)+(高さyの差分)+(相対距離zの差分))が所定範囲に含まれる場合に同一のグループとしてもよい。かかる計算により、ブロック同士の実空間上の正確な距離を導出することができるので、グループ化精度を高めることができる。 Here, the horizontal distance x difference, the height y difference, and the relative distance z difference are determined independently, and only when all are included in a predetermined range, the same group is used. You can also. For example, the root mean square of the difference in horizontal distance x, the difference in height y, and the difference in relative distance z ((difference in horizontal distance x) 2 + (difference in height y) 2 + (difference in relative distance z) 2 ) Are included in the predetermined range, the same group may be used. With this calculation, an accurate distance between blocks in real space can be derived, so that the grouping accuracy can be improved.

続いて、第1グループ化部166は、グループ化したブロック群が予め定められた所定の条件を満たしていれば、そのブロック群を特定物として決定する。例えば、第1グループ化部166は、グループ化されたブロック群が道路上に位置する場合、そのブロック群全体の大きさが、特定物「車両」の大きさに相当するか否か判定し、特定物「車両」の大きさに相当すると判定されれば、そのブロック群を特定物「車両」と特定する。そして、第1グループ化部166は、特定物「車両」と特定されたブロック群が画面上占有する領域を、車両の特定領域230とする。   Subsequently, the first grouping unit 166 determines the block group as a specific object if the grouped block group satisfies a predetermined condition. For example, when the grouped block group is located on the road, the first grouping unit 166 determines whether the size of the entire block group corresponds to the size of the specific object “vehicle”. If it is determined that the size corresponds to the size of the specific object “vehicle”, the block group is specified as the specific object “vehicle”. The first grouping unit 166 sets the area occupied on the screen by the block group identified as the specific object “vehicle” as the specific area 230 of the vehicle.

特定物選択部168は、第1グループ化部166が特定した1または複数の特定物から追跡対象となる特定物(選択特定物)を選択する。そして、特定物選択部168は、選択した選択特定物を追跡する。本実施形態では、衝突の可能性が他と比較して高くなる、自車両1の前方に位置する車両(先行車両)を選択特定物としている。このような選択特定物の選択手段や追跡手段は既存の様々な手法を用いることができるので、ここでは、その詳細な説明を省略する。   The specific object selection unit 168 selects a specific object (selected specific object) to be tracked from one or more specific objects specified by the first grouping unit 166. Then, the specific object selection unit 168 tracks the selected specific object selected. In the present embodiment, a vehicle (preceding vehicle) positioned in front of the host vehicle 1 where the possibility of a collision is higher than others is selected as the selected specific object. Since the selection means and the tracking means for such a selected specific object can use various existing techniques, detailed description thereof is omitted here.

色識別子設定部170は、検出領域122内の複数の画素の輝度と色識別子テーブル200の輝度範囲とに基づいて、各画素に色識別子を設定する。   The color identifier setting unit 170 sets a color identifier for each pixel based on the luminance of the plurality of pixels in the detection region 122 and the luminance range of the color identifier table 200.

まず、色識別子設定部170は、データ保持部152に保持された輝度画像124から、画素単位で輝度(画素単位で3つの色相(R、G、B)の輝度)を取得する。   First, the color identifier setting unit 170 acquires the luminance in units of pixels (the luminance of three hues (R, G, B) in units of pixels) from the luminance image 124 held in the data holding unit 152.

そして、色識別子設定部170は、色識別子テーブル200に登録されている色識別子204を順次選択し、取得した1の画素の輝度が、順次選択した色識別子204の輝度範囲202に含まれるか否か判定する。そして、画素の輝度が、いずれかの色識別子204の輝度範囲202に含まれれば、その画素に当該色識別子204を設定して、色識別子マップを作成する。   Then, the color identifier setting unit 170 sequentially selects the color identifiers 204 registered in the color identifier table 200, and whether or not the acquired luminance of one pixel is included in the luminance range 202 of the sequentially selected color identifier 204. To determine. If the luminance of the pixel is included in the luminance range 202 of any one of the color identifiers 204, the color identifier 204 is set for the pixel, and a color identifier map is created.

色識別子設定部170は、このような画素それぞれの輝度と色識別子テーブル200に登録されている複数の色識別子204の輝度範囲202との一連の比較を、複数の画素毎に順次実行する。ここで、色識別子204の選択順は「1」、「2」…といったように昇順である。   The color identifier setting unit 170 sequentially performs a series of comparisons between the luminance of each pixel and the luminance range 202 of the plurality of color identifiers 204 registered in the color identifier table 200 for each of the plurality of pixels. Here, the selection order of the color identifier 204 is ascending order such as “1”, “2”.

このような選択順に従って比較した結果、画素の輝度が序数の低い色識別子204の輝度範囲202に含まれていると判定された場合、それより序数の高い色識別子204に関する比較処理は最早行われない。したがって、1の画素に関して2以上の色識別子204が付されることはない。これは、複数の特定物が空間上で重なり合うことはないので、色識別子設定部170によって一旦任意の色識別子204が設定された対象物は、最早、他の色識別子204であるか否かを判定する必要がないという理由に基づく。このように画素を排他的に取り扱うことによって、既に色識別子204が設定された画素の重複した設定処理を回避することができ、処理負荷を軽減することが可能となる。   When it is determined that the luminance of the pixel is included in the luminance range 202 of the color identifier 204 with a low ordinal as a result of comparison in accordance with such a selection order, the comparison process for the color identifier 204 with a higher ordinal is performed earlier. Absent. Therefore, two or more color identifiers 204 are not attached to one pixel. This is because a plurality of specific objects do not overlap in space, so whether or not an object for which an arbitrary color identifier 204 is once set by the color identifier setting unit 170 is another color identifier 204 is determined. Based on the reason that there is no need to judge. By exclusively handling pixels in this way, it is possible to avoid duplicate setting processing of pixels for which the color identifier 204 has already been set, and to reduce the processing load.

図9は、色識別子マップ240を説明するための説明図である。色識別子マップ240は、輝度画像124に色識別子204を重ねたものである。したがって、特定物に相当する対象物の位置に、色識別子204が纏まって設定される。   FIG. 9 is an explanatory diagram for explaining the color identifier map 240. The color identifier map 240 is obtained by superimposing the color identifier 204 on the luminance image 124. Therefore, the color identifier 204 is collectively set at the position of the object corresponding to the specific object.

ここで、色識別子マップ240中の部分マップ240aに着目する。ここでは、部分マップ240a内の画素の輝度が、色識別子テーブル200における色識別子「1」の輝度範囲202と比較され、信号機の赤色灯に相当する複数の画素群242に色識別子「1」が対応付けられる。図9では、輝度画像124の複数の画素に色識別子が付された図を提示しているが、かかる表現は理解を容易にするための概念的なものであり、実際には画素毎に色識別子204が登録されている。   Here, attention is paid to the partial map 240 a in the color identifier map 240. Here, the luminance of the pixel in the partial map 240a is compared with the luminance range 202 of the color identifier “1” in the color identifier table 200, and the color identifier “1” is assigned to the plurality of pixel groups 242 corresponding to the red light of the traffic light. It is associated. In FIG. 9, a diagram in which color identifiers are attached to a plurality of pixels of the luminance image 124 is presented. However, such an expression is conceptual for ease of understanding. An identifier 204 is registered.

第2グループ化部172は、任意の画素を基点として、その画素と、色識別子204が等しく、かつ、水平距離xの差分、高さyの差分および相対距離zの差分が予め定められた範囲(例えば0.1m)内にある画素とを、同一の特定物に対応すると仮定してグループ化する。上記の範囲は実空間上の距離で表され、製造者や搭乗者によって任意の値に設定することができる。また、第2グループ化部172は、グループ化により新たに追加された画素に関しても、その画素を基点として、色識別子が等しく、かつ、水平距離xの差分、高さyの差分および相対距離zの差分が所定範囲内にある画素をさらにグループ化する。結果的に、同一の特定物と仮定可能な画素全てがグループ化されることとなる。   The second grouping unit 172 uses an arbitrary pixel as a base point, the pixel and the color identifier 204 are equal, and the difference in the horizontal distance x, the difference in the height y, and the difference in the relative distance z are predetermined ranges. Pixels within (for example, 0.1 m) are grouped on the assumption that they correspond to the same specific object. The above range is represented by a distance in real space, and can be set to an arbitrary value by a manufacturer or a passenger. Further, the second grouping unit 172 also has the same color identifier with respect to a pixel newly added as a result of grouping, the difference in horizontal distance x, the difference in height y, and the relative distance z. Pixels whose differences are within a predetermined range are further grouped. As a result, all pixels that can be assumed to be the same specific object are grouped.

また、ここでも、水平距離xの差分、高さyの差分および相対距離zの差分をそれぞれ独立して判定し、全てが所定範囲に含まれる場合のみ同一のグループとしているが、他の計算によることもできる。例えば、水平距離xの差分、高さyの差分および相対距離zの差分の二乗平均√((水平距離xの差分)+(高さyの差分)+(相対距離zの差分))が所定範囲に含まれる場合に同一のグループとしてもよい。 Also here, the difference in the horizontal distance x, the difference in the height y, and the difference in the relative distance z are independently determined, and the same group is formed only when all are included in the predetermined range. You can also. For example, the root mean square of the difference in horizontal distance x, the difference in height y, and the difference in relative distance z ((difference in horizontal distance x) 2 + (difference in height y) 2 + (difference in relative distance z) 2 ) Are included in the predetermined range, the same group may be used.

そして、第2グループ化部172は、第2グループ化部172がグループ化した対象物(画素群)が予め定められた条件を満たしていれば、その対象物を特定物として決定する。例えば、第2グループ化部172は、対象物の大きさ(対象物の水平距離xの幅および高さyの幅のいずれも)が、特定物に対応付けられた幅範囲に含まれていれば、その対象物を対象となる特定物として決定することとする。また、対象物の水平距離xの幅および高さyの幅それぞれについて幅範囲を設定してもよい。ここでは、対象物が、特定物とみなすのに妥当な大きさであることを確認している。したがって、幅範囲に含まれない場合、当該環境認識処理に不要な情報として除外することができる。例えば、図9の部分マップ240aにおける画素群242の大きさは、特定物「信号機の赤色灯」の幅範囲、例えば「0.05〜0.2m」(図示せず)に含まれるため、適切に特定物「信号機の赤色灯」と特定される。   Then, the second grouping unit 172 determines the target object as a specific object if the target object (pixel group) grouped by the second grouping unit 172 satisfies a predetermined condition. For example, in the second grouping unit 172, the size of the target object (both the horizontal distance x width and the height y width of the target object) is included in the width range associated with the specific object. For example, the target object is determined as a target specific object. Moreover, you may set the width range about each of the width | variety of the horizontal distance x of the target object, and the width | variety of height y. Here, it is confirmed that the object has a size that is appropriate to be regarded as a specific object. Therefore, when it is not included in the width range, it can be excluded as information unnecessary for the environment recognition process. For example, the size of the pixel group 242 in the partial map 240a in FIG. 9 is included in the width range of the specific object “red light of the traffic light”, for example, “0.05 to 0.2 m” (not shown). Is identified as a specific item “red light of traffic light”.

こうして、車外環境認識装置120では、輝度画像124から輝度範囲が等しい画素群242を、特定物として抽出することができ、その情報を様々な制御に用いることが可能となる。例えば、特定物「信号機の赤色灯」を抽出することで、その特定物が、移動を伴わない固定された物であることが把握されると共に、その特定物が自車線に関する信号機であれば、自車両1は、停止または減速すべきであることを把握することができ、運転者の制動操作をサポートする。   In this way, the outside environment recognition device 120 can extract the pixel group 242 having the same luminance range from the luminance image 124 as a specific object, and can use the information for various controls. For example, by extracting a specific object “red light of a traffic light”, it is understood that the specific object is a fixed object that does not involve movement, and if the specific object is a traffic light related to the own lane, The host vehicle 1 can grasp that it should stop or decelerate, and supports the driver's braking operation.

ただし、このように信号機の赤色灯が点灯していたとしても、その周囲の信号機の状態によっては、制動操作のサポートが不要な場合がある。例えば、赤色灯に付属する矢印信号機の青色灯が点灯していれば、自車両1の進行方向によっては制動をサポートする必要がない。そこで、車外環境認識装置120では、信号機が赤色灯であっても、それに付属する矢印信号機の青色灯が点灯している可能性があれば制動操作のサポートを抑制するように設定する。   However, even if the red light of the traffic light is lit in this way, depending on the state of the surrounding traffic light, support for the braking operation may be unnecessary. For example, if the blue light of the arrow traffic light attached to the red light is lit, it is not necessary to support braking depending on the traveling direction of the host vehicle 1. Therefore, in the outside environment recognition device 120, even if the traffic light is a red light, if there is a possibility that the blue light of the arrow traffic light attached thereto may be lit, the setting is made to suppress the support for the braking operation.

図10および図11は、選択特定物250と矢印信号機252との関係を示した説明図である。図10(a)および(b)は、輝度画像124および距離画像126の一例を、図11は、図10の状況における自車両1と選択特定物250と矢印信号機252の側面図を示している。本実施形態では、特定物選択部168が追跡対象となる1の選択特定物250を選択しているので、選択特定物250が矢印信号機252の青色灯を遮蔽していないことが分かれば、青色灯が潜在する可能性がないと判断することができる。   10 and 11 are explanatory diagrams showing the relationship between the selected specific object 250 and the arrow traffic light 252. FIG. 10A and 10B show examples of the luminance image 124 and the distance image 126, and FIG. 11 shows a side view of the host vehicle 1, the selected specific object 250, and the arrow traffic light 252 in the situation of FIG. . In this embodiment, since the specific object selection unit 168 selects one selected specific object 250 to be tracked, if it is known that the selected specific object 250 does not shield the blue light of the arrow traffic light 252, the blue color It can be determined that there is no potential for the light.

しかし、上述したように、本実施形態では、水平距離xの差分、高さyの差分および相対距離zの差分が予め定められた範囲(例えば0.1m)内にあるものを特定物として特定すると共に、自車両1の前方に位置する特定物を選択特定物250として選択している。したがって、図10、11に示すように、先行車両が荷台を有するトラック等であれば、その後端部分のみが選択特定物250として認識されることとなる。そうすると、図11に示すように選択特定物250(トラックの後端部分)自体は、信号機254に付属する矢印信号機252を遮蔽していないが、選択特定物250と一体的に移動するトラックのキャビン(運転台)256が遮蔽することもある。そこで、本実施形態では、選択特定物250やトラックのキャビン256を含む特定物を対象として、矢印信号機252の青色灯が潜在する可能性を導出し、衝突回避制御やクルーズコントロールによる不要な制動操作への介入を回避する。   However, as described above, in the present embodiment, the difference between the horizontal distance x, the difference in the height y, and the difference in the relative distance z is specified as a specific object within a predetermined range (for example, 0.1 m). In addition, the specific object located in front of the host vehicle 1 is selected as the selected specific object 250. Therefore, as shown in FIGS. 10 and 11, if the preceding vehicle is a truck or the like having a loading platform, only the rear end portion thereof is recognized as the selected specific object 250. Then, as shown in FIG. 11, the selected specific object 250 (the rear end portion of the track) itself does not shield the arrow traffic light 252 attached to the traffic light 254, but the cabin of the truck that moves together with the selected specific object 250. (Cab) 256 may be shielded. Therefore, in the present embodiment, the possibility of the blue light of the arrow traffic light 252 is derived for a specific object including the selected specific object 250 and the truck cabin 256, and unnecessary braking operation by collision avoidance control or cruise control is derived. Avoid intervention.

このような矢印信号機252が潜在する可能性は、信号機254の赤色灯や黄色灯を基準にして矢印信号機252の青色灯が潜在する可能性がある信号探索領域を導出し、信号機254より自車両1との相対距離が短い空間において信号探索領域を遮蔽する遮蔽物を探索することで把握できる。ただし、このような処理を毎フレーム行うとすると、処理負荷の増大を招くおそれがある。そこで、本実施形態においては、まず、第1可能性判定部174が、既知の情報である、選択特定物250と信号機254との位置関係に基づいて、矢印信号機252の青色灯が潜在する可能性を大まかに判定する。そして、かかる判定によっては潜在する可能性が明確ではない(判定ができない)場合にのみ、第2可能性判定部176が、信号探索領域と遮蔽物との位置関係に基づいて、矢印信号機252の青色灯が潜在する可能性を具体的に判定する。以下、第1可能性判定部174および第2可能性判定部176の処理を詳述する。   The potential of such an arrow traffic light 252 is derived from a signal search area in which the blue light of the arrow traffic light 252 may be latent on the basis of the red light and yellow light of the traffic light 254, and the own vehicle from the traffic light 254. It can be grasped by searching for a shielding object that shields the signal search area in a space having a short relative distance to 1. However, if such a process is performed every frame, the processing load may increase. Therefore, in the present embodiment, first, the first possibility determination unit 174 may cause the blue light of the arrow traffic light 252 to be latent based on the positional relationship between the selected specific object 250 and the traffic light 254, which is known information. Judging sex roughly. The second possibility determination unit 176, based only on the positional relationship between the signal search area and the shielding object, determines the potential of the arrow traffic light 252 only when the potential of the determination is not clear (cannot be determined). The possibility of a blue light is specifically determined. Hereinafter, the process of the 1st possibility determination part 174 and the 2nd possibility determination part 176 is explained in full detail.

第1可能性判定部174は、選択特定物250が存在し、かつ、第2グループ化部172によって、特定物「信号機の赤色灯」または「信号機の黄色灯」が特定されている場合、選択特定物250と信号機254の赤色灯や黄色灯との位置関係(水平方向の位置および高さ)に基づいて、信号機254の赤色灯や黄色灯に付属する矢印信号機252の青色灯が潜在する可能性を判定する。以下、赤色灯および黄色灯はほぼ同一の距離にあるので、合わせて赤色灯として説明する。したがって、赤色灯として説明しているところは、黄色灯に置き換えて理解することができる。   The first possibility determination unit 174 selects the specific specified object 250 and the second grouping unit 172 specifies the specific object “red light of traffic light” or “yellow light of traffic light”. Based on the positional relationship (horizontal direction position and height) between the specific object 250 and the red and yellow lights of the traffic light 254, the blue light of the arrow traffic light 252 attached to the red and yellow lights of the traffic light 254 may be latent. Determine gender. Hereinafter, since the red lamp and the yellow lamp are at substantially the same distance, they will be described together as a red lamp. Therefore, what is described as a red light can be understood by replacing it with a yellow light.

具体的に説明すると、第1可能性判定部174は、まず、選択特定物250の自車両1に対する相対距離が、信号機254の赤色灯の自車両1に対する相対距離より長いか否か、即ち、選択特定物250が信号機254の赤色灯より遠くにあるか否か判定する。かかる判定において、選択特定物250の相対距離が信号機254の赤色灯の相対距離より長い場合、矢印信号機252の青色灯は潜在しないと判定することができる。ここで、選択特定物250の相対距離が信号機254の赤色灯の相対距離より短い場合には、さらなる判定を行う。   Specifically, the first possibility determination unit 174 first determines whether the relative distance of the selected specific object 250 to the host vehicle 1 is longer than the relative distance of the red light of the traffic light 254 to the host vehicle 1, that is, It is determined whether or not the selected specific object 250 is far from the red light of the traffic light 254. In this determination, when the relative distance of the selected specific object 250 is longer than the relative distance of the red light of the traffic light 254, it can be determined that the blue light of the arrow traffic light 252 is not latent. Here, when the relative distance of the selected specific object 250 is shorter than the relative distance of the red light of the traffic light 254, further determination is performed.

図12は、選択特定物250と信号機254の赤色灯254aとの関係を示した説明図である。第1可能性判定部174は、信号機254の赤色灯254aに基づいて決定される、図12(a)に両矢印で示した水平方向の領域(例えば、信号機254の幅の2倍)と、選択特定物250の水平方向の領域との水平方向の位置が重複しているか否か判定する。例えば、図12(a)では、信号機254の赤色灯254aに基づく領域が選択特定物250の水平方向の領域に含まれているので、重複すると判定される。   FIG. 12 is an explanatory diagram showing the relationship between the selected specific object 250 and the red light 254a of the traffic light 254. The first possibility determination unit 174 is determined based on the red lamp 254a of the traffic light 254, and a horizontal region indicated by a double arrow in FIG. 12A (for example, twice the width of the traffic light 254), It is determined whether or not the horizontal position of the selected specific object 250 overlaps the horizontal area. For example, in FIG. 12A, since the area based on the red light 254a of the traffic light 254 is included in the area in the horizontal direction of the selected specific object 250, it is determined that they overlap.

かかる判定において、信号機254の赤色灯254aに基づく領域と選択特定物250の水平方向の領域とが重複しなければ、矢印信号機252の青色灯は潜在しないと判定することができる。ここで、信号機254の赤色灯254aに基づく領域と選択特定物250の水平方向の領域とが重複している場合には、さらなる判定を行う。   In this determination, if the area based on the red light 254a of the traffic light 254 and the horizontal area of the selected specific object 250 do not overlap, it can be determined that the blue light of the arrow traffic light 252 is not latent. Here, when the area based on the red light 254a of the traffic light 254 and the area in the horizontal direction of the selected specific object 250 overlap, further determination is performed.

続いて、第1可能性判定部174は、信号機254の赤色灯254aの高さに基づき、選択特定物250の相対距離において、選択特定物250がどの程度の高さ(遮蔽高さ)を有していれば、矢印信号機252の青色灯が潜在する可能性があるか導出する。例えば、図12(b)の例では、第1可能性判定部174は、選択特定物250における鉛直上向きの矢印で示した高さを導出する。   Subsequently, the first possibility determination unit 174 has a height (shielding height) of the selected specific object 250 in the relative distance of the selected specific object 250 based on the height of the red light 254a of the traffic light 254. If it does, the possibility that the blue light of the arrow traffic light 252 may be derived is derived. For example, in the example of FIG. 12B, the first possibility determination unit 174 derives the height indicated by the vertically upward arrow in the selected specific object 250.

次に、第1可能性判定部174は、導出した遮蔽高さと法規上の車両最大高さとを比較し、遮蔽高さが法規上の車両最大高さより高ければ、矢印信号機252の青色灯があれば画像として取得できているはずなので、矢印信号機252の青色灯は潜在しないと判定する。そして、遮蔽高さが法規上の車両最大高さより低ければ、第1可能性判定部174は、引き続き、遮蔽高さと選択特定物250の高さとを比較する。このとき、遮蔽高さが選択特定物250の高さより低ければ、矢印信号機252の青色灯があったとしても画像として取得することができないので、第1可能性判定部174は、矢印信号機252の青色灯が潜在する可能性があると判定する。ここで、遮蔽高さが選択特定物250の高さより高ければ、第2可能性判定部176に処理を移す。   Next, the first possibility determination unit 174 compares the derived shielding height with the legal maximum vehicle height, and if the shielding height is higher than the legal maximum vehicle height, the blue light of the arrow traffic light 252 may be present. Therefore, it is determined that the blue light of the arrow traffic light 252 is not latent. If the shielding height is lower than the legal vehicle maximum height, the first possibility determination unit 174 continues to compare the shielding height with the height of the selected specific object 250. At this time, if the shielding height is lower than the height of the selected specific object 250, even if there is a blue light of the arrow traffic light 252 it cannot be acquired as an image. It is determined that a blue light may be latent. Here, if the shielding height is higher than the height of the selected specific object 250, the process proceeds to the second possibility determination unit 176.

第1可能性判定部174が、矢印信号機252の青色灯が潜在する可能性があると判定した場合、第2可能性判定部176は、信号機254の赤色灯254aを基準として信号探索領域を定める。そして、第2可能性判定部176は、信号機254の赤色灯254aより相対距離が短い空間において信号探索領域を遮蔽する遮蔽物を探索し、矢印信号機252の青色灯が潜在する可能性を判定する。   When the first possibility determination unit 174 determines that there is a possibility that the blue light of the arrow traffic light 252 is latent, the second possibility determination unit 176 determines the signal search area with the red light 254a of the traffic light 254 as a reference. . And the 2nd possibility determination part 176 searches the shielding object which shields a signal search area | region in the space where relative distance is shorter than the red light 254a of the traffic light 254, and determines the possibility that the blue light of the arrow traffic light 252 is latent. .

図13は、信号探索領域258を説明するための説明図である。矢印信号機252の青色灯は、信号機254より鉛直下方向に信号機254の各色灯の2つ分の領域に配置される場合があり、また、信号機254の水平方向右側に鉛直方向に複数並置される可能性もある。したがって信号探索領域258は、図13に示すように、信号機254の赤色灯254a(または黄色灯254b)を基準とした枠となる。   FIG. 13 is an explanatory diagram for explaining the signal search area 258. The blue light of the arrow traffic light 252 may be arranged in the area of two color lights of the traffic light 254 vertically downward from the traffic light 254, and a plurality of blue lights are juxtaposed in the vertical direction on the right side in the horizontal direction of the traffic light 254. There is a possibility. Therefore, the signal search area 258 is a frame based on the red light 254a (or the yellow light 254b) of the traffic light 254 as shown in FIG.

第2可能性判定部176は、導出した信号探索領域258に対して、改めて信号機254の赤色灯254aの相対距離より手前に存在する遮蔽物を抽出し、その遮蔽物の占有面積比が予め定められた閾値(例えば、信号探索領域の20%)以上であれば、矢印信号機252の青色灯が潜在する可能性があると判定し、閾値未満であれば、矢印信号機252の青色灯は潜在しないと判定する。   The second possibility determination unit 176 newly extracts a shielding object existing in front of the relative distance of the red light 254a of the traffic light 254 with respect to the derived signal search region 258, and the occupation area ratio of the shielding object is determined in advance. If it is equal to or greater than the threshold value (for example, 20% of the signal search area), it is determined that the blue light of the arrow traffic light 252 may be latent. Is determined.

ここで、第2可能性判定部176は、選択特定物250を基準として予め定められた相対距離範囲(例えば、±5m)のみ、信号探索領域258を遮蔽する遮蔽物を探索し、矢印信号機252の青色灯が潜在する可能性を判定することもできる。上述したように、選択特定物250がトラックの後端部分である場合、遮蔽物が、そのトラックのキャビン256になる可能性が高い。そこで、選択特定物250から相対距離範囲±5mのみにある遮蔽物を抽出することで処理負荷の軽減を図る。なお、相対距離として+(プラス)方向のみならず、−(マイナス)方向も探索することでロバスト性を高めている。   Here, the second possibility determination unit 176 searches for a shielding object that shields the signal search region 258 only in a predetermined relative distance range (for example, ± 5 m) with the selected specific object 250 as a reference, and the arrow traffic light 252. It is also possible to determine the possibility of a blue light. As described above, when the selected specific object 250 is the rear end portion of the truck, the shielding object is likely to be the cabin 256 of the truck. Therefore, the processing load is reduced by extracting the shielding object in the relative distance range ± 5 m from the selected specific object 250. Note that the robustness is enhanced by searching not only the + (plus) direction but also the-(minus) direction as a relative distance.

以上、説明した車外環境認識装置120によって、選択特定物250のみを追跡対象とする場合であっても、矢印信号機252が点灯している可能性を高精度で判断することができるので、衝突回避制御やクルーズコントロールによる不要な制動操作への介入を回避することが可能となる。   As described above, the possibility of the arrow traffic light 252 being lit can be determined with high accuracy even when only the selected specific object 250 is to be tracked by the outside-vehicle environment recognition device 120 described above. It becomes possible to avoid intervention to unnecessary braking operation by control or cruise control.

(車外環境認識方法)
以下、車外環境認識装置120の具体的な処理を図14〜図22のフローチャートに基づいて説明する。図14は、撮像装置110から輝度画像124が送信されたときの割込処理に関する全体的な流れを示し、図15〜図22は、その中の個別のサブルーチンを示している。また、ここでは、処理対象としてブロックまたは画素を挙げている。輝度画像124や距離画像126の左下隅を原点とし、ブロックでは、画像水平方向に1〜150ブロック、垂直方向に1〜50ブロックの範囲で、画素では、画像水平方向に1〜600画素、垂直方向に1〜200画素の範囲で当該車外環境認識方法による処理を遂行する。
(External vehicle environment recognition method)
Hereinafter, specific processing of the vehicle environment recognition apparatus 120 will be described based on the flowcharts of FIGS. 14 to 22. FIG. 14 shows an overall flow relating to the interrupt processing when the luminance image 124 is transmitted from the imaging device 110, and FIGS. 15 to 22 show individual subroutines therein. Here, a block or a pixel is cited as a processing target. The lower left corner of the luminance image 124 and the distance image 126 is the origin, and in the block, the range is 1 to 150 blocks in the horizontal direction of the image, and 1 to 50 blocks in the vertical direction. The processing by the outside environment recognition method is performed in the range of 1 to 200 pixels in the direction.

当該車外環境認識方法による割込が発生すると、視差導出部160は、2の画像データを比較し、基準画像における任意のブロックと相関の高いブロックを、比較画像における探索範囲から抽出し、両ブロックの視差を求める(S300)。   When an interruption by the vehicle exterior environment recognition method occurs, the parallax deriving unit 160 compares the two image data, extracts a block having a high correlation with an arbitrary block in the reference image, from the search range in the comparison image, and both blocks Is obtained (S300).

続いて、位置情報導出部162は、検出領域122内のブロック毎の視差情報を三次元の位置情報に変換する(S302)。代表距離導出部164は、分割領域216毎の代表距離220を導出し(S304)、第1グループ化部166は、かかる代表距離220に基づいてブロックをグループ化する(S306)。そして、特定物選択部168は、第1グループ化部166が特定した1または複数の特定物から追跡対象となる特定物(選択特定物)を選択して、その選択特定物を追跡する(S308)。   Subsequently, the position information deriving unit 162 converts the disparity information for each block in the detection area 122 into three-dimensional position information (S302). The representative distance deriving unit 164 derives the representative distance 220 for each divided region 216 (S304), and the first grouping unit 166 groups the blocks based on the representative distance 220 (S306). Then, the specific object selecting unit 168 selects a specific object (selected specific object) to be tracked from one or more specific objects specified by the first grouping unit 166, and tracks the selected specific object (S308). ).

次に、色識別子設定部170は、検出領域122内の複数の画素の輝度と色識別子テーブル200の輝度範囲とに基づいて、各画素に色識別子204を設定する(S310)。第2グループ化部172は、各画素の色識別子204と3次元位置に基づいて、複数の画素をグループ化する(S312)。   Next, the color identifier setting unit 170 sets the color identifier 204 for each pixel based on the luminance of the plurality of pixels in the detection region 122 and the luminance range of the color identifier table 200 (S310). The second grouping unit 172 groups a plurality of pixels based on the color identifier 204 and the three-dimensional position of each pixel (S312).

ここで、選択特定物250が存在し、かつ、第2グループ化部172によって、特定物「信号機の赤色灯」が特定されている場合、第1可能性判定部174は、選択特定物250と信号機254の赤色灯254aとの位置関係に基づいて、信号機254の赤色灯254aに付属する矢印信号機252の青色灯が潜在する可能性を判定する(S314)。第2可能性判定部176は、第1可能性判定部174によって矢印信号機252の青色灯が潜在する可能性の判定ができ、その処理が完了したか否か判断する(S316)。   Here, when the selected specific object 250 exists and the specific object “red light of traffic light” is specified by the second grouping unit 172, the first possibility determination unit 174 determines that the selected specific object 250 is Based on the positional relationship of the traffic light 254 with the red light 254a, it is determined whether the blue light of the arrow traffic light 252 attached to the red light 254a of the traffic light 254 is latent (S314). The second possibility determination unit 176 can determine whether the blue light of the arrow traffic light 252 is latent by the first possibility determination unit 174, and determines whether or not the processing is completed (S316).

ここで、矢印信号機252の青色灯が潜在する可能性の判定が完了していなければ(S316におけるNO)、第2可能性判定部176は、信号機254の赤色灯254aより相対距離が短い空間における、信号機254の赤色灯254aを基準として予め定められた信号探索領域を遮蔽する遮蔽物を探索し、矢印信号機252の青色灯が潜在する可能性を判定する(S318)。矢印信号機252の青色灯が潜在する可能性の判定が完了していれば(S316におけるYES)、当該車外環境認識方法を終了し、割込待ち状態に移行する。以下、上記の処理を具体的に説明する。   Here, if the determination that the blue light of the arrow traffic light 252 is latent is not completed (NO in S316), the second possibility determination unit 176 is in a space where the relative distance is shorter than the red light 254a of the traffic light 254. Then, a shield that shields a predetermined signal search area with reference to the red light 254a of the traffic light 254 is searched, and the possibility that the blue light of the arrow traffic light 252 is latent is determined (S318). If the determination of the possibility that the blue light of the arrow traffic light 252 is latent has been completed (YES in S316), the vehicle exterior environment recognition method is terminated, and a transition to an interrupt waiting state is made. The above processing will be specifically described below.

(視差導出処理S300)
図15を参照すると、視差導出部160は、ブロックを特定するための垂直変数jを初期化(「0」を代入)する(S400)。続いて、視差導出部160は、垂直変数jに「1」を加算すると共に水平変数iを初期化(「0」を代入)する(S402)。次に、視差導出部160は、水平変数iに「1」を加算する(S404)。
(Parallax derivation process S300)
Referring to FIG. 15, the disparity deriving unit 160 initializes (assigns “0” to) a vertical variable j for specifying a block (S400). Subsequently, the parallax derivation unit 160 adds “1” to the vertical variable j and initializes the horizontal variable i (substitutes “0”) (S402). Next, the parallax deriving unit 160 adds “1” to the horizontal variable i (S404).

視差導出部160は、基準画像のブロック(i,j)と1画素ずつ画面右方向にずらした比較画像のブロック(i,j)との相関値を導出する(S406)。かかる相関値の導出は、探索範囲が完了するまで繰り返される(S408におけるNO)。探索範囲が完了すると(S408におけるYES)、視差導出部160は、基準画像のブロック(i,j)との相関値が最も大きい比較画像のブロック(i,j)を抽出し、両ブロックの距離(視差)を示す視差情報dpを導出する(S410)。   The parallax deriving unit 160 derives a correlation value between the block (i, j) of the reference image and the block (i, j) of the comparison image shifted by one pixel to the right of the screen (S406). Such derivation of the correlation value is repeated until the search range is completed (NO in S408). When the search range is completed (YES in S408), the disparity deriving unit 160 extracts the block (i, j) of the comparison image having the largest correlation value with the block (i, j) of the reference image, and the distance between both blocks. The parallax information dp indicating (parallax) is derived (S410).

続いて、視差導出部160は、水平変数iが水平ブロックの最大値である150を超えたか否か判定し(S412)、水平変数iが最大値を超えていなければ(S412におけるNO)、ステップS404からの処理を繰り返す。また、水平変数iが最大値を超えていれば(S412にけるYES)、視差導出部160は、垂直変数jが垂直ブロックの最大値である50を超えたか否か判定する(S414)。そして、垂直変数jが最大値を超えていなければ(S414におけるNO)、ステップS402からの処理を繰り返す。また、垂直変数jが最大値を超えていれば(S414におけるYES)、当該視差導出処理S300を終了する。こうして、距離画像126のブロック(i,j)は、視差情報dpが加わったブロック(i,j,dp)となる。   Subsequently, the parallax deriving unit 160 determines whether or not the horizontal variable i exceeds 150 which is the maximum value of the horizontal block (S412), and if the horizontal variable i does not exceed the maximum value (NO in S412), step The processing from S404 is repeated. If the horizontal variable i exceeds the maximum value (YES in S412), the parallax derivation unit 160 determines whether or not the vertical variable j exceeds 50, which is the maximum value of the vertical block (S414). If the vertical variable j does not exceed the maximum value (NO in S414), the processing from step S402 is repeated. If the vertical variable j exceeds the maximum value (YES in S414), the disparity derivation process S300 ends. Thus, the block (i, j) of the distance image 126 becomes a block (i, j, dp) to which the parallax information dp is added.

(位置情報導出処理S302)
図16を参照すると、位置情報導出部162は、ブロックを特定するための垂直変数jを初期化(「0」を代入)する(S450)。続いて、位置情報導出部162は、垂直変数jに「1」を加算すると共に水平変数iを初期化(「0」を代入)する(S452)。次に、位置情報導出部162は、水平変数iに「1」を加算する(S454)。
(Position information deriving process S302)
Referring to FIG. 16, the position information deriving unit 162 initializes (substitutes “0”) a vertical variable j for specifying a block (S450). Subsequently, the position information deriving unit 162 adds “1” to the vertical variable j and initializes the horizontal variable i (substitutes “0”) (S452). Next, the position information deriving unit 162 adds “1” to the horizontal variable i (S454).

次に、位置情報導出部162は、距離画像126のブロック(i,j,dp)から視差情報dpを取得する(S456)。そして、位置情報導出部162は、視差情報dpを含むブロック(i,j,dp)を、上記数式1〜3を用い、実空間上の点(x,y,z)に座標変換して、ブロック(i,j,dp,x,y,z)とする(S458)。   Next, the position information deriving unit 162 acquires the parallax information dp from the block (i, j, dp) of the distance image 126 (S456). Then, the position information deriving unit 162 converts the block (i, j, dp) including the parallax information dp to a point (x, y, z) in the real space using the above Equations 1 to 3, It is assumed that the block is (i, j, dp, x, y, z) (S458).

続いて、位置情報導出部162は、水平変数iが水平ブロックの最大値である150を超えたか否か判定し(S460)、水平変数iが最大値を超えていなければ(S460におけるNO)、ステップS454からの処理を繰り返す。また、水平変数iが最大値を超えていれば(S460にけるYES)、位置情報導出部162は、垂直変数jが垂直ブロックの最大値である50を超えたか否か判定する(S462)。そして、垂直変数jが最大値を超えていなければ(S462におけるNO)、ステップS452からの処理を繰り返す。また、垂直変数jが最大値を超えていれば(S462におけるYES)、当該位置情報導出処理S302を終了する。こうして、距離画像126の視差情報dpが三次元の位置情報に変換される。   Subsequently, the position information deriving unit 162 determines whether or not the horizontal variable i exceeds 150 which is the maximum value of the horizontal block (S460). If the horizontal variable i does not exceed the maximum value (NO in S460), The processing from step S454 is repeated. If the horizontal variable i exceeds the maximum value (YES in S460), the position information deriving unit 162 determines whether the vertical variable j exceeds 50, which is the maximum value of the vertical block (S462). If vertical variable j does not exceed the maximum value (NO in S462), the processing from step S452 is repeated. If the vertical variable j exceeds the maximum value (YES in S462), the position information deriving process S302 ends. Thus, the parallax information dp of the distance image 126 is converted into three-dimensional position information.

(代表距離導出処理S304)
図17を参照すると、代表距離導出部164は、道路形状パラメータを読み込み(S500)、検出領域122を、水平方向に対して例えば4画素単位で150個の分割領域216に分割する(S502)。次に、代表距離導出部164は、分割した150個の分割領域216から1の分割領域216を、例えば水平方向左側から順次抽出して、その分割領域216内に存在する任意のブロック(i,j,dp,x,y,z)を設定する(S504)。
(Representative distance derivation process S304)
Referring to FIG. 17, the representative distance deriving unit 164 reads road shape parameters (S500), and divides the detection area 122 into 150 divided areas 216, for example, in units of 4 pixels in the horizontal direction (S502). Next, the representative distance deriving unit 164 sequentially extracts one divided region 216 from the 150 divided regions 216, for example, from the left side in the horizontal direction, and arbitrarily blocks (i, j, dp, x, y, z) are set (S504).

代表距離導出部164は、ブロックの実空間上の座標zにおける道路表面の高さyrを算出し(S506)、ブロックの実空間上の座標yが道路表面の高さyr以上となるブロックであれば、所定距離間隔で区分したヒストグラムにその相対距離を積算(投票)する(S508)。ここで、ブロックの実空間上の座標yが道路表面の高さyr以上であったとしても、道路表面から高さ0.1m以下のブロックは、道路上の白線や汚れ、影等であるとみなして処理対象から除外する。また、自車両1の高さより上方に位置するブロックも、歩道橋や標識等であるとみなして処理対象から除外する。   The representative distance deriving unit 164 calculates the height yr of the road surface at the coordinate z in the real space of the block (S506), and the block whose coordinate y in the real space of the block is equal to or higher than the height yr of the road surface. For example, the relative distance is added (voted) to the histogram divided at predetermined distance intervals (S508). Here, even if the coordinate y in the real space of the block is equal to or higher than the height yr of the road surface, the block having a height of 0.1 m or less from the road surface is white line, dirt, shadow, etc. on the road. Consider and exclude from processing. Also, blocks positioned above the height of the host vehicle 1 are regarded as pedestrian bridges, signs, etc., and are excluded from processing targets.

代表距離導出部164は、抽出された1の分割領域216内のブロック全てに関し、当該ヒストグラムへの積算処理を遂行したか判定する(S510)。ここで、ブロック全てが完了していなければ(S510におけるNO)、ヒストグラムへの積算処理を遂行していないブロックに関してステップS504からの処理を繰り返す。   The representative distance deriving unit 164 determines whether or not the integration process to the histogram has been performed for all the extracted blocks in one divided region 216 (S510). Here, if all the blocks are not completed (NO in S510), the processing from step S504 is repeated for the blocks that have not been subjected to the histogram integration processing.

ブロック全てが完了していれば(S510におけるYES)、代表距離導出部164は、このようにして生成されたヒストグラムを参照し、ヒストグラムの度数(相対距離の個数)が閾値(適宜設定される)以上となる区間が存在したら当該分割領域216には特定物が存在すると判定する。そして、代表距離導出部164は、ピークに相当する相対距離を代表距離220とする(S512)。   If all the blocks have been completed (YES in S510), the representative distance deriving unit 164 refers to the histogram generated in this manner, and the frequency of the histogram (the number of relative distances) is set to a threshold (appropriately set). If there is a section as described above, it is determined that a specific object exists in the divided area 216. Then, the representative distance deriving unit 164 sets the relative distance corresponding to the peak as the representative distance 220 (S512).

そして、代表距離導出部164は、複数の分割領域216全てに関して、当該代表距離220の導出処理を遂行したか判定する(S514)。ここで、分割領域216全てが完了していると判定されなければ(S514におけるNO)、新たな分割領域216を設定し(S516)、新たな分割領域216に関してステップS504からの処理を繰り返す。一方、代表距離220の導出処理が全て完了していれば(S514におけるYES)、当該代表距離導出処理S304を終了する。   Then, the representative distance deriving unit 164 determines whether the representative distance 220 has been derived for all of the plurality of divided regions 216 (S514). Here, if it is not determined that all the divided areas 216 are completed (NO in S514), a new divided area 216 is set (S516), and the processing from step S504 is repeated for the new divided area 216. On the other hand, if all the processes for deriving the representative distance 220 have been completed (YES in S514), the representative distance deriving process S304 ends.

(第1グループ化処理S306)
図18を参照すると、第1グループ化部166は、複数の分割領域216から任意の分割領域216を、例えば水平方向左側から順次特定し、その任意の分割領域216の水平方向右側に隣接する分割領域216も特定する(S550)。そして、第1グループ化部166は、両分割領域216に代表距離220が存在するか否か判定する(S552)。ここで、両分割領域216に代表距離220が存在していなければ(S552におけるNO)、分割領域の完了判定ステップS558に処理を移す。一方、両分割領域216に代表距離220が存在していれば(S552におけるYES)、両分割領域216の代表距離220同士を比較する(S554)。
(First grouping process S306)
Referring to FIG. 18, the first grouping unit 166 sequentially identifies an arbitrary divided area 216 from a plurality of divided areas 216, for example, from the left side in the horizontal direction, and divides the arbitrary divided area 216 adjacent to the right side in the horizontal direction. The area 216 is also specified (S550). Then, the first grouping unit 166 determines whether or not the representative distance 220 exists in both divided regions 216 (S552). If the representative distance 220 does not exist in both the divided areas 216 (NO in S552), the process proceeds to the divided area completion determination step S558. On the other hand, if the representative distance 220 exists in both divided areas 216 (YES in S552), the representative distances 220 of both divided areas 216 are compared (S554).

ここで、両代表距離220の差分が予め定められた閾値(同一の特定物とみなせる値)以下であれば、両代表距離220は近接しているとみなされ、第1グループ化部166は、分割領域216同士をグループ化して分割領域群222とする(S556)。このとき、一方の分割領域216が既に分割領域群222として設定されている場合、他方の分割領域216は、その分割領域群222に統合される。   Here, if the difference between the two representative distances 220 is equal to or smaller than a predetermined threshold value (a value that can be regarded as the same specific object), the two representative distances 220 are regarded as close to each other, and the first grouping unit 166 The divided areas 216 are grouped to form a divided area group 222 (S556). At this time, when one divided region 216 is already set as the divided region group 222, the other divided region 216 is integrated into the divided region group 222.

そして、第1グループ化部166は、複数の分割領域216全てに関して、当該分割領域群222の設定処理S552、S554、S556を遂行したか判定する(S558)。ここで、全てが完了していなければ(S558におけるNO)、新たな分割領域216を設定し(S560)、新たな分割領域216に関してステップS550からの処理を繰り返す。一方、分割領域群222の設定処理が全て完了していれば(S558におけるYES)、次のステップS562に移行する。   Then, the first grouping unit 166 determines whether the setting processing S552, S554, and S556 of the divided region group 222 has been performed for all the divided regions 216 (S558). Here, if not all is completed (NO in S558), a new divided area 216 is set (S560), and the processing from step S550 is repeated for the new divided area 216. On the other hand, if all the setting processes of the divided region group 222 have been completed (YES in S558), the process proceeds to the next step S562.

続いて、第1グループ化部166は、グループ化された複数の分割領域群222から1の分割領域群222を、例えば水平方向左側から順次抽出して、その分割領域群222内に存在する任意のブロック(i,j,dp,x,y,z)を設定する(S562)。   Subsequently, the first grouping unit 166 sequentially extracts one divided region group 222 from the plurality of divided region groups 222 grouped, for example, from the left side in the horizontal direction, and arbitrarily exists in the divided region group 222. Block (i, j, dp, x, y, z) is set (S562).

第1グループ化部166は、設定されたブロック(i,j,dp,x,y,z)と、分割領域群222内における、相対距離zが代表距離220に相当するブロックとを比較し、水平距離xの差分、高さyの差分および相対距離zの差分が予め定められた範囲(例えば0.1m)内にあるか否か判定する(S564)。予め定められた範囲内にある場合(S564におけるYES)、そのブロックを、同一の特定物に対応すると仮定してグループ化する(S566)。予め定められた範囲内にない場合(S564におけるNO)、ブロックの完了判定ステップS568に処理を移す。   The first grouping unit 166 compares the set block (i, j, dp, x, y, z) with a block whose relative distance z corresponds to the representative distance 220 in the divided region group 222, It is determined whether the difference in the horizontal distance x, the difference in the height y, and the difference in the relative distance z are within a predetermined range (for example, 0.1 m) (S564). If it is within the predetermined range (YES in S564), the blocks are grouped on the assumption that they correspond to the same specific object (S566). If not within the predetermined range (NO in S564), the process proceeds to block completion determination step S568.

第1グループ化部166は、抽出された1の分割領域群222内のブロック全てに関し、当該グループ化処理を遂行したか判定する(S568)。ここで、ブロック全てのグループ化処理が完了していなければ(S568におけるNO)、グループ化処理を遂行していないブロックに関してステップS562からの処理を繰り返す。   The first grouping unit 166 determines whether or not the grouping process has been performed for all the blocks in the extracted one divided region group 222 (S568). If the grouping process for all the blocks has not been completed (NO in S568), the process from step S562 is repeated for the blocks that have not been subjected to the grouping process.

ブロック全てのグループ化処理が完了していれば(S568におけるYES)、第1グループ化部166は、グループ化したブロック群全体の大きさが、特定物「車両」の大きさに相当するか否か判定する(S570)。特定物「車両」の大きさに相当すると判定すれば(S570におけるYES)、そのブロック群を特定物「車両」と特定する(S572)。特定物「車両」の大きさに相当すると判定しなければ(S570におけるNO)、分割領域群222の完了判定ステップS574に処理を移す。   If the grouping process for all the blocks has been completed (YES in S568), the first grouping unit 166 determines whether the size of the entire group of block groups corresponds to the size of the specific object “vehicle”. (S570). If it is determined that the size corresponds to the size of the specific object “vehicle” (YES in S570), the block group is specified as the specific object “vehicle” (S572). If it is not determined that it corresponds to the size of the specific object “vehicle” (NO in S570), the process proceeds to the completion determination step S574 of the divided region group 222.

そして、第1グループ化部166は、複数の分割領域群222全てに関して、当該特定物特定処理S570、S572を遂行したか判定する(S574)。ここで、分割領域群222全てが完了していると判定されなければ(S574におけるNO)、新たな分割領域群222を設定し(S576)、新たな分割領域群222に関してステップS562からの処理を繰り返す。一方、特定物特定処理S570、S572が全て完了していれば(S574におけるYES)、当該第1グループ化処理S306を終了する。   Then, the first grouping unit 166 determines whether the specific object specifying processes S570 and S572 have been performed for all of the plurality of divided region groups 222 (S574). If it is not determined that all the divided region groups 222 are complete (NO in S574), a new divided region group 222 is set (S576), and the processing from step S562 is performed on the new divided region group 222. repeat. On the other hand, if the specific object specifying processes S570 and S572 are all completed (YES in S574), the first grouping process S306 is ended.

上記グループ化においては、さらに、複数のグループに対して相互の位置関係が判定される。例えば、同種類の特定物のグループ間で、端点の位置が接近し、かつ、特定物中における水平方向および鉛直方向の相対距離の推移がほぼ等しい(連続する)場合には、同一特定物の同一の面であると判断されて、それらのグループが一つのグループに統合される。このとき特定物中における水平方向および鉛直方向の相対距離の推移は、ハフ変換あるいは最小二乗法による近似直線によって特定することができる。また、先行車両であれば、z座標に対する相対移動速度が等しいことによっても複数のグループを一つのグループに統合することができる。   In the grouping, the mutual positional relationship is further determined for a plurality of groups. For example, when the position of an end point is close between groups of specific objects of the same type and the transition of the relative distance in the horizontal direction and the vertical direction in the specific object is almost equal (continuous), It is determined that they are the same surface, and these groups are integrated into one group. At this time, the transition of the relative distance in the horizontal direction and the vertical direction in the specific object can be specified by an approximate straight line by the Hough transform or the least square method. In the case of a preceding vehicle, a plurality of groups can be integrated into one group even if the relative movement speed with respect to the z coordinate is equal.

また、ここまでの処理がブロック単位で行われている場合、そのブロック内全ての画素に同一の情報を設定することで、画素単位の処理を行うことが可能となる。   Further, when the processing so far is performed in units of blocks, it is possible to perform processing in units of pixels by setting the same information for all the pixels in the block.

(色識別子設定処理S310)
図19を参照すると、色識別子設定部170は、画素を特定するための垂直変数jを初期化(「0」を代入)する(S600)。続いて、色識別子設定部170は、垂直変数jに「1」を加算(インクリメント)すると共に水平変数iを初期化(「0」を代入)する(S602)。次に、色識別子設定部170は、水平変数iに「1」を加算し、色識別子変数mを初期化(「0」を代入)する(S604)。ここで、水平変数iや垂直変数jを設けているのは、600×200の画素全てに対して当該色識別子設定処理S310を実行するためであり、色識別子変数mを設けているのは、画素毎に8つの色識別子204を順次比較するためである。
(Color identifier setting process S310)
Referring to FIG. 19, the color identifier setting unit 170 initializes (substitutes “0”) a vertical variable j for specifying a pixel (S600). Subsequently, the color identifier setting unit 170 adds (increments) “1” to the vertical variable j and initializes the horizontal variable i (substitutes “0”) (S602). Next, the color identifier setting unit 170 adds “1” to the horizontal variable i and initializes the color identifier variable m (substitutes “0”) (S604). Here, the reason why the horizontal variable i and the vertical variable j are provided is to execute the color identifier setting process S310 for all 600 × 200 pixels, and the color identifier variable m is provided. This is because the eight color identifiers 204 are sequentially compared for each pixel.

色識別子設定部170は、輝度画像124から画素(i,j,dp,x,y,z,br)の輝度brを取得し(S606)、色識別子変数mに「1」を加算し(S608)、画素(i,j,dp,x,y,z,br)の位置に応じて、色識別子(m)の輝度範囲202、または、再設定された輝度範囲202を取得し(S610)、画素(i,j,dp,x,y,z,br)の輝度brが色識別子(m)の輝度範囲202に含まれるか否か判定する(S612)。   The color identifier setting unit 170 acquires the luminance br of the pixel (i, j, dp, x, y, z, br) from the luminance image 124 (S606), and adds “1” to the color identifier variable m (S608). ), The luminance range 202 of the color identifier (m) or the reset luminance range 202 is acquired according to the position of the pixel (i, j, dp, x, y, z, br) (S610), It is determined whether or not the luminance br of the pixel (i, j, dp, x, y, z, br) is included in the luminance range 202 of the color identifier (m) (S612).

画素の輝度brが色識別子(m)の輝度範囲202に含まれていれば(S612におけるYES)、色識別子設定部170は、その画素に色識別子(m)を示す識別番号pを対応付けて、画素(i,j,dp,x,y,z,br,p)とする(S614)。こうして、輝度画像124中の各画素に識別番号が付された色識別子マップ240が生成される。また、画素(i,j,dp,x,y,z,br)の輝度brが色識別子(m)の輝度範囲202に含まれていなければ(S612におけるNO)、色識別子変数mが最大数である8を超えたか否か判定する(S616)。ここで、色識別子変数mが最大値を超えていなければ(S616におけるNO)、ステップS608の色識別子変数mのインクリメント処理からを繰り返す。また、色識別子変数mが最大値を超えていれば(S616におけるYES)、当該画素(i,j,dp,x,y,z,br)に対応する色識別子204は存在しないとして、水平画素判定ステップS618に処理が移される。   If the luminance br of the pixel is included in the luminance range 202 of the color identifier (m) (YES in S612), the color identifier setting unit 170 associates the pixel with an identification number p indicating the color identifier (m). , Pixel (i, j, dp, x, y, z, br, p) (S614). In this way, a color identifier map 240 in which an identification number is assigned to each pixel in the luminance image 124 is generated. If the luminance br of the pixel (i, j, dp, x, y, z, br) is not included in the luminance range 202 of the color identifier (m) (NO in S612), the color identifier variable m is the maximum number. It is determined whether or not 8 is exceeded (S616). If the color identifier variable m does not exceed the maximum value (NO in S616), the process of incrementing the color identifier variable m in step S608 is repeated. If the color identifier variable m exceeds the maximum value (YES in S616), it is determined that there is no color identifier 204 corresponding to the pixel (i, j, dp, x, y, z, br), and the horizontal pixel Processing proceeds to decision step S618.

続いて、色識別子設定部170は、水平変数iが水平画素の最大値である600を超えたか否か判定し(S618)、水平変数iが最大値を超えていなければ(S618におけるNO)、ステップS604の水平変数iのインクリメント処理からを繰り返す。また、水平変数iが最大値を超えていれば(S618におけるYES)、色識別子設定部170は、垂直変数jが垂直画素の最大値である200を超えたか否か判定する(S620)。そして、垂直変数jが最大値を超えていなければ(S620におけるNO)、ステップS602の垂直変数jのインクリメント処理からを繰り返す。また、垂直変数jが最大値を超えていれば(S620におけるYES)、当該色識別子設定処理S310を終了する。   Subsequently, the color identifier setting unit 170 determines whether or not the horizontal variable i exceeds 600, which is the maximum value of the horizontal pixel (S618). If the horizontal variable i does not exceed the maximum value (NO in S618), The process from the horizontal variable i increment process in step S604 is repeated. If the horizontal variable i exceeds the maximum value (YES in S618), the color identifier setting unit 170 determines whether the vertical variable j exceeds 200, which is the maximum value of the vertical pixel (S620). If the vertical variable j does not exceed the maximum value (NO in S620), the process of incrementing the vertical variable j in step S602 is repeated. If the vertical variable j exceeds the maximum value (YES in S620), the color identifier setting process S310 is terminated.

(第2グループ化処理S312)
図20を参照すると、第2グループ化部172は、画素をグループ化するための所定範囲(例えば0.1m)を参照し(S650)、画素を特定するための垂直変数jを初期化(「0」を代入)する(S652)。続いて、第2グループ化部172は、垂直変数jに「1」を加算すると共に水平変数iを初期化(「0」を代入)する(S654)。次に、第2グループ化部172は、水平変数iに「1」を加算する(S656)。
(Second grouping process S312)
Referring to FIG. 20, the second grouping unit 172 refers to a predetermined range (for example, 0.1 m) for grouping pixels (S650), and initializes a vertical variable j for identifying pixels (“ 0 ”is substituted) (S652). Subsequently, the second grouping unit 172 adds “1” to the vertical variable j and initializes the horizontal variable i (substitutes “0”) (S654). Next, the second grouping unit 172 adds “1” to the horizontal variable i (S656).

第2グループ化部172は、距離画像126から画素(i,j,dp,x,y,z,br,p)を取得し、その画素(i,j,dp,x,y,z,br,p)に有効な(0ではない)色識別子pが存在し、かつ、グループ番号gがまだ付されていないか否か判定する(S658)。ここで、有効な色識別子pが存在し、かつ、グループ番号gがまだ付されていなければ(S658におけるYES)、第2グループ化部172は、その画素の実空間上の座標(x,y,z)から所定範囲内に、その色識別子pが設定された他の1または複数の画素が存在し、かつ、その画素にグループ番号gがまだ付されていないか否か判定する(S660)。   The second grouping unit 172 acquires a pixel (i, j, dp, x, y, z, br, p) from the distance image 126, and the pixel (i, j, dp, x, y, z, br). , P), there is a valid (non-zero) color identifier p, and it is determined whether the group number g has not been assigned yet (S658). Here, if there is a valid color identifier p and the group number g has not yet been assigned (YES in S658), the second grouping unit 172 uses the coordinates (x, y) of the pixel in the real space. , Z), it is determined whether there is one or more other pixels for which the color identifier p is set and a group number g is not yet assigned to the pixel (S660). .

色識別子pが設定された1または複数の他の画素(i,j,dp,x,y,z,br,p)が存在し、その画素にグループ番号gがまだ付されていなければ(S660におけるYES)、グループ番号としてまだ利用されていない番号のうち最も小さい値を、自己を含む所定範囲内の全ての画素に新規に付与する(S662)。ここでは、既に他の対象物としてグループ化されている画素については、グループ化処理の対象外とし、グループ化を実行しない。   If one or more other pixels (i, j, dp, x, y, z, br, p) for which the color identifier p is set exist and the group number g is not yet attached to the pixel (S660) YES), the smallest value among the numbers not yet used as the group number is newly assigned to all the pixels within the predetermined range including itself (S662). Here, pixels that have already been grouped as other objects are excluded from the grouping process and are not grouped.

このように、所定範囲内に色識別子が等しい画素が複数存在する場合、1のグループ番号gを付すことによってグループ化を行う。このとき、グループ番号としてまだ利用されていない番号のうち最も小さい値を採用しているのは、グループの採番において可能な限り欠番を出さないようにするためである。こうすることで、グループ番号gの最大値が無用に大きくなることがなくなり、処理負荷を軽減することが可能となる。   Thus, when there are a plurality of pixels having the same color identifier within a predetermined range, grouping is performed by assigning a group number g of 1. At this time, the reason why the smallest value among the numbers not yet used as the group number is employed is to prevent missing numbers as much as possible in group numbering. By doing so, the maximum value of the group number g is not increased unnecessarily, and the processing load can be reduced.

色識別子pが有効な値ではない(0である)、もしくは、有効な値ではあるがグループ番号gが既に付与されている場合(S658におけるNO)、または、色識別子の等しい他の画素が存在しない、もしくは、存在するがその画素全てにグループ番号gが既に付与されている場合(S660におけるNO)、水平変数判定ステップS664に処理が移される。   The color identifier p is not a valid value (0), or is a valid value but the group number g has already been assigned (NO in S658), or there is another pixel with the same color identifier If not or if the group number g has already been assigned to all the pixels (NO in S660), the process proceeds to the horizontal variable determination step S664.

続いて、第2グループ化部172は、水平変数iが水平画素の最大値である600を超えたか否か判定し(S664)、水平変数iが最大値を超えていなければ(S664におけるNO)、ステップS656の水平変数iのインクリメント処理からを繰り返す。また、水平変数iが最大値を超えていれば(S664におけるYES)、第2グループ化部172は、垂直変数jが垂直画素の最大値である200を超えたか否か判定する(S666)。そして、垂直変数jが最大値を超えていなければ(S666におけるNO)、ステップS654の垂直変数jのインクリメント処理からを繰り返す。また、垂直変数jが最大値を超えていれば(S666におけるYES)、ステップS668に処理を移す。   Subsequently, the second grouping unit 172 determines whether or not the horizontal variable i exceeds 600, which is the maximum value of the horizontal pixel (S664), and if the horizontal variable i does not exceed the maximum value (NO in S664). The process from step S656 for incrementing the horizontal variable i is repeated. If the horizontal variable i exceeds the maximum value (YES in S664), the second grouping unit 172 determines whether or not the vertical variable j exceeds 200, which is the maximum value of the vertical pixels (S666). If the vertical variable j does not exceed the maximum value (NO in S666), the process of incrementing the vertical variable j in step S654 is repeated. If the vertical variable j exceeds the maximum value (YES in S666), the process proceeds to step S668.

続いて、第2グループ化部172は、グループを特定するためのグループ変数kを初期化(「0」を代入)し(S668)、グループ変数kに「1」を加算する(S670)。   Subsequently, the second grouping unit 172 initializes a group variable k for specifying a group (substitutes “0”) (S668), and adds “1” to the group variable k (S670).

第2グループ化部172は、輝度画像124からグループ番号gがグループ変数kである対象物が存在するか否か判定し(S672)、存在すれば(S672におけるYES)、そのグループ番号gが付された対象物の大きさを計算する(S674)。このとき対象物の大きさは、対象物の画面左端に位置する画素と画面右端に位置する画素間の水平距離(差分)である水平方向成分および対象物の画面上端に位置する画素と画面下端に位置する画素間の高さ(差分)である垂直方向成分によって特定される。そして、計算した大きさが、グループ番号gがグループ変数kである対象物に対応付けられた色識別子pで示される特定物の幅範囲に含まれるか否か判定する(S676)。例えば、対象物の大きさの水平方向成分が、色識別子pで示される特定物の幅範囲以内であり、かつ、対象物の大きさの垂直方向成分が、色識別子pで示される特定物の幅範囲以内であれば、対象物は、色識別子pで示される特定物の幅範囲に含まれると判定できる。   The second grouping unit 172 determines whether there is an object whose group number g is the group variable k from the luminance image 124 (S672). If there is an object (YES in S672), the group number g is attached. The size of the target object is calculated (S674). At this time, the size of the object is determined by the horizontal direction component (difference) between the pixel located at the left edge of the object and the pixel located at the right edge of the object, the pixel located at the upper edge of the object, and the lower edge of the screen. It is specified by the vertical direction component which is the height (difference) between the pixels located at. Then, it is determined whether or not the calculated size is included in the width range of the specific object indicated by the color identifier p associated with the object whose group number g is the group variable k (S676). For example, the horizontal component of the size of the object is within the width range of the specific object indicated by the color identifier p, and the vertical component of the size of the object is the specific object indicated by the color identifier p. If it is within the width range, it can be determined that the object is included in the width range of the specific object indicated by the color identifier p.

大きさが色識別子pで示される特定物の幅範囲に含まれていれば(S676におけるYES)、第2グループ化部172は、その対象物を特定物として決定する(S678)。大きさが色識別子pで示される特定物の幅範囲に含まれていない(S676におけるNO)、または、グループ番号gがグループ変数kである対象物が存在しない場合(S672におけるNO)、グループ変数判定ステップS680に処理が移される。   If the size is included in the width range of the specific object indicated by the color identifier p (YES in S676), the second grouping unit 172 determines the target object as the specific object (S678). When the size is not included in the width range of the specific object indicated by the color identifier p (NO in S676), or there is no object whose group number g is the group variable k (NO in S672), the group variable Processing proceeds to decision step S680.

続いて、第2グループ化部172は、グループ変数kが、グループ化処理において設定されたグループ番号の最大値を超えたか否か判定する(S680)。そして、グループ変数kが最大値を超えていなければ(S680におけるNO)、ステップS670からの処理を繰り返す。また、グループ変数kが最大値を超えていれば(S680におけるYES)、当該第2グループ化処理S312を終了する。こうして、グループ化された対象物が正式に特定物として決定される。   Subsequently, the second grouping unit 172 determines whether or not the group variable k exceeds the maximum value of the group numbers set in the grouping process (S680). If group variable k does not exceed the maximum value (NO in S680), the processing from step S670 is repeated. If the group variable k exceeds the maximum value (YES in S680), the second grouping process S312 ends. In this way, the grouped objects are formally determined as specific objects.

(第1可能性判定処理S314)
図21を参照すると、第1可能性判定部174は、まず、選択特定物250の相対距離が信号機254の赤色灯254aの相対距離以上であるか否か判定する(S700)。かかる判定において、選択特定物250の相対距離が信号機254の赤色灯254aの相対距離以上であれば(S700におけるYES)、矢印信号機252の青色灯は潜在しないと判定し、判定を完了する(S702)。一方、選択特定物250の相対距離が信号機254の赤色灯254aの相対距離未満であれば(S700におけるNO)、ステップS704に処理を移す。
(First possibility determination processing S314)
Referring to FIG. 21, the first possibility determination unit 174 first determines whether or not the relative distance of the selected specific object 250 is equal to or greater than the relative distance of the red light 254a of the traffic light 254 (S700). In this determination, if the relative distance of the selected specific object 250 is equal to or greater than the relative distance of the red light 254a of the traffic light 254 (YES in S700), it is determined that the blue light of the arrow traffic light 252 is not latent, and the determination is completed (S702). ). On the other hand, if the relative distance of the selected specific object 250 is less than the relative distance of the red light 254a of the traffic light 254 (NO in S700), the process proceeds to step S704.

次に、第1可能性判定部174は、信号機254の赤色灯254aに基づいて決定される水平方向の領域(例えば、信号機254の幅の2倍)と、選択特定物250の水平方向の領域との水平方向の位置が重複しているか否か判定する(S704)。かかる判定において、信号機254の赤色灯254aに基づく領域と選択特定物250の水平方向の領域とが重複しなければ(S704におけるNO)、矢印信号機252の青色灯は潜在しないと判定し(S702)、重複していれば(S704におけるYES)、ステップS706に処理を移す。   Next, the first possibility determination unit 174 determines the horizontal area (for example, twice the width of the traffic light 254) determined based on the red light 254a of the traffic light 254 and the horizontal area of the selected specific object 250. It is determined whether or not the horizontal positions overlap with each other (S704). In this determination, if the area based on the red light 254a of the traffic light 254 and the horizontal area of the selected specific object 250 do not overlap (NO in S704), it is determined that the blue light of the arrow traffic light 252 is not latent (S702). If they overlap (YES in S704), the process proceeds to step S706.

続いて、第1可能性判定部174は、信号機254の赤色灯254aの高さに基づき、選択特定物250の相対距離において、選択特定物250がどの程度の高さ(遮蔽高さ)を有していれば、矢印信号機252の青色灯が潜在する可能性があるか導出する(S706)。そして、第1可能性判定部174は、導出した遮蔽高さと法規上の車両最大高さとを比較して、遮蔽高さが法規上の車両最大高さ以上か否か判定する(S708)。ここで、遮蔽高さが法規上の車両最大高さ以上であれば(S708におけるYES)、矢印信号機252の青色灯は潜在しないと判定し(S702)、遮蔽高さが法規上の車両最大高さ未満であれば(S708におけるNO)、ステップS710に処理を移す。   Subsequently, the first possibility determination unit 174 has a height (shielding height) of the selected specific object 250 in the relative distance of the selected specific object 250 based on the height of the red light 254a of the traffic light 254. If so, it is derived whether there is a possibility that the blue light of the arrow traffic light 252 is latent (S706). Then, the first possibility determination unit 174 compares the derived shielding height with the legal maximum vehicle height to determine whether the shielding height is equal to or higher than the legal vehicle maximum height (S708). Here, if the shielding height is not less than the legal maximum vehicle height (YES in S708), it is determined that the blue light of the arrow traffic light 252 is not latent (S702), and the shielding height is the legal maximum vehicle height. If less (NO in S708), the process proceeds to step S710.

次に、第1可能性判定部174は、遮蔽高さと選択特定物250の高さとを比較して遮蔽高さが選択特定物250の高さ未満であるか否か判定する(S710)。遮蔽高さが選択特定物250の高さ未満であれば(S710におけるYES)、矢印信号機252の青色灯が潜在する可能性があると判定し、判定を完了する(S712)。一方、遮蔽高さが選択特定物250の高さ以上であれば(S710におけるNO)、青色灯が潜在する可能性の判定を完了せずに当該第1可能性判定処理S314を終了する。   Next, the first possibility determination unit 174 compares the shielding height with the height of the selected specific object 250 and determines whether or not the shield height is less than the height of the selected specific object 250 (S710). If the shielding height is less than the height of the selected specific object 250 (YES in S710), it is determined that the blue light of the arrow traffic light 252 may be latent, and the determination is completed (S712). On the other hand, if the shielding height is equal to or higher than the height of the selected specific object 250 (NO in S710), the first possibility determination process S314 is terminated without completing the determination of the possibility that the blue light is latent.

(第2可能性判定処理S318)
図22を参照すると、第2可能性判定部176は、まず、信号機254の赤色灯254aを基準として信号探索領域を定め、水平画素の開始点Hsと終了点He、および、垂直画素の開始点Vsと終了点Veとを導出する(S750)。そして、第2可能性判定部176は、信号探索領域を遮蔽する画素を計数するための遮蔽カウンタを初期化(「0」を代入)すると共に、画素を特定するための垂直変数jを初期化(Vsを代入)する(S752)。続いて、第2可能性判定部176は、垂直変数jに「1」を加算すると共に水平変数iを初期化(Hsを代入)する(S754)。次に、第2可能性判定部176は、水平変数iに「1」を加算する(S756)。
(Second possibility determination processing S318)
Referring to FIG. 22, the second possibility determination unit 176 first determines a signal search area with reference to the red lamp 254a of the traffic light 254, and starts and starts the horizontal pixel start point Hs and end point He and the vertical pixel start point. Vs and end point Ve are derived (S750). Then, the second possibility determination unit 176 initializes a shielding counter for counting pixels that shield the signal search area (substitute “0”), and initializes a vertical variable j for specifying the pixel. (Vs is substituted) (S752). Subsequently, the second possibility determination unit 176 adds “1” to the vertical variable j and initializes the horizontal variable i (substitutes Hs) (S754). Next, the second possibility determination unit 176 adds “1” to the horizontal variable i (S756).

第2可能性判定部176は、距離画像126から画素(i,j,dp,x,y,z,br,p)を取得し、その画素の視差情報dpが信号機254の赤色灯254aに対応する画素の視差情報dp未満であるか否か判定する(S758)。これにより、信号探索領域258に対して、信号機254の赤色灯254aの相対距離より手前に存在する遮蔽物を抽出する。その画素の視差情報dpが信号機254の赤色灯254aに対応する画素の視差情報dp未満であれば(S758におけるYES)、遮蔽カウンタの遮蔽カウンタ値に「1」を加算する(S760)、視差情報dpが信号機254の赤色灯254aに対応する画素の視差情報dp以上であれば(S758におけるNO)、ステップS762に処理を移す。   The second possibility determination unit 176 acquires the pixel (i, j, dp, x, y, z, br, p) from the distance image 126, and the parallax information dp of the pixel corresponds to the red light 254a of the traffic light 254. It is determined whether it is less than the parallax information dp of the pixel to be processed (S758). Thereby, the shielding object existing before the relative distance of the red light 254a of the traffic light 254 is extracted with respect to the signal search area 258. If the disparity information dp of the pixel is less than the disparity information dp of the pixel corresponding to the red lamp 254a of the traffic light 254 (YES in S758), “1” is added to the shielding counter value of the shielding counter (S760), and the disparity information If dp is equal to or larger than the parallax information dp of the pixel corresponding to the red lamp 254a of the traffic light 254 (NO in S758), the process proceeds to step S762.

続いて、第2可能性判定部176は、水平変数iが水平画素の最大値であるHeを超えたか否か判定し(S762)、水平変数iが最大値を超えていなければ(S762におけるNO)、ステップS756の水平変数iのインクリメント処理からを繰り返す。また、水平変数iが最大値を超えていれば(S762におけるYES)、第2可能性判定部176は、垂直変数jが垂直画素の最大値であるVeを超えたか否か判定する(S764)。そして、垂直変数jが最大値を超えていなければ(S764におけるNO)、ステップS754の垂直変数jのインクリメント処理からを繰り返す。   Subsequently, the second possibility determination unit 176 determines whether or not the horizontal variable i exceeds the maximum value He of the horizontal pixels (S762), and if the horizontal variable i does not exceed the maximum value (NO in S762). ), The process of incrementing the horizontal variable i in step S756 is repeated. If the horizontal variable i exceeds the maximum value (YES in S762), the second possibility determination unit 176 determines whether or not the vertical variable j exceeds Ve, which is the maximum value of the vertical pixel (S764). . If the vertical variable j does not exceed the maximum value (NO in S764), the process of incrementing the vertical variable j in step S754 is repeated.

また、垂直変数jが最大値を超えていれば(S764におけるYES)、第2可能性判定部176は、その遮蔽物の占有面積比を導出する(S766)。占有面積比は、遮蔽カウント値/((He−Hs)×(Ve−Vs))によって求められる。そして、第2可能性判定部176は、導出された占有面積比が、予め定められた閾値(例えば、信号探索領域の20%)以上であるか否か判定する(S768)。ここで、遮蔽物の専有面積比が閾値以上となれば(S768におけるYES)、矢印信号機252の青色灯が潜在する可能性があると判定し(S770)、閾値未満であれば(S768におけるNO)、矢印信号機252の青色灯は潜在しないと判定する(S772)。   If vertical variable j exceeds the maximum value (YES in S764), second possibility determination unit 176 derives the occupied area ratio of the shielding object (S766). The occupation area ratio is obtained by a shielding count value / ((He−Hs) × (Ve−Vs)). Then, the second possibility determination unit 176 determines whether or not the derived occupation area ratio is equal to or greater than a predetermined threshold (for example, 20% of the signal search region) (S768). Here, if the exclusive area ratio of the shield is equal to or greater than the threshold (YES in S768), it is determined that the blue light of the arrow traffic light 252 may be latent (S770), and if it is less than the threshold (NO in S768). ), It is determined that the blue light of the arrow traffic light 252 is not latent (S772).

以上、説明したような、車外環境認識装置120や車外環境認識方法によれば、直前の選択特定物250のみを追跡対象とする場合であっても、矢印信号機252の青色灯が点灯している可能性を高精度で判断し、衝突回避制御やクルーズコントロールによる不要な制動操作への介入を回避することが可能となる。   As described above, according to the outside environment recognition device 120 and the outside environment recognition method, the blue light of the arrow traffic light 252 is lit even when only the selected specific object 250 is tracked. It is possible to judge the possibility with high accuracy and to avoid the intervention to the unnecessary braking operation by the collision avoidance control or the cruise control.

また、コンピュータを、車外環境認識装置120として機能させるプログラムや当該プログラムを記録した、コンピュータで読み取り可能なフレキシブルディスク、光磁気ディスク、ROM、CD、DVD、BD等の記憶媒体も提供される。ここで、プログラムは、任意の言語や記述方法にて記述されたデータ処理手段をいう。   Also provided are a program that causes a computer to function as the vehicle exterior environment recognition device 120 and a computer-readable storage medium that stores the program, such as a flexible disk, magneto-optical disk, ROM, CD, DVD, and BD. Here, the program refers to data processing means described in an arbitrary language or description method.

以上、添付図面を参照しながら本発明の好適な実施形態について説明したが、本発明はかかる実施形態に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。   As mentioned above, although preferred embodiment of this invention was described referring an accompanying drawing, it cannot be overemphasized that this invention is not limited to this embodiment. It will be apparent to those skilled in the art that various changes and modifications can be made within the scope of the claims, and these are naturally within the technical scope of the present invention. Is done.

例えば、上述した実施形態においては、対象物の三次元の位置情報を複数の撮像装置110を用い画像データ間の視差に基づいて導出しているが、かかる場合に限られず、例えば、レーザレーダ測距装置等、既知の様々な距離測定装置を用いることができる。ここで、レーザレーダ測距装置は、検出領域122にレーザビームを投射し、このレーザビームが物体に当たって反射してくる光を受光し、この所要時間から物体までの距離を測定するものである。   For example, in the above-described embodiment, the three-dimensional position information of the object is derived based on the parallax between the image data using the plurality of imaging devices 110. However, the present invention is not limited to this. Various known distance measuring devices such as a distance device can be used. Here, the laser radar distance measuring device projects a laser beam onto the detection region 122, receives light reflected by the laser beam upon the object, and measures the distance from the required time to the object.

また、上述した実施形態においては、距離画像126を用いて、ブロックの相対距離を求めているが、対象物の画面上の配置や大きさにより、特定物をある程度特定できる場合、単眼の撮像装置110によって本実施形態を実現することも可能である。また、オプティカルフローにより、動きベクトルを導出することでも特定物を特定することができる。   In the embodiment described above, the relative distance of the block is obtained using the distance image 126. However, when the specific object can be specified to some extent by the arrangement and size of the object on the screen, the monocular imaging device The present embodiment can be realized by 110. Also, a specific object can be specified by deriving a motion vector by optical flow.

また、上述した実施形態においては、撮像装置110がカラー画像を取得することを前提としているが、かかる場合に限られず、モノクロ画像を取得することでも本実施形態を遂行することができる。この場合、色識別子テーブル200が単色の輝度で定義されることとなる。   In the above-described embodiment, it is assumed that the imaging apparatus 110 acquires a color image. However, the present embodiment is not limited to this, and the present embodiment can also be performed by acquiring a monochrome image. In this case, the color identifier table 200 is defined with the luminance of a single color.

また、上述した実施形態においては、視差導出部160、位置情報導出部162、代表距離導出部164、第1グループ化部166、特定物選択部168、色識別子設定部170、第2グループ化部172、第1可能性判定部174、第2可能性判定部176は中央制御部154によってソフトウェアで動作するように構成している。しかし、上記の機能部をハードウェアによって構成することも可能である。   In the above-described embodiment, the parallax deriving unit 160, the position information deriving unit 162, the representative distance deriving unit 164, the first grouping unit 166, the specific object selecting unit 168, the color identifier setting unit 170, and the second grouping unit 172, the 1st possibility determination part 174, and the 2nd possibility determination part 176 are comprised so that it may operate | move by software by the central control part 154. FIG. However, the functional unit described above can be configured by hardware.

なお、本明細書の車外環境認識方法の各工程は、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はなく、並列的あるいはサブルーチンによる処理を含んでもよい。   Note that each step of the vehicle environment recognition method of the present specification does not necessarily have to be processed in time series in the order described in the flowchart, and may include processing in parallel or a subroutine.

本発明は、自車両外の環境を認識する車外環境認識装置および車外環境認識方法に利用することができる。   INDUSTRIAL APPLICABILITY The present invention can be used for a vehicle environment recognition apparatus and a vehicle environment recognition method that recognize an environment outside the host vehicle.

1 …自車両
110 …撮像装置
120 …車外環境認識装置
122 …検出領域
124 …輝度画像
126 …距離画像
160 …視差導出部
162 …位置情報導出部
164 …代表距離導出部
166 …第1グループ化部
168 …特定物選択部
170 …色識別子設定部
172 …第2グループ化部
174 …第1可能性判定部
176 …第2可能性判定部
250 …選択特定物
252 …矢印信号機
254 …信号機
258 …信号探索領域
DESCRIPTION OF SYMBOLS 1 ... Own vehicle 110 ... Imaging device 120 ... Outside environment recognition device 122 ... Detection area 124 ... Luminance image 126 ... Distance image 160 ... Parallax deriving unit 162 ... Position information deriving unit 164 ... Representative distance deriving unit 166 ... First grouping unit 168 ... specific object selection unit 170 ... color identifier setting unit 172 ... second grouping unit 174 ... first possibility determination unit 176 ... second possibility determination unit 250 ... selected specific object 252 ... arrow traffic light 254 ... traffic light 258 ... signal Search area

Claims (5)

車外環境を撮像した画像を取得する画像取得部と、
前記画像の部分画像に対応する対象物の自車両に対する相対距離を導出する位置情報導出部と、
前記相対距離に基づいて1または複数の特定物を特定する第1グループ化部と、
前記1または複数の特定物から追跡対象となる1の特定物を選択する特定物選択部と、
画像内の色および大きさに基づいて停止または進行不可を示す停止信号灯を特定する第2グループ化部と、
選択された特定物である選択特定物と前記停止信号灯との位置関係に基づいて、該停止信号灯に付属する進行許可を示す進行信号灯が潜在する可能性を判定する第1可能性判定部と、
前記第1可能性判定部によって進行信号灯が潜在する可能性の判定ができなかった場合、前記停止信号灯より相対距離が短い空間における、前記停止信号灯を基準として定められる信号探索領域を遮蔽する遮蔽物を探索し、該信号探索領域における該遮蔽物の占有面積比に基づいて進行信号灯が潜在する可能性を判定する第2可能性判定部と、
を備えることを特徴とする車外環境認識装置。
An image acquisition unit that acquires an image of the environment outside the vehicle;
A position information deriving unit for deriving a relative distance of the object corresponding to the partial image of the image with respect to the host vehicle;
A first grouping unit that identifies one or more specific objects based on the relative distance;
A specific object selection unit that selects one specific object to be tracked from the one or more specific objects;
A second grouping unit that identifies a stop signal light indicating stop or no progress based on the color and size in the image;
A first possibility determination unit that determines a possibility that a progress signal lamp indicating progress permission attached to the stop signal lamp is latent based on a positional relationship between the selected specific object that is the selected specific object and the stop signal lamp;
A shield that shields a signal search area defined with reference to the stop signal light in a space having a relative distance shorter than that of the stop signal light when the first possibility determination unit cannot determine the possibility that the progress signal light is latent. A second possibility determination unit that determines the possibility that the progress signal lamp is latent based on the occupied area ratio of the shield in the signal search region ;
A vehicle exterior environment recognition device comprising:
前記第2可能性判定部は、前記信号探索領域における前記遮蔽物の占有面積比が予め定められた閾値以上であれば、進行信号灯が潜在する可能性があると判定することを特徴とする請求項1に記載の車外環境認識装置。   The second possibility determination unit determines that there is a possibility that a progress signal lamp is latent if an occupation area ratio of the shielding object in the signal search region is equal to or greater than a predetermined threshold. Item 1. The vehicle environment recognition device according to Item 1. 前記第2可能性判定部は、前記選択特定物を基準として予め定められた相対距離範囲のみ、前記信号探索領域を遮蔽する遮蔽物を探索し、進行信号灯が潜在する可能性を判定することを特徴とする請求項1または2に記載の車外環境認識装置。   The second possibility determination unit searches for a shielding object that shields the signal search area only in a predetermined relative distance range with the selected specific object as a reference, and determines a possibility that a progress signal lamp is latent. The external environment recognition device according to claim 1 or 2, characterized in that 前記第1可能性判定部は、前記選択特定物と前記停止信号灯との水平方向の位置および高さに基づいて、進行信号灯が潜在する可能性を判定することを特徴とする請求項1から3のいずれか1項に記載の車外環境認識装置。   The said 1st possibility determination part determines the possibility that a progress signal lamp is latent based on the horizontal position and height of the said selection specific thing and the said stop signal lamp. The outside environment recognition device according to any one of the above. 車外環境を撮像した画像を取得し、
前記画像の部分画像に対応する対象物の自車両に対する相対距離を導出し、
前記相対距離に基づいて1または複数の特定物を特定し、
前記1または複数の特定物から追跡対象となる1の特定物を選択し、
画像内の色および大きさに基づいて停止または進行不可を示す停止信号灯を特定し、
選択した特定物である選択特定物と前記停止信号灯との位置関係に基づいて、該停止信号灯に付属する進行許可を示す進行信号灯が潜在する可能性を判定し、
前記判定によって前記進行信号灯が潜在する可能性の判定ができなかった場合、前記停止信号灯より相対距離が短い空間における、前記停止信号灯を基準として予め定められた信号探索領域を遮蔽する遮蔽物を探索し、該信号探索領域における該遮蔽物の占有面積比に基づいて進行信号灯が潜在する可能性を判定することを特徴とする車外環境認識方法。
Get an image of the environment outside the car,
Deriving the relative distance of the object corresponding to the partial image of the image with respect to the host vehicle,
Identifying one or more specific objects based on the relative distance;
Selecting one specific object to be tracked from the one or more specific objects;
Identify stop signal lights that indicate stop or no progress based on color and size in the image,
Based on the positional relationship between the selected specific object, which is the selected specific object, and the stop signal light, determine the possibility of a progress signal light indicating the progress permission attached to the stop signal light being latent,
If it is not possible to determine the possibility that the progress signal lamp is latent by the determination, search for a shielding object that shields a signal search area determined in advance with reference to the stop signal lamp in a space having a relative distance shorter than the stop signal lamp. And determining the possibility that the traveling signal lamp is latent based on the occupied area ratio of the shielding object in the signal search area .
JP2012035946A 2012-02-22 2012-02-22 Outside environment recognition device and outside environment recognition method Active JP5922947B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012035946A JP5922947B2 (en) 2012-02-22 2012-02-22 Outside environment recognition device and outside environment recognition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012035946A JP5922947B2 (en) 2012-02-22 2012-02-22 Outside environment recognition device and outside environment recognition method

Publications (2)

Publication Number Publication Date
JP2013171489A JP2013171489A (en) 2013-09-02
JP5922947B2 true JP5922947B2 (en) 2016-05-24

Family

ID=49265368

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012035946A Active JP5922947B2 (en) 2012-02-22 2012-02-22 Outside environment recognition device and outside environment recognition method

Country Status (1)

Country Link
JP (1) JP5922947B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109314763A (en) * 2016-06-14 2019-02-05 日产自动车株式会社 Vehicle headway estimates method and vehicle headway estimating device

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5852637B2 (en) * 2013-12-27 2016-02-03 富士重工業株式会社 Arrow signal recognition device
MX352401B (en) * 2014-05-20 2017-11-23 Nissan Motor Traffic-light recognition device and traffic-light recognition method.
EP3168823B1 (en) 2014-07-08 2020-05-13 Nissan Motor Co., Ltd Traffic signal detection device and traffic signal detection method
JP6728634B2 (en) * 2015-11-04 2020-07-22 株式会社リコー Detecting device, detecting method and program

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4852482B2 (en) * 2007-06-25 2012-01-11 日立オートモティブシステムズ株式会社 Vehicle travel support control device
JP4863951B2 (en) * 2007-08-09 2012-01-25 本田技研工業株式会社 Traffic light recognition device
JP4856656B2 (en) * 2008-01-22 2012-01-18 富士重工業株式会社 Vehicle detection device
EP2476108B1 (en) * 2009-09-09 2018-01-10 Absolute Software Corporation Alert for real-time risk of theft or loss

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109314763A (en) * 2016-06-14 2019-02-05 日产自动车株式会社 Vehicle headway estimates method and vehicle headway estimating device
CN109314763B (en) * 2016-06-14 2021-01-05 日产自动车株式会社 Method and device for estimating vehicle-to-vehicle distance

Also Published As

Publication number Publication date
JP2013171489A (en) 2013-09-02

Similar Documents

Publication Publication Date Title
US10984509B2 (en) Image processing apparatus, imaging device, moving body device control system, image information processing method, and program product
JP5548667B2 (en) Outside environment recognition device
JP5499011B2 (en) Outside environment recognition device and outside environment recognition method
US10755116B2 (en) Image processing apparatus, imaging apparatus, and device control system
JP5612621B2 (en) Outside environment recognition device
JP5798011B2 (en) Outside environment recognition device
JP6344638B2 (en) Object detection apparatus, mobile device control system, and object detection program
US8941738B2 (en) Vehicle exterior monitoring device and vehicle exterior monitoring method
JP5537492B2 (en) Environment recognition device
JP5537491B2 (en) Environment recognition device
JP5386537B2 (en) Environment recognition device
JP6705496B2 (en) Image processing device, imaging device, mobile device control system, mobile device, image processing method, and program
JP6583527B2 (en) Image processing apparatus, imaging apparatus, mobile device control system, image processing method, and program
JP5592308B2 (en) Environment recognition device
WO2017130640A1 (en) Image processing device, imaging device, mobile entity apparatus control system, image processing method, and program
JP5922947B2 (en) Outside environment recognition device and outside environment recognition method
JP2017083326A (en) Image processor, imaging apparatus, equipment control system, frequency distribution image generation method, and program
US20120269391A1 (en) Environment recognition device and environment recognition method
JP6687039B2 (en) Object detection device, device control system, imaging device, object detection method, and program
JP2012238242A (en) Environment recognition device and environment recognition method
JPWO2017145634A1 (en) Image processing apparatus, imaging apparatus, mobile device control system, image processing method, and program
JP2016206801A (en) Object detection device, mobile equipment control system and object detection program
JP7229032B2 (en) External object detection device
JP6273156B2 (en) Pedestrian recognition device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150108

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150812

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150818

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151013

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160322

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160415

R150 Certificate of patent or registration of utility model

Ref document number: 5922947

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250