JP6329442B2 - Outside environment recognition device - Google Patents

Outside environment recognition device Download PDF

Info

Publication number
JP6329442B2
JP6329442B2 JP2014131245A JP2014131245A JP6329442B2 JP 6329442 B2 JP6329442 B2 JP 6329442B2 JP 2014131245 A JP2014131245 A JP 2014131245A JP 2014131245 A JP2014131245 A JP 2014131245A JP 6329442 B2 JP6329442 B2 JP 6329442B2
Authority
JP
Japan
Prior art keywords
image
target
target image
light source
special
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014131245A
Other languages
Japanese (ja)
Other versions
JP2016009429A (en
Inventor
淑実 大久保
淑実 大久保
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Subaru Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Subaru Corp filed Critical Subaru Corp
Priority to JP2014131245A priority Critical patent/JP6329442B2/en
Publication of JP2016009429A publication Critical patent/JP2016009429A/en
Application granted granted Critical
Publication of JP6329442B2 publication Critical patent/JP6329442B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、自車両の周囲に存在する特定物を特定する車外環境認識装置に関する。   The present invention relates to a vehicle environment recognition apparatus that identifies a specific object existing around a host vehicle.

従来、自車両の前方に位置する車両等の特定物を特定し、先行車両との衝突を回避したり(衝突回避制御)、先行車両との車間距離を安全な距離に保つように制御する(クルーズコントロール)技術が知られている。このような自車両の前方監視技術により、先行車両や歩行者などの特定物との接触事故の回避や軽減にも効果が期待されている。   Conventionally, a specific object such as a vehicle positioned in front of the host vehicle is specified, and a collision with a preceding vehicle is avoided (collision avoidance control), or the distance between the preceding vehicle and the preceding vehicle is controlled to be kept at a safe distance ( (Cruise Control) technology is known. Such forward monitoring technology of the own vehicle is expected to be effective in avoiding and reducing contact accidents with specific objects such as preceding vehicles and pedestrians.

特定物の特定技術としては、例えば、ステレオ画像処理によって生成された距離画像を用い、3次元位置が互いに隣接する画像ブロック同士をグループ化し、グループ化した画像ブロック群の水平および垂直の最外端を囲った矩形状の領域を制御対象となり得る対象像(対象物の像)として特定する技術が公開されている(例えば、特許文献1)。   As a specific object specifying technique, for example, a distance image generated by stereo image processing is used, and image blocks whose three-dimensional positions are adjacent to each other are grouped, and the horizontal and vertical outermost ends of the grouped image blocks are grouped. A technique for specifying a rectangular region surrounding the image as a target image (image of a target object) that can be a control target is disclosed (for example, Patent Document 1).

特開2013−203337号公報JP 2013-203337 A

自車両前方に位置する車両や人は、例えば、光軸を異にして車内に配された2つの撮像装置で撮像された2つの画像を用い、パターンマッチングによって3次元的な位置(3次元位置)が特定され、衝突回避制御やクルーズコントロールに用いられる。しかし、例えば、降雨の影響で道路面が濡れていると、道路上に配された信号機や街灯等の光源の光を反射し、画面垂直方向に延伸する帯を成す光帯が生じることがある。そうすると、このような、本来、自車両前方に立体物としては実在しない光帯が、上述した衝突回避制御やクルーズコントロールの制御対象となるおそれが生じる。   A vehicle or a person positioned in front of the host vehicle uses, for example, two images captured by two imaging devices arranged in the vehicle with different optical axes, and a three-dimensional position (three-dimensional position) by pattern matching. ) Is identified and used for collision avoidance control and cruise control. However, for example, when the road surface is wet due to the influence of rain, light from a light source such as a traffic light or a streetlight arranged on the road may be reflected to form a light band extending in the vertical direction of the screen. . Then, there is a possibility that such an optical band that does not actually exist in front of the host vehicle as a three-dimensional object becomes a control target of the above-described collision avoidance control or cruise control.

ただし、光帯は、道路面に反射している像であるため、その3次元位置を求めようとすると、道路面より鉛直下方に存在することとなる。そこで、道路面より鉛直下方に位置する対象像(ここでは光帯)を、特定物としては実在しない特殊像とし、衝突回避制御やクルーズコントロールの制御対象から除外することが考えられる。   However, since the light band is an image reflected on the road surface, when the three-dimensional position is obtained, the light band exists vertically below the road surface. Therefore, it is conceivable that the target image (here, the light band) positioned vertically below the road surface is a special image that does not actually exist as a specific object and is excluded from the control target for collision avoidance control and cruise control.

しかし、上記のような道路面が濡れている状況において、さらに、信号機等、発光態様の等しい複数の光源が存在する場合、道路面に反射する光帯も同様のカラー値や大きさで出現する場合がある。このとき、2つの撮像装置から取得した2つの画像について、同一の光帯同士がマッチングすれば問題ないが、異なる光帯同士がミスマッチングしてしまい、光帯が、本来の光帯の位置より自車両手前側に位置すると誤認識される場合がある。その場合、遠近法の関係から光帯が道路面より鉛直下方に位置しないと判断されることがあり、上記のように、特殊像として衝突回避制御やクルーズコントロールの制御対象から除外することができなくなる。   However, in the situation where the road surface is wet as described above, if there are a plurality of light sources having the same light emission mode, such as traffic lights, the light band reflected on the road surface also appears with the same color value and size. There is a case. At this time, there is no problem if the same optical bands are matched between the two images acquired from the two imaging devices, but the different optical bands are mismatched, so that the optical band is more than the position of the original optical band. It may be misrecognized as being located in front of the host vehicle. In that case, it may be determined that the light band is not located vertically below the road surface due to perspective, and as described above, it can be excluded from the target of collision avoidance control and cruise control as a special image. Disappear.

本発明は、このような課題に鑑み、道路面に反射した光帯を適切に特殊像として特定することで、特定物の特定精度を向上することが可能な車外環境認識装置を提供することを目的としている。   In view of such a problem, the present invention provides an external environment recognition device capable of improving the accuracy of specifying a specific object by appropriately specifying a light band reflected on a road surface as a special image. It is aimed.

上記課題を解決するために、本発明の車外環境認識装置は、位置を異にする2つの撮像装置により撮像された基準画像と、比較画像とを取得する画像取得部と、パターンマッチングにより、比較画像の所定の範囲から、基準画像における任意の基準ブロックと相関のある比較ブロックを抽出し、基準ブロックの視差情報を生成する画像処理部と、視差情報を用いて基準画像内における対象部位の3次元位置を導出する3次元位置導出部と、3次元位置の差分が所定範囲内にある対象部位同士をグループ化して対象像とするグループ化部と、基準画像内において、任意の対象像の垂直上方に光源を示す対象像があり、任意の対象像および光源を起点として、水平所定方向に、任意の対象像の視差情報と想定視差との差分である想定ミスマッチ距離分シフトした位置に、任意の対象像および光源と相関のある対象像および光源が存在する場合、任意の対象像を特殊像と判定する特殊像判定部と、を備えることを特徴とする。   In order to solve the above-described problem, the vehicle environment recognition apparatus according to the present invention compares a reference image captured by two imaging devices at different positions and an image acquisition unit that acquires a comparison image, and pattern matching. A comparison block correlated with an arbitrary reference block in the reference image is extracted from a predetermined range of the image, and an image processing unit that generates disparity information of the reference block; and 3 of the target part in the reference image using the disparity information A three-dimensional position deriving unit for deriving a three-dimensional position, a grouping unit for grouping target portions whose difference in three-dimensional position is within a predetermined range, and making a target image vertical in a reference image There is a target image showing a light source above, and an assumed mismatch distance that is a difference between the disparity information of the arbitrary target image and the assumed parallax in a predetermined horizontal direction starting from the arbitrary target image and the light source To the partial shift position, when the target image and a light source having a correlation with any subject image and the light source is present, characterized in that it comprises a special image determining section for determining a special image of any subject images, a.

特殊像判定部は、さらに、対象像における、エッジの延伸方向に垂直なエッジ方向が水平方向とみなされる所定の方向範囲に含まれる割合が所定の閾値以上であれば、対象像を特殊像と判定してもよい。   The special image determination unit further determines that the target image is a special image if the ratio of the edge direction perpendicular to the edge extension direction in the target image included in the predetermined direction range that is regarded as the horizontal direction is equal to or greater than a predetermined threshold. You may judge.

特殊像判定部は、さらに、車外環境が、道路面が光源を反射する環境であれば、対象像を特殊像と判定してもよい。   The special image determination unit may further determine that the target image is a special image if the environment outside the vehicle is an environment where the road surface reflects the light source.

特殊像判定部は、さらに、対象像自体に光源を含んでいなければ、対象像を特殊像と判定してもよい。   The special image determination unit may determine that the target image is a special image if the target image itself does not include a light source.

上記課題を解決するために、本発明の他の車外環境認識装置は、位置を異にする2つの撮像装置により撮像された基準画像と、比較画像とを取得する画像取得部と、パターンマッチングにより、比較画像の所定の範囲から、基準画像における任意の基準ブロックと相関のある比較ブロックを抽出し、視差情報を生成する画像処理部と、視差情報を用いて基準画像内における対象部位の3次元位置を導出する3次元位置導出部と、3次元位置の差分が所定範囲内にある対象部位同士をグループ化して対象像とするグループ化部と、基準画像内において、任意の対象像を起点として、水平所定方向に、任意の対象像の視差情報と想定視差との差分である想定ミスマッチ距離分シフトした位置に、任意の対象像と相関のある対象像が存在する場合、任意の対象像を特殊像と判定する特殊像判定部と、を備えることを特徴とする。   In order to solve the above-described problem, another external environment recognition device of the present invention includes a reference image captured by two imaging devices at different positions and an image acquisition unit that acquires a comparison image, and pattern matching. A comparison block correlated with an arbitrary reference block in the reference image is extracted from a predetermined range of the comparison image, and an image processing unit that generates disparity information, and a three-dimensional target region in the reference image using the disparity information A three-dimensional position deriving unit for deriving a position, a grouping unit for grouping target parts whose difference in three-dimensional position is within a predetermined range, and setting a target image as a starting point in a reference image When a target image correlated with an arbitrary target image exists at a position shifted by an assumed mismatch distance that is a difference between the parallax information of the arbitrary target image and the assumed parallax in a predetermined horizontal direction, And special image determining section for determining a target image at will a special image, characterized in that it comprises a.

グループ化部がグループ化した1または複数の対象像のうち、特殊像判定部が特殊像であると判定した対象像を除外し、残った対象像から特定物を特定する特定物特定部をさらに備えてもよい。   A specific object specifying unit that excludes the target image determined by the special image determination unit to be a special image from the one or more target images grouped by the grouping unit, and specifies a specific object from the remaining target images; You may prepare.

本発明によれば、道路面に反射した光帯を適切に特殊像として特定することで、特定物の特定精度を向上することが可能となる。   According to the present invention, it is possible to improve the accuracy of specifying a specific object by appropriately specifying the light band reflected on the road surface as a special image.

環境認識システムの接続関係を示したブロック図である。It is the block diagram which showed the connection relation of the environment recognition system. 車外環境認識装置の概略的な機能を示した機能ブロック図である。It is the functional block diagram which showed the schematic function of the external environment recognition apparatus. 車外環境認識処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a vehicle exterior environment recognition process. パターンマッチングの一例を説明するための説明図である。It is explanatory drawing for demonstrating an example of pattern matching. 特殊像の判定を説明するための説明図である。It is explanatory drawing for demonstrating determination of a special image. パターンマッチングの他の例を説明するための説明図である。It is explanatory drawing for demonstrating the other example of pattern matching. 特殊像の判定を説明するための説明図である。It is explanatory drawing for demonstrating determination of a special image. カラー画像と距離画像を説明するための説明図である。It is explanatory drawing for demonstrating a color image and a distance image. 特殊像判定処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a special image determination process. エッジ方向判定処理を説明するための説明図である。It is explanatory drawing for demonstrating edge direction determination processing. 光源位置判定処理、光源ミスマッチ判定処理、対象像ミスマッチ判定処理を説明するための説明図である。It is explanatory drawing for demonstrating a light source position determination process, a light source mismatch determination process, and a target image mismatch determination process.

以下に添付図面を参照しながら、本発明の好適な実施形態について詳細に説明する。かかる実施形態に示す寸法、材料、その他具体的な数値などは、発明の理解を容易とするための例示にすぎず、特に断る場合を除き、本発明を限定するものではない。なお、本明細書および図面において、実質的に同一の機能、構成を有する要素については、同一の符号を付することにより重複説明を省略し、また本発明に直接関係のない要素は図示を省略する。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. The dimensions, materials, and other specific numerical values shown in the embodiment are merely examples for facilitating understanding of the invention, and do not limit the present invention unless otherwise specified. In the present specification and drawings, elements having substantially the same function and configuration are denoted by the same reference numerals, and redundant description is omitted, and elements not directly related to the present invention are not illustrated. To do.

(環境認識システム100)
図1は、環境認識システム100の接続関係を示したブロック図である。環境認識システム100は、自車両1内に設けられた、撮像装置110と、車外環境認識装置120と、車両制御装置(ECU:Engine Control Unit)130とを含んで構成される。
(Environment recognition system 100)
FIG. 1 is a block diagram showing a connection relationship of the environment recognition system 100. The environment recognition system 100 includes an imaging device 110, a vehicle exterior environment recognition device 120, and a vehicle control device (ECU: Engine Control Unit) 130 provided in the host vehicle 1.

撮像装置110は、CCD(Charge-Coupled Device)やCMOS(Complementary Metal-Oxide Semiconductor)等の撮像素子を含んで構成され、自車両1の前方に相当する環境を撮像し、カラー値によるカラー画像、または、輝度(Y)による輝度画像(モノクロ画像)を生成することができる。ここで、カラー値は、1つの輝度(Y)と2つの色差(U、V)からなるYUV形式の色空間、3つの色相(R(赤)、G(緑)、B(青))からなるRGB形式の色空間、または、色相(H)、彩度(S)、明度(B)からなるHSB形式の色空間のいずれかで表される数値群である。本実施形態では、カラー画像を用いた例を説明するが、少なくとも輝度(Y)を有していれば足りるので、輝度画像を用いることもできる。   The imaging device 110 includes an imaging element such as a CCD (Charge-Coupled Device) or a CMOS (Complementary Metal-Oxide Semiconductor). The imaging device 110 captures an environment corresponding to the front of the host vehicle 1, Alternatively, a luminance image (monochrome image) with luminance (Y) can be generated. Here, the color value is from a YUV format color space consisting of one luminance (Y) and two color differences (U, V), and three hues (R (red), G (green), B (blue)). A numerical value group represented by any one of the RGB color space or the HSB color space consisting of hue (H), saturation (S), and brightness (B). In this embodiment, an example using a color image will be described. However, a luminance image can be used because it is sufficient if it has at least luminance (Y).

また、撮像装置110は、自車両1の進行方向側において2つの撮像装置110それぞれの光軸が略平行になるように、略水平方向に離隔して配置される。撮像装置110は、自車両1の前方の検出領域に存在する対象物を撮像したカラー画像を、例えば1/60秒のフレーム毎(60fps)に連続して生成する。ここで、認識する対象物や、対象物に対応付けて特定する特定物は、車両、歩行者、自転車、信号機、道路、ガードレール、建物といった立体的に独立して存在する物のみならず、テールランプやウィンカー、信号機の各点灯部分等、特定物の一部として特定できる物も含む。本実施形態の目的の一つは、カラー画像に含まれる対象像(対象物の像)を特定物として特定することにある。以下の実施形態における各機能部は、このようなカラー画像の取得(更新)を契機としてフレーム毎に各処理を遂行する。   In addition, the imaging devices 110 are arranged in a substantially horizontal direction so that the optical axes of the two imaging devices 110 are substantially parallel on the traveling direction side of the host vehicle 1. The imaging device 110 continuously generates a color image obtained by capturing an object existing in the detection area in front of the host vehicle 1, for example, every 1/60 second frame (60 fps). Here, the object to be recognized and the specific object to be specified in association with the object are not only objects that exist three-dimensionally independently such as vehicles, pedestrians, bicycles, traffic lights, roads, guardrails, buildings, but also tail lamps. Also included are items that can be specified as part of specific items such as lighting parts of turn signals, turn signals, and traffic lights. One of the objects of the present embodiment is to specify a target image (object image) included in a color image as a specific object. Each functional unit in the following embodiments performs each process for each frame triggered by such acquisition (update) of a color image.

車外環境認識装置120は、2つの撮像装置110それぞれからカラー画像を取得し、所謂パターンマッチングを用いて視差を導き出し、導出された視差情報(後述する相対距離に相当)をカラー画像に対応付けて距離画像を生成する。カラー画像および距離画像については後ほど詳述する。また、車外環境認識装置120は、カラー画像に基づくカラー値、および、距離画像に基づく自車両1との相対距離zを用いて、自車両1前方の検出領域における対象像を、制御対象となる特定物、もしくは、特定物としては実在しない特殊像として特定する。かかる特殊像については後程詳述する。   The vehicle exterior environment recognition device 120 acquires color images from each of the two imaging devices 110, derives parallax using so-called pattern matching, and associates the derived parallax information (corresponding to a relative distance described later) with the color image. Generate a distance image. The color image and the distance image will be described in detail later. In addition, the vehicle environment recognition apparatus 120 uses the color value based on the color image and the relative distance z to the host vehicle 1 based on the distance image as a control target for the target image in the detection area in front of the host vehicle 1. A specific object or a special image that does not exist as a specific object is specified. This special image will be described in detail later.

また、車外環境認識装置120は、特定物を特定すると、その特定物(例えば、先行車両)を追跡しつつ、特定物の相対速度等を導出し、特定物と自車両1とが衝突する可能性が高いか否かの判定を行う。ここで、衝突の可能性が高いと判定した場合、車外環境認識装置120は、その旨、運転者の前方に設置されたディスプレイ122を通じて運転者に警告表示(報知)を行うとともに、車両制御装置130に対して、その旨を示す情報を出力する。   Further, when the outside environment recognition device 120 identifies a specific object, the specific object and the host vehicle 1 may collide with each other by deriving the relative speed of the specific object while tracking the specific object (for example, a preceding vehicle). Judgment is made whether or not the property is high. Here, when it is determined that the possibility of the collision is high, the outside environment recognition device 120 displays a warning (notification) to the driver through the display 122 installed in front of the driver, and the vehicle control device. Information indicating that is output to 130.

車両制御装置130は、ステアリングホイール132、アクセルペダル134、ブレーキペダル136を通じて運転者の操作入力を受け付け、操舵機構142、駆動機構144、制動機構146に伝達することで自車両1を制御する。また、車両制御装置130は、車外環境認識装置120の指示に従い、駆動機構144、制動機構146を制御する。   The vehicle control device 130 receives a driver's operation input through the steering wheel 132, the accelerator pedal 134, and the brake pedal 136, and controls the host vehicle 1 by transmitting it to the steering mechanism 142, the drive mechanism 144, and the brake mechanism 146. In addition, the vehicle control device 130 controls the drive mechanism 144 and the braking mechanism 146 in accordance with instructions from the outside environment recognition device 120.

以下、車外環境認識装置120の構成について詳述する。ここでは、本実施形態に特徴的な、対象像を特殊像として特定する手順について詳細に説明し、本実施形態の特徴と無関係の構成については説明を省略する。   Hereinafter, the configuration of the outside environment recognition device 120 will be described in detail. Here, a procedure for specifying a target image as a special image, which is characteristic of the present embodiment, will be described in detail, and a description of a configuration unrelated to the characteristics of the present embodiment will be omitted.

(車外環境認識装置120)
図2は、車外環境認識装置120の概略的な機能を示した機能ブロック図である。図2に示すように、車外環境認識装置120は、I/F部160と、データ保持部162と、中央制御部164とを含んで構成される。
(Vehicle environment recognition device 120)
FIG. 2 is a functional block diagram showing a schematic function of the outside environment recognition device 120. As shown in FIG. 2, the vehicle exterior environment recognition device 120 includes an I / F unit 160, a data holding unit 162, and a central control unit 164.

I/F部160は、撮像装置110や車両制御装置130との双方向の情報交換を行うためのインターフェースである。データ保持部162は、RAM、フラッシュメモリ、HDD等で構成され、以下に示す各機能部の処理に必要な様々な情報を保持し、また、撮像装置110から受信したカラー画像を一時的に保持する。   The I / F unit 160 is an interface for performing bidirectional information exchange with the imaging device 110 and the vehicle control device 130. The data holding unit 162 includes a RAM, a flash memory, an HDD, and the like. The data holding unit 162 holds various information necessary for the processing of each function unit described below, and temporarily holds a color image received from the imaging device 110. To do.

中央制御部164は、中央処理装置(CPU)、プログラム等が格納されたROM、ワークエリアとしてのRAM等を含む半導体集積回路で構成され、システムバス166を通じて、I/F部160、データ保持部162等を制御する。また、本実施形態において、中央制御部164は、画像取得部170、画像処理部172、3次元位置導出部174、グループ化部176、特殊像判定部178、特定物特定部180としても機能する。   The central control unit 164 is configured by a semiconductor integrated circuit including a central processing unit (CPU), a ROM storing programs, a RAM as a work area, and the like, and through the system bus 166, an I / F unit 160, a data holding unit 162 and the like are controlled. In the present embodiment, the central control unit 164 also functions as the image acquisition unit 170, the image processing unit 172, the three-dimensional position derivation unit 174, the grouping unit 176, the special image determination unit 178, and the specific object specifying unit 180. .

(車外環境認識処理)
図3は、車外環境認識処理の流れを示すフローチャートである。車外環境認識処理では、画像取得部170が、撮像装置110から画像を取得し(S200)、画像処理部172が、取得した画像を処理し(S202)、3次元位置導出部174が、画像から3次元位置を導出し(S204)、グループ化部176が、3次元位置に基づいてグループ化された対象像を生成し(S206)、特殊像判定部178が、グループ化された対象像が特殊像であるか否か判定し(S208)、特定物特定部180が特定物を特定する(S210)。以下、個々の処理を詳述する。
(External vehicle environment recognition processing)
FIG. 3 is a flowchart showing the flow of the external environment recognition process. In the outside environment recognition processing, the image acquisition unit 170 acquires an image from the imaging device 110 (S200), the image processing unit 172 processes the acquired image (S202), and the three-dimensional position derivation unit 174 extracts the image from the image. The three-dimensional position is derived (S204), the grouping unit 176 generates a grouped target image based on the three-dimensional position (S206), and the special image determination unit 178 determines that the grouped target image is special. It is determined whether or not the image is an image (S208), and the specific object specifying unit 180 specifies a specific object (S210). Hereinafter, each process is explained in full detail.

(画像取得処理S200)
画像取得部170は、2つの撮像装置110により撮像された2つのカラー画像を取得する。ここでは、2つのカラー画像のうち、後述するパターンマッチングの基準となる、自車両1前方に向かって右側に位置する撮像装置110から取得した一方のカラー画像を基準画像とし、このような基準画像と比較する、自車両1前方に向かって左側に位置する撮像装置110から取得した他方のカラー画像を比較画像とする。
(Image acquisition process S200)
The image acquisition unit 170 acquires two color images captured by the two imaging devices 110. Here, of the two color images, one color image acquired from the imaging device 110 located on the right side toward the front of the host vehicle 1, which serves as a reference for pattern matching described later, is used as a reference image, and such a reference image is used. The other color image acquired from the imaging device 110 located on the left side toward the front of the host vehicle 1 is referred to as a comparison image.

(画像処理S202)
画像処理部172は、まず、基準画像から任意に抽出した基準ブロック(例えば水平4画素×垂直4画素の配列)を抽出する。そして、画像処理部172は、所謂パターンマッチングを用いて、比較画像の所定の範囲から、任意の基準ブロックと相関のある比較ブロックを抽出し、任意の基準ブロックと比較ブロックとの画像に対する位置関係から基準ブロックの視差情報(視差)を生成する。ここで、「水平」は画面横方向を示し、「垂直」は画面縦方向を示し、所定の範囲は、水平方向に視差が生じうる範囲、例えば、水平128画素×垂直4画素を示す。
(Image processing S202)
First, the image processing unit 172 extracts a reference block arbitrarily extracted from the reference image (for example, an array of 4 horizontal pixels × 4 vertical pixels). Then, the image processing unit 172 uses so-called pattern matching to extract a comparison block correlated with an arbitrary reference block from a predetermined range of the comparison image, and the positional relationship between the arbitrary reference block and the comparison block with respect to the image To generate disparity information (disparity) of the reference block. Here, “horizontal” indicates the horizontal direction of the screen, “vertical” indicates the vertical direction of the screen, and the predetermined range indicates a range where parallax can occur in the horizontal direction, for example, horizontal 128 pixels × vertical 4 pixels.

このパターンマッチングとしては、2つのカラー画像間において、任意の画像位置を示すブロック単位で輝度(Y色差信号)を比較することが考えられる。例えば、輝度の差分をとるSAD(Sum of Absolute Difference)、差分を2乗して用いるSSD(Sum of Squared intensity Difference)や、各画素の輝度から平均値を引いた分散値の類似度をとるNCC(Normalized Cross Correlation)等の手法がある。画像処理部172は、このようなブロック単位の視差導出処理を検出領域(例えば水平600画素×垂直180画素)に映し出されている全てのブロックについて行う。ここでは、ブロックを水平4画素×垂直4画素としているが、ブロック内の画素数は任意に設定することができる。以下、かかる視差情報を導出する単位となるブロックを視差ブロックと称する。   As this pattern matching, it is conceivable to compare the luminance (Y color difference signal) between two color images in units of blocks indicating arbitrary image positions. For example, SAD (Sum of Absolute Difference) that takes a luminance difference, SSD (Sum of Squared Intensity Difference) that uses the difference squared, or NCC that takes the similarity of a variance value obtained by subtracting an average value from the luminance of each pixel There are methods such as (Normalized Cross Correlation). The image processing unit 172 performs such block-based parallax derivation processing for all blocks displayed in the detection region (for example, horizontal 600 pixels × vertical 180 pixels). Here, the block is assumed to be horizontal 4 pixels × vertical 4 pixels, but the number of pixels in the block can be arbitrarily set. Hereinafter, a block that is a unit for deriving such parallax information is referred to as a parallax block.

図4は、パターンマッチングの一例を説明するための説明図である。ここでは、画像取得部170が、図4(a)に示す基準画像212aと、図4(b)に示す比較画像212bを取得したとする。かかる基準画像212aでは、降雨の影響で道路面が濡れており、道路上に配された任意の2つの信号機の光源(青信号)214a、216aの光を道路面で反射し、それぞれの光源214a、216aに対し、画面垂直方向に延伸する帯を成す光帯218a、220aが生じているとする。このような光帯218a、220aは、車外環境の輝度が低いとき(例えば夜間)に顕著に出現する。また、同様に、比較画像212bでは、同一の2つの信号機の光源214b、216bの光を道路面で反射し、それぞれの光源214b、216bに対し、画面垂直方向に帯を成す光帯218b、220bが生じているとする。   FIG. 4 is an explanatory diagram for explaining an example of pattern matching. Here, it is assumed that the image acquisition unit 170 acquires the reference image 212a illustrated in FIG. 4A and the comparison image 212b illustrated in FIG. In the reference image 212a, the road surface is wet due to the rain, and the light of the light sources (blue light) 214a and 216a of any two traffic lights arranged on the road is reflected by the road surface, and the respective light sources 214a, It is assumed that optical bands 218a and 220a forming bands extending in the vertical direction of the screen are generated with respect to 216a. Such light bands 218a and 220a appear remarkably when the brightness of the environment outside the vehicle is low (for example, at night). Similarly, in the comparative image 212b, light from the light sources 214b and 216b of the same two traffic lights is reflected on the road surface, and light bands 218b and 220b forming bands in the vertical direction of the screen with respect to the respective light sources 214b and 216b. Suppose that has occurred.

画像処理部172は、基準画像212aから、例えば、光帯218aの一部の視差ブロックである基準ブロックを抽出し、比較画像212bの所定の範囲から、その基準ブロックと相関のある視差ブロックである比較ブロックを探索する。そうすると、図4(b)中、矢印で示した視差(後述する想定視差)分離隔した位置に、同一の光帯218bの一部であり、基準画像212aの基準ブロックと垂直位置を等しくする比較ブロックが抽出される。また、同様にして、画像処理部172は、基準画像212aから、光帯220aの一部の基準ブロックを抽出し、比較画像212bの所定の範囲から、その基準ブロックと相関のある比較ブロックを探索する。そうすると、図4(b)中、矢印で示した視差分離隔した位置に、同一の光帯220bの一部であり、基準画像212aの基準ブロックと垂直位置を等しくする比較ブロックが抽出される。   The image processing unit 172 extracts, for example, a reference block that is a partial parallax block of the optical band 218a from the reference image 212a, and is a parallax block correlated with the reference block from a predetermined range of the comparison image 212b. Search for a comparison block. Then, in FIG. 4B, a comparison is made such that the vertical position is equal to the reference block of the reference image 212a that is part of the same optical band 218b at a position separated by parallax (assumed parallax described later) indicated by an arrow. A block is extracted. Similarly, the image processing unit 172 extracts some reference blocks of the optical band 220a from the reference image 212a, and searches for a comparison block correlated with the reference block from a predetermined range of the comparison image 212b. To do. Then, in FIG. 4B, a comparison block that is a part of the same optical band 220b and has the same vertical position as the reference block of the reference image 212a is extracted at positions separated by parallax indicated by arrows.

こうして、画像処理部172は、相関のある基準画像212aの光帯218aと比較画像212bの光帯218bとの視差情報を生成し、後述するグループ化部176によって、図4(c)の基準画像212aに示す対象像230が特定される。また、同様に、画像処理部172は、相関のある基準画像212aの光帯220aと比較画像212bの光帯220bとの視差情報を生成し、後述するグループ化部176によって、図4(c)の基準画像212aに示す対象像232が特定される。   In this way, the image processing unit 172 generates parallax information between the optical band 218a of the correlated reference image 212a and the optical band 218b of the comparative image 212b, and the grouping unit 176 described later uses the reference image in FIG. The target image 230 shown in 212a is specified. Similarly, the image processing unit 172 generates parallax information between the optical band 220a of the correlated reference image 212a and the optical band 220b of the comparative image 212b, and the grouping unit 176 described below uses FIG. The target image 232 shown in the reference image 212a is identified.

しかし、このような光帯の対象像230、232は、本来、特定物としては実在しない特殊像であり、このような特殊像を特定物として衝突回避制御やクルーズコントロールの制御対象としてしまうと、車両走行の安定性に影響を及ぼすおそれがある。そこで、後述する特殊像判定部178では、光帯218a、218b、220a、220bによる対象像230、232を特殊像とし、衝突回避制御やクルーズコントロールの制御対象から除外する。   However, such target images 230, 232 of the optical band are special images that do not actually exist as specific objects, and if such special images are used as specific objects for collision avoidance control or cruise control, There is a risk of affecting the stability of vehicle travel. Therefore, in the special image determination unit 178 described later, the target images 230 and 232 by the optical bands 218a, 218b, 220a, and 220b are set as special images, and are excluded from the control targets of the collision avoidance control and the cruise control.

図5は、特殊像の判定を説明するための説明図である。図5では、光源214aや光帯218aの対象像230の自車両1に対する相対距離および高さの位置関係を表している。光帯218aの対象像230は、光源214aの光を道路面で反射したものなので、図5に太線で示すように、光源214aから延伸するように出現する。ただし、実際に存在する対象物(対象像)は、必ず道路面より鉛直上方に位置するのに対し、当該光帯218aの対象像230は、仮に実在するとしたら、道路面より鉛直下方に位置すると認識される。   FIG. 5 is an explanatory diagram for explaining the determination of the special image. FIG. 5 shows the positional relationship between the relative distance and height of the target image 230 of the light source 214a and the light band 218a with respect to the host vehicle 1. Since the target image 230 of the light band 218a is obtained by reflecting the light of the light source 214a on the road surface, it appears so as to extend from the light source 214a as shown by a thick line in FIG. However, the object (object image) that actually exists is always located vertically above the road surface, whereas the object image 230 of the light band 218a is assumed to be located vertically below the road surface if it actually exists. Be recognized.

そこで、後述する特殊像判定部178は、対象像230が道路面より鉛直下方に位置する場合、その対象像230を特殊像と判定し、衝突回避制御やクルーズコントロールの制御対象から除外する。   Therefore, when the target image 230 is located vertically below the road surface, the special image determination unit 178 described later determines that the target image 230 is a special image and excludes it from the control target for collision avoidance control and cruise control.

図6は、パターンマッチングの他の例を説明するための説明図である。上記のように、相関のある基準画像212aの光帯218aと比較画像212bの光帯218bとによって対象像230が特定され、相関のある基準画像212aの光帯220aと比較画像212bの光帯220bとによって対象像232が特定されれば、いずれの対象像230、232も道路面より鉛直下方に存在すると判定され、最終的に衝突回避制御やクルーズコントロールの制御対象から除外される。しかし、道路面が濡れている状況において、図6(a)に示すように、信号機等、発光態様の等しい複数の光源214a、216aが存在する場合、道路面に反射する光帯218a、218b、220a、220bも同様のカラー値や大きさで出現する場合がある。   FIG. 6 is an explanatory diagram for explaining another example of pattern matching. As described above, the target image 230 is specified by the optical band 218a of the correlated reference image 212a and the optical band 218b of the comparative image 212b, and the optical band 220a of the correlated reference image 212a and the optical band 220b of the comparative image 212b. If the target image 232 is specified by the above, it is determined that both of the target images 230 and 232 exist vertically below the road surface, and are finally excluded from the control targets of the collision avoidance control and the cruise control. However, in a situation where the road surface is wet, as shown in FIG. 6A, when there are a plurality of light sources 214a and 216a having the same light emission mode, such as traffic lights, the light bands 218a and 218b reflected on the road surface, 220a and 220b may appear with similar color values and sizes.

このとき、2つの撮像装置110から取得した基準画像212aおよび比較画像212bについて、図4を用いて説明したように、同一の光帯218a、218b同士や光帯220a、220b同士がマッチングすれば問題ないが、異なる光帯同士、例えば、基準画像212aの光帯218aと比較画像212bの光帯220bとがミスマッチングする場合がある。そうすると、図6(a)、図6(b)に示すように、本来の視差(基準画像212aの光帯218aと比較画像212bの光帯218bとの視差)である想定視差に、ミスマッチング分の想定ミスマッチ距離(比較画像212bの光帯218bと比較画像212bの光帯220bとの距離)が加わって視差情報が導出されてしまう。そして、図6(c)に示すように、光帯218aの対象像234が、本来の光帯218aの対象像230の位置より自車両1から見て手前側に位置すると誤認識される場合がある。   At this time, as described with reference to FIG. 4, with respect to the reference image 212a and the comparison image 212b acquired from the two imaging devices 110, there is a problem if the same optical bands 218a and 218b or the optical bands 220a and 220b are matched. There are cases where different optical bands, for example, the optical band 218a of the reference image 212a and the optical band 220b of the comparative image 212b are mismatched. Then, as shown in FIG. 6A and FIG. 6B, a mismatch amount is added to the assumed parallax that is the original parallax (the parallax between the optical band 218a of the reference image 212a and the optical band 218b of the comparative image 212b). Of the estimated mismatch distance (the distance between the optical band 218b of the comparative image 212b and the optical band 220b of the comparative image 212b) is added, and the parallax information is derived. Then, as shown in FIG. 6C, there is a case where the target image 234 in the optical band 218a is erroneously recognized as being positioned on the near side as viewed from the own vehicle 1 from the position of the target image 230 in the original optical band 218a. is there.

図7は、特殊像の判定を説明するための説明図である。図7では、光源214aや光帯218aの対象像234の自車両1に対する相対距離および高さの位置関係を表している。光帯218aの対象像234は、本来、光源214aの光を道路面で反射したものなので、視差情報は想定視差となり、図7に太線の破線で示すように、光源214aから延伸するように出現するはずである。しかし、図6を用いて説明したように、基準画像212aの光帯218aと比較画像212bの光帯220bとがミスマッチングしてしまうと、視差情報が、想定視差より想定ミスマッチ距離分大きくなり、光帯218aの対象像234が、本来の光帯218aの対象像230の位置より自車両1から見て手前側に位置すると誤認識され、図7に太線の実線で示すように、遠近法の関係から、道路面より鉛直上方に位置すると認識される場合がある。その場合、対象像234(光帯)が道路面より鉛直下方に位置しないと判断されてしまい、上記のように、特殊像として衝突回避制御やクルーズコントロールの制御対象から除外することができなくなる。   FIG. 7 is an explanatory diagram for explaining the determination of the special image. FIG. 7 shows the positional relationship between the relative distance and the height of the target image 234 of the light source 214a and the light band 218a with respect to the host vehicle 1. Since the target image 234 of the optical band 218a is originally the light of the light source 214a reflected on the road surface, the parallax information is assumed to be parallax, and appears to extend from the light source 214a as shown by a thick broken line in FIG. Should do. However, as described with reference to FIG. 6, when the optical band 218a of the reference image 212a and the optical band 220b of the comparative image 212b are mismatched, the disparity information becomes larger than the assumed disparity by the assumed mismatch distance, The object image 234 in the optical band 218a is misrecognized as being located on the near side as viewed from the own vehicle 1 with respect to the position of the target image 230 in the original optical band 218a, and as shown by a bold solid line in FIG. From the relationship, it may be recognized that it is located vertically above the road surface. In this case, it is determined that the target image 234 (light band) is not positioned vertically below the road surface, and as described above, it cannot be excluded from the control target for collision avoidance control and cruise control as a special image.

そこで、本実施形態では、画像処理部172は、ミスマッチングの有無に拘わらず、パターンマッチングによって一旦視差情報を導出し、後述する距離画像を生成する。そして、後述するグループ化部176によって一旦グループ化された対象像234を他の条件で判定することで、その対象像234を特殊像として特定し、衝突回避制御やクルーズコントロールの制御対象から除外する。こうして、ミスマッチングによる光帯218aの対象像234の特定物化を回避して、特定物の特定精度を向上することが可能となる。   Therefore, in the present embodiment, the image processing unit 172 once derives parallax information by pattern matching regardless of the presence or absence of mismatching, and generates a distance image to be described later. Then, the target image 234 once grouped by the grouping unit 176 described later is determined under other conditions, so that the target image 234 is specified as a special image and excluded from the control target for collision avoidance control and cruise control. . In this way, it is possible to avoid the specific object of the target image 234 of the optical band 218a due to mismatching and improve the specific accuracy of the specific object.

図8は、カラー画像212と距離画像240を説明するための説明図である。例えば、2つの撮像装置110を通じ、検出領域242について2つのカラー画像212が生成されたとする。ただし、ここでは、説明の便宜上、右側に位置する撮像装置110から取得されたカラー画像(基準画像212a)のみを示している。本実施形態において、画像処理部172は、このようなカラー画像212(基準画像212aと比較画像212b)からブロック毎の視差を求め、図8(b)のような距離画像240を形成する。距離画像240における各視差ブロックには、その視差ブロックの視差が関連付けられている。ここでは、説明の便宜上、視差が導出された視差ブロックを黒のドットで表している。   FIG. 8 is an explanatory diagram for explaining the color image 212 and the distance image 240. For example, it is assumed that two color images 212 are generated for the detection region 242 through the two imaging devices 110. However, only the color image (reference image 212a) acquired from the imaging device 110 located on the right side is shown here for convenience of explanation. In the present embodiment, the image processing unit 172 obtains the parallax for each block from the color image 212 (the reference image 212a and the comparison image 212b), and forms the distance image 240 as illustrated in FIG. Each parallax block in the distance image 240 is associated with the parallax of the parallax block. Here, for convenience of explanation, the parallax block from which the parallax is derived is represented by black dots.

(3次元位置導出処理S204)
図3に戻って説明すると、3次元位置導出部174は、画像処理部172で生成された距離画像240に基づいて検出領域242内の視差ブロック毎の視差情報を、所謂ステレオ法を用いて、水平距離x、高さyおよび相対距離zを含む実空間における3次元位置に変換する。ここで、ステレオ法は、三角測量法を用いることで、対象部位(画素または複数の画素からなるブロック)の距離画像240における視差からその対象部位の撮像装置110に対する相対距離zを導出する方法である。このとき、3次元位置導出部174は、対象部位の相対距離zを求め、対象部位と同相対距離zにある道路表面上の点と対象部位との距離画像240上の検出距離とに基づいて、対象部位の道路表面からの高さyを導出する。そして、導出された3次元位置を改めて距離画像240に対応付ける。かかる相対距離zの導出処理や3次元位置の特定処理は、様々な公知技術を適用できるので、ここでは、その説明を省略する。
(Three-dimensional position derivation process S204)
Returning to FIG. 3, the three-dimensional position deriving unit 174 uses the so-called stereo method to calculate disparity information for each disparity block in the detection region 242 based on the distance image 240 generated by the image processing unit 172. It is converted into a three-dimensional position in the real space including the horizontal distance x, the height y, and the relative distance z. Here, the stereo method is a method of deriving a relative distance z with respect to the imaging device 110 of the target part from the parallax in the distance image 240 of the target part (a pixel or a block composed of a plurality of pixels) by using a triangulation method. is there. At this time, the three-dimensional position deriving unit 174 obtains the relative distance z of the target part, and based on the detected distance on the distance image 240 between the point on the road surface at the same relative distance z as the target part and the target part. The height y of the target part from the road surface is derived. Then, the derived three-dimensional position is associated with the distance image 240 again. Since various known techniques can be applied to the relative distance z deriving process and the three-dimensional position specifying process, the description thereof is omitted here.

(グループ化処理S206)
グループ化部176は、3次元位置の差分が所定範囲内にある対象部位同士をグループ化して対象像とする。具体的に、グループ化部176は、距離画像240における、水平距離xの差分、高さyの差分および相対距離zの差分が予め定められた範囲(例えば0.1m)内にある対象部位同士を、同一の特定物に対応すると仮定してグループ化する。こうして、仮想的な対象部位群である対象像が生成される。上記の範囲は実空間上の距離で表され、製造者や搭乗者によって任意の値に設定することができる。また、グループ化部176は、グループ化により新たに追加された対象部位に関しても、その対象部位を基点として、水平距離xの差分、高さyの差分および相対距離zの差分が所定範囲内にある対象部位をさらにグループ化する。結果的に、同一の特定物と仮定可能な対象部位全てがグループ化されることとなる。ここでは、図6(c)に示すような、基準画像212aの光帯218aと比較画像212bの光帯220bとがミスマッチングした光帯218aの対象像234が生成されたとする。
(Grouping process S206)
The grouping unit 176 groups target parts having a three-dimensional position difference within a predetermined range to obtain a target image. Specifically, the grouping unit 176 compares the target portions in the distance image 240 in which the difference in the horizontal distance x, the difference in the height y, and the difference in the relative distance z are within a predetermined range (for example, 0.1 m). Are grouped on the assumption that they correspond to the same specific object. Thus, a target image that is a virtual target region group is generated. The above range is represented by a distance in real space, and can be set to an arbitrary value by a manufacturer or a passenger. Further, the grouping unit 176 also sets the difference in the horizontal distance x, the difference in the height y, and the difference in the relative distance z within a predetermined range with respect to the target part newly added by the grouping. A certain target part is further grouped. As a result, all target parts that can be assumed to be the same specific object are grouped. Here, it is assumed that the target image 234 of the optical band 218a in which the optical band 218a of the reference image 212a and the optical band 220b of the comparative image 212b are mismatched as illustrated in FIG. 6C is generated.

また、ここでは、水平距離xの差分、高さyの差分および相対距離zの差分をそれぞれ独立して判定し、全てが所定範囲に含まれる場合のみ同一のグループとしているが、他の計算によることもできる。例えば、水平距離xの差分、高さyの差分および相対距離zの差分の二乗平均√((水平距離xの差分)+(高さyの差分)+(相対距離zの差分))が所定範囲に含まれる場合に同一のグループとしてもよい。かかる計算により、対象部位同士の実空間上の正確な距離を導出することができるので、グループ化精度を高めることができる。 Here, the horizontal distance x difference, the height y difference, and the relative distance z difference are determined independently, and only when all are included in a predetermined range, the same group is used. You can also. For example, the root mean square of the difference in horizontal distance x, the difference in height y, and the difference in relative distance z ((difference in horizontal distance x) 2 + (difference in height y) 2 + (difference in relative distance z) 2 ) Are included in the predetermined range, the same group may be used. With this calculation, an accurate distance between the target parts in the real space can be derived, so that the grouping accuracy can be improved.

(特殊像判定処理S208)
図9は、特殊像判定処理S208の流れを示すフローチャートである。特殊像判定部178は、対象像のうち、所定の条件を満たす対象像を特殊像と判定する。具体的に、道路面下判定処理(S208−1)の条件を満たすか、もしくは、道路面状態判定処理(S208−2)、光源有無判定処理(S208−3)、エッジ方向判定処理(S208−4)、光源位置判定処理(S208−5)、光源ミスマッチ判定処理(S208−6)、対象像ミスマッチ判定処理(S208−7)の全ての条件を満たせば、対象像を特殊像と判定する(S208−8)。そして、特殊像判定部178は、グループ化部176がグループ化した全ての対象像に対してステップS208−1〜ステップS208−7までの処理が完了しているか否か判定し(S208−9)、完了していなければ(S208−9におけるNO)、次の対象像を準備して(S208−10)、道路面下判定処理(S208−1)からの処理を繰り返す。また、完了していれば(S208−9におけるYES)、当該特殊像判定処理S208を終了する。
(Special image determination processing S208)
FIG. 9 is a flowchart showing the flow of the special image determination process S208. The special image determination unit 178 determines that a target image satisfying a predetermined condition among the target images is a special image. Specifically, the road surface determination process (S208-1) is satisfied, or the road surface state determination process (S208-2), the light source presence / absence determination process (S208-3), and the edge direction determination process (S208-). 4) If all the conditions of the light source position determination process (S208-5), the light source mismatch determination process (S208-6), and the target image mismatch determination process (S208-7) are satisfied, the target image is determined as a special image ( S208-8). Then, the special image determination unit 178 determines whether or not the processing from step S208-1 to step S208-7 has been completed for all target images grouped by the grouping unit 176 (S208-9). If not completed (NO in S208-9), the next target image is prepared (S208-10), and the processing from the road surface determination process (S208-1) is repeated. If completed (YES in S208-9), the special image determination process S208 is terminated.

ここでは、道路面下判定処理(S208−1)の条件の他、道路面状態判定処理(S208−2)、光源有無判定処理(S208−3)、エッジ方向判定処理(S208−4)、光源位置判定処理(S208−5)、光源ミスマッチ判定処理(S208−6)、対象像ミスマッチ判定処理(S208−7)の6つの条件を全て満たした場合に対象像を特殊像と判定する例を挙げて説明するが、これらから選択された1または複数の条件を満たした場合や、かかる条件に加え他の条件を満たした場合に対象像を特殊像と判定するとしてもよい。以下、道路面下判定処理(S208−1)、道路面状態判定処理(S208−2)、光源有無判定処理(S208−3)、エッジ方向判定処理(S208−4)、光源位置判定処理(S208−5)、光源ミスマッチ判定処理(S208−6)、対象像ミスマッチ判定処理(S208−7)の7つの条件をその順に説明する。   Here, in addition to the conditions of the road surface lower determination process (S208-1), the road surface state determination process (S208-2), the light source presence / absence determination process (S208-3), the edge direction determination process (S208-4), the light source An example in which the target image is determined to be a special image when all six conditions of the position determination process (S208-5), the light source mismatch determination process (S208-6), and the target image mismatch determination process (S208-7) are satisfied. However, the target image may be determined as a special image when one or more conditions selected from these are satisfied, or when other conditions are satisfied in addition to such conditions. Hereinafter, road surface down determination processing (S208-1), road surface state determination processing (S208-2), light source presence / absence determination processing (S208-3), edge direction determination processing (S208-4), and light source position determination processing (S208). -5), the seven conditions of the light source mismatch determination process (S208-6) and the target image mismatch determination process (S208-7) will be described in that order.

(道路面下判定処理S208−1)
特殊像判定部178は、まず、対象像の3次元位置を取得し、対象像が道路面より鉛直下方に位置するか否か判定する。その結果、道路面より鉛直下方に位置する場合、対象像を特殊像と判定し(S208−8)、道路面より鉛直上方に位置する場合、道路面状態判定処理S208−2に処理を移す。
(Road surface determination processing S208-1)
The special image determination unit 178 first acquires the three-dimensional position of the target image, and determines whether or not the target image is positioned vertically below the road surface. As a result, when it is located vertically below the road surface, the target image is determined as a special image (S208-8), and when it is located vertically above the road surface, the process proceeds to road surface state determination processing S208-2.

(道路面状態判定処理S208−2)
そして、特殊像判定部178は、車外環境が、道路面が光源を反射する環境であるか否か判定する。その結果、道路面が光源を反射する環境であれば、光源有無判定処理S208−3に処理を移し、道路面が光源を反射する環境でなければ、完了判定処理S208−9に処理を移す。かかる判定は、降雨センサによる降雨状態や、車外環境認識装置120による道路面のカラー値等、既存の様々な技術を用いることで可能となる。
(Road surface state determination processing S208-2)
Then, the special image determination unit 178 determines whether the environment outside the vehicle is an environment where the road surface reflects the light source. As a result, if the road surface reflects the light source, the process proceeds to the light source presence / absence determination process S208-3. If the road surface does not reflect the light source, the process proceeds to the completion determination process S208-9. Such a determination can be made by using various existing techniques such as a rainfall state by a rain sensor and a color value of the road surface by the outside environment recognition device 120.

(光源有無判定処理S208−3)
続いて、特殊像判定部178は、対象像自体に光源が含まれていないか否か判定する。その結果、対象像自体に光源が含まれていなければ、エッジ方向判定処理S208−4に処理を移し、対象像自体に光源が含まれていれば、完了判定処理S208−9に処理を移す。
(Light source presence / absence determination processing S208-3)
Subsequently, the special image determination unit 178 determines whether or not the target image itself includes a light source. As a result, if the target image itself does not include a light source, the process proceeds to edge direction determination processing S208-4. If the target image itself includes a light source, the process proceeds to completion determination processing S208-9.

(エッジ方向判定処理S208−4)
次に、特殊像判定部178は、対象像における、エッジの延伸方向に垂直なエッジ方向が水平方向とみなされる所定の方向範囲に含まれる割合が所定の閾値以上であるか否か判定する。その結果、所定の閾値以上であれば、光源位置判定処理S208−5に処理を移し、所定の閾値未満であれば、完了判定処理S208−9に処理を移す。以下に、かかる処理を詳述する。
(Edge direction determination processing S208-4)
Next, the special image determination unit 178 determines whether or not the ratio of the target image in which the edge direction perpendicular to the edge extension direction is included in a predetermined direction range that is regarded as the horizontal direction is equal to or greater than a predetermined threshold value. As a result, if it is equal to or greater than the predetermined threshold, the process proceeds to the light source position determination process S208-5. Hereinafter, this process will be described in detail.

図10は、エッジ方向判定処理S208−4を説明するための説明図である。特殊像判定部178は、まず、対象像234の全てのブロック(水平2画素×垂直2画素)のエッジ方向を導出する。ここで、エッジ方向は、エッジの延伸方向に垂直な方向を示す。   FIG. 10 is an explanatory diagram for explaining the edge direction determination processing S208-4. The special image determination unit 178 first derives the edge directions of all the blocks (2 horizontal pixels × 2 vertical pixels) of the target image 234. Here, the edge direction indicates a direction perpendicular to the extending direction of the edge.

図10(a)に示すように、対象像234の任意のブロック250を拡大すると、図10(b)のような輝度分布となっていたとする。また、輝度の範囲を0〜255とし、図10(b)中、仮に、白色の塗りつぶしを輝度「200」、黒色の塗りつぶしを輝度「0」とする。ここでは、仮に、ブロック250の図10(b)中、左上画素の輝度をA、右上画素の輝度をB、左下画素の輝度をC、右下画素の輝度をDとし、エッジ方向の水平方向成分を(B+D)−(A+C)、エッジ方向の垂直方向成分を(A+B)−(C+D)と定義する。   As shown in FIG. 10A, when an arbitrary block 250 of the target image 234 is enlarged, the luminance distribution as shown in FIG. 10B is obtained. Also, the luminance range is 0 to 255, and in FIG. 10B, it is assumed that the white fill is luminance “200” and the black fill is luminance “0”. Here, in FIG. 10B of the block 250, the luminance of the upper left pixel is A, the luminance of the upper right pixel is B, the luminance of the lower left pixel is C, the luminance of the lower right pixel is D, and the horizontal direction of the edge direction The component is defined as (B + D) − (A + C), and the vertical component in the edge direction is defined as (A + B) − (C + D).

すると、図10(b)に示すブロック250のエッジ方向の水平方向成分は、(B+D)−(A+C)=(0+0)−(200+200)=−400となり、エッジ方向の垂直方向成分は、(A+B)−(C+D)=(200+0)−(200+0)=0となる。したがって、水平方向成分「−400」、垂直方向成分「0」となり、エッジ方向は、図10(c)の如く水平方向左向き(負)の矢印で示される。ただし、図10(d)のように、水平成分は画面右方向を正、垂直成分は画面上方向を正としている。   Then, the horizontal component in the edge direction of the block 250 shown in FIG. 10B is (B + D) − (A + C) = (0 + 0) − (200 + 200) = − 400, and the vertical component in the edge direction is (A + B). )-(C + D) = (200 + 0)-(200 + 0) = 0. Therefore, the horizontal direction component is “−400” and the vertical direction component is “0”, and the edge direction is indicated by a horizontal leftward (negative) arrow as shown in FIG. However, as shown in FIG. 10D, the horizontal component is positive in the screen right direction, and the vertical component is positive in the screen upward direction.

このように、ブロック内の半分の領域から他の半分の領域を減算する構成により、ブロック内全体に含まれる輝度のオフセットやノイズを取り除くことができ、エッジを適切に抽出することが可能となる。また、加減算のみの単純計算でエッジ方向を導出できるので、計算負荷を軽減できる。   As described above, the configuration in which the other half area is subtracted from the half area in the block can remove the luminance offset and noise included in the entire block, and can appropriately extract the edge. . In addition, since the edge direction can be derived by simple calculation with only addition and subtraction, the calculation load can be reduced.

本実施形態では、このようにして導出されたエッジ方向を累積し、その割合を導出することを目的としている。しかし、上記水平方向成分や垂直方向成分を導出した値をそのまま用いて単純にエッジ方向としてしまうと、そのエッジ方向のバリエーションが無限に存在することとなる。そうすると、その無限のバリエーションに対して同一とみなしてよいエッジ方向の範囲を設定しなければならない。   The object of the present embodiment is to accumulate the edge directions derived in this way and derive the ratio. However, if the values derived from the horizontal direction component and the vertical direction component are used as they are and the edge direction is simply used, there are infinite variations in the edge direction. Then, the edge direction range that can be regarded as the same for the infinite variation must be set.

そこで、本実施形態では、水平方向成分および垂直方向成分のいずれも単位長さで定義し、エッジ方向のバリエーションを単純化する。即ち、水平方向成分および垂直方向成分のいずれも−1、0、+1のいずれかとみなすこととする。そうすると、エッジ方向は、図10(e)のようにそれぞれ45度ずつの角度をなす8つの方向に限定することができる。例えば、上述した図10(b)の例では、エッジ方向は図10(e)の「6」の方向となる。こうすることで、特殊像判定部178の計算負荷を大幅に軽減することが可能となる。ただし、エッジ方向の導出手段は、かかる場合に限らず、エッジの出現態様を判定できる既存の様々な導出手段を適用することができる。   Therefore, in this embodiment, both the horizontal direction component and the vertical direction component are defined by unit length, and the variation in the edge direction is simplified. That is, both the horizontal direction component and the vertical direction component are assumed to be either -1, 0, or +1. Then, the edge directions can be limited to eight directions each having an angle of 45 degrees as shown in FIG. For example, in the example of FIG. 10B described above, the edge direction is the direction “6” in FIG. By doing so, the calculation load of the special image determination unit 178 can be greatly reduced. However, the edge direction deriving unit is not limited to such a case, and various existing deriving units that can determine the appearance mode of the edge can be applied.

特殊像判定部178は、このようなエッジ方向を、対象像234の全てのブロックに対して導出し、そのエッジ方向の数を累計する。上述したように、対象像234は、光源214aを反射した帯で表され、その方向は垂直方向に近くなる。したがって、光帯218aの水平方向左端のエッジ近傍では、エッジ方向として図10(e)の「1」〜「3」の方向が導出され易く、また、光帯218aの水平方向右端のエッジ近傍では、エッジ方向として図10(e)の「5」〜「7」の方向が導出され易い。   The special image determination unit 178 derives such edge directions for all the blocks of the target image 234, and accumulates the number of the edge directions. As described above, the target image 234 is represented by a band reflected from the light source 214a, and its direction is close to the vertical direction. Accordingly, in the vicinity of the left edge of the optical band 218a in the horizontal direction, the directions “1” to “3” in FIG. 10E are easily derived as edge directions, and in the vicinity of the right edge of the optical band 218a in the horizontal direction. The directions “5” to “7” in FIG. 10E are easily derived as the edge directions.

そこで、特殊像判定部178は、対象像234におけるエッジ方向が所定の方向範囲に含まれる割合が所定の閾値以上であれば、例えば、図10(e)の「1」〜「3」および「5」〜「7」の方向(方向範囲は、時計回りを正として垂直上方から22.5°〜157.5°、−22.5°〜−157.5°)の合計が80%以上であるか否か判定する。   Therefore, if the ratio of the edge direction in the target image 234 included in the predetermined direction range is equal to or greater than the predetermined threshold, the special image determination unit 178, for example, “1” to “3” and “ 5 ”to“ 7 ”direction (direction range is 22.5 ° to 157.5 °, −22.5 ° to −157.5 ° from the vertical upper side with the clockwise direction being positive) is 80% or more. Judge whether there is.

(光源位置判定処理S208−5)
図11は、光源位置判定処理S208−5、光源ミスマッチ判定処理S208−6、対象像ミスマッチ判定処理S208−7を説明するための説明図である。図11(a)は、図6(c)に示した基準画像212aを、図11(b)〜図11(d)は、それぞれ図11(a)の円で囲んだ部分の拡大図を示す。
(Light source position determination processing S208-5)
FIG. 11 is an explanatory diagram for explaining the light source position determination processing S208-5, the light source mismatch determination processing S208-6, and the target image mismatch determination processing S208-7. 11A shows an enlarged view of the reference image 212a shown in FIG. 6C, and FIGS. 11B to 11D show enlarged views of portions surrounded by circles in FIG. 11A, respectively. .

続いて、特殊像判定部178は、基準画像212a内において、対象像234の垂直上方に光源を示す対象像があるか否か判定する。その結果、図11(b)に示すように、対象像234の垂直上方に光源214aを示す対象像があれば、光源ミスマッチ判定処理S208−6に処理を移し、対象像234の垂直上方に光源214aを示す対象像がなければ、完了判定処理S208−9に処理を移す。ここでは、対象像234が道路面に反射したものと仮定した場合に、その反射元となる光源214aが存在しているか否か判定している。また、特殊像判定部178は、対象像234の垂直上方に光源214aを示す対象像があれば、後述する対象像ミスマッチ判定処理S208−7のために対象像234と光源214aとの距離を保持する。   Subsequently, the special image determination unit 178 determines whether or not there is a target image indicating a light source vertically above the target image 234 in the reference image 212a. As a result, as shown in FIG. 11B, if there is a target image indicating the light source 214a vertically above the target image 234, the process proceeds to the light source mismatch determination processing S208-6, and the light source is positioned vertically above the target image 234. If there is no target image indicating 214a, the process proceeds to the completion determination process S208-9. Here, when it is assumed that the target image 234 is reflected on the road surface, it is determined whether or not the light source 214a that is the reflection source is present. Further, if there is a target image indicating the light source 214a vertically above the target image 234, the special image determination unit 178 holds the distance between the target image 234 and the light source 214a for the target image mismatch determination processing S208-7 described later. To do.

(光源ミスマッチ判定処理S208−6)
次に、特殊像判定部178は、当該対象像234の視差情報を取得し、視差情報から想定視差を減算して想定ミスマッチ距離を導出する。ここで、想定ミスマッチ距離を導出しているのは、図6を用いて説明したように、対象像234の視差情報には、ミスマッチング分の視差(想定ミスマッチ距離)のみならず、光帯218aの本来の視差である想定視差を含むからである。したがって、対象像234の視差情報から想定視差を減算した想定ミスマッチ距離を用いて、光源ミスマッチ判定処理S208−6、および、後述する対象像ミスマッチ判定処理S208−7を行う。また、想定視差としては、光帯218aの本来の視差であろう値を参照する。例えば、光帯218aの相対距離zは光源214aとほぼ等しい。そこで、ここでは、光源214aの視差を想定視差として用いることとする。
(Light source mismatch determination processing S208-6)
Next, the special image determination unit 178 acquires the parallax information of the target image 234 and derives an assumed mismatch distance by subtracting the assumed parallax from the parallax information. Here, as described with reference to FIG. 6, the assumed mismatch distance is derived from the disparity information of the target image 234 in the optical band 218a as well as the disparity for the mismatch (assumed mismatch distance). This is because the assumed parallax, which is the original parallax, is included. Therefore, light source mismatch determination processing S208-6 and target image mismatch determination processing S208-7 described later are performed using the assumed mismatch distance obtained by subtracting the assumed parallax from the parallax information of the target image 234. Further, as the assumed parallax, a value that is the original parallax of the optical band 218a is referred to. For example, the relative distance z of the light band 218a is substantially equal to the light source 214a. Therefore, here, the parallax of the light source 214a is used as the assumed parallax.

光源214aを用いる理由は以下の通りである。道路面が濡れている環境下では、光帯218aは、帯形状を成すものの、その幅は垂直位置に応じて変動し、全く帯を成してない(幅=0)部分も生じ得る。したがって、本来マッチングすべき光帯のそのような帯を成してない部分を飛び越して、類似する隣の光帯とマッチングするおそれがある。これに対し、光源214aは、輝度もエッジも安定しており、ミスマッチングが生じにくい。したがって、光源214aの視差を想定視差として利用することが可能となる。ただし、想定視差は、光帯218aの本来の視差の推定値であれば足り、光源214aの視差に限らず、確からしい様々な値を参照することができる。   The reason for using the light source 214a is as follows. In an environment where the road surface is wet, the light band 218a has a band shape, but its width varies depending on the vertical position, and there may be a portion that does not form a band at all (width = 0). Therefore, there is a risk of matching with a similar adjacent optical band by skipping a portion of the optical band that should originally be matched. In contrast, the light source 214a is stable in luminance and edge, and is unlikely to cause mismatching. Therefore, the parallax of the light source 214a can be used as the assumed parallax. However, it is sufficient for the assumed parallax to be an estimated value of the original parallax of the optical band 218a, and not only the parallax of the light source 214a but also various probable values can be referred to.

そして、特殊像判定部178は、基準画像212a内において、光源位置判定処理S208−5で特定した対象像234の垂直上方の光源214aを起点として、水平所定方向に対象像234の想定ミスマッチ距離分シフトした位置に、光源214aと相関のある他の光源216aが存在するか否か判定する。その結果、図11(c)に示すように、他の光源216aが存在すれば、対象像ミスマッチ判定処理S208−7に処理を移し、他の光源216aが存在しなければ、完了判定処理S208−9に処理を移す。   Then, the special image determination unit 178 starts from the light source 214a vertically above the target image 234 specified in the light source position determination processing S208-5 in the reference image 212a, and is equivalent to the assumed mismatch distance of the target image 234 in a predetermined horizontal direction. It is determined whether another light source 216a correlated with the light source 214a exists at the shifted position. As a result, as shown in FIG. 11C, if another light source 216a exists, the process proceeds to the target image mismatch determination process S208-7. If no other light source 216a exists, the completion determination process S208- The processing is moved to 9.

上述した誤ったパターンマッチング、すなわち、基準画像212aの光帯218aと比較画像212bの光帯220bとのミスマッチングは、反射元となる光源214aの水平所定方向に対象像234の想定ミスマッチ距離分シフトした位置に、発光態様の等しい光源216aが存在することから生じる。したがって、ここでは、光源214aを起点として、水平所定方向に対象像234の想定ミスマッチ距離分シフトした位置に光源216aが存在すれば、ミスマッチングが生じているおそれがあると判定できる。なお、水平所定方向は、例えば、基準画像212aが右側の撮像装置110で撮像されたカラー画像であれば、水平右方向であり、基準画像212aが左側の撮像装置110で撮像されたカラー画像であれば、水平左方向である。   The erroneous pattern matching described above, that is, the mismatch between the light band 218a of the reference image 212a and the light band 220b of the comparison image 212b is shifted by the assumed mismatch distance of the target image 234 in the predetermined horizontal direction of the light source 214a as the reflection source. This is because the light source 216a having the same light emission mode exists at the position. Therefore, here, if the light source 216a exists at a position shifted from the light source 214a by the assumed mismatch distance of the target image 234 in the predetermined horizontal direction, it can be determined that there is a possibility of mismatch. The predetermined horizontal direction is, for example, the horizontal right direction when the reference image 212a is a color image captured by the right imaging device 110, and the reference image 212a is a color image captured by the left imaging device 110. If there is, it is in the horizontal left direction.

(対象像ミスマッチ判定処理S208−7)
続いて、特殊像判定部178は、光源位置判定処理S208−5において保持した対象像234と光源214aとの距離を取得し、基準画像212a内において、光源ミスマッチ判定処理S208−6で特定した光源214aと相関のある他の光源216aから、垂直下方に対象像234と光源214aとの距離分シフトした位置に、対象像234と相関のある他の光帯220aが存在するか否か判定する。その結果、図11(d)に示すように、他の光帯220aが存在すれば、すなわち、道路面状態判定処理(S208−2)、光源有無判定処理(S208−3)、エッジ方向判定処理(S208−4)、光源位置判定処理(S208−5)、光源ミスマッチ判定処理(S208−6)、対象像ミスマッチ判定処理(S208−7)の全ての判定処理で条件を満たせば対象像234を特殊像と判定する(S208−8)。また、他の光帯220aが存在しなければ、完了判定処理S208−9に処理を移す。
(Target image mismatch determination processing S208-7)
Subsequently, the special image determination unit 178 acquires the distance between the target image 234 held in the light source position determination process S208-5 and the light source 214a, and the light source specified in the light source mismatch determination process S208-6 in the reference image 212a. It is determined whether or not another light band 220a correlated with the target image 234 exists at a position shifted vertically from the other light source 216a correlated with the target image 234 by the distance between the target image 234 and the light source 214a. As a result, as shown in FIG. 11D, if another light band 220a exists, that is, road surface state determination processing (S208-2), light source presence / absence determination processing (S208-3), edge direction determination processing. (S208-4), the light source position determination process (S208-5), the light source mismatch determination process (S208-6), and the target image mismatch determination process (S208-7) all satisfy the conditions, and the target image 234 is obtained. The special image is determined (S208-8). If there is no other optical band 220a, the process proceeds to the completion determination process S208-9.

上述した誤ったパターンマッチング、すなわち、基準画像212aの光帯218aと比較画像212bの光帯220bとのミスマッチングは、対象像234の水平所定方向に対象像234の想定ミスマッチ距離分シフトした位置に、カラー値や大きさの等しい光帯220aが存在することから生じる。したがって、ここでは、光源216aを起点として、垂直下方に対象像234と光源214aとの距離分シフトした位置(対象像234の水平所定方向に対象像234の想定ミスマッチ距離分シフトした位置)に光帯220aが存在すれば、ミスマッチングが生じているおそれがあると判定できる。   The erroneous pattern matching described above, that is, the mismatch between the optical band 218a of the reference image 212a and the optical band 220b of the comparative image 212b, is shifted to the position shifted by the assumed mismatch distance of the target image 234 in the predetermined horizontal direction of the target image 234. This results from the presence of the light band 220a having the same color value and size. Therefore, here, light is emitted from the light source 216a as a starting point to a position vertically shifted by a distance between the target image 234 and the light source 214a (a position shifted by an assumed mismatch distance of the target image 234 in a predetermined horizontal direction of the target image 234). If the band 220a exists, it can be determined that there is a possibility of mismatching.

かかる特殊像判定処理S208では、比較画像212bを用いることなく、基準画像212a中の光源や光帯の位置関係にのみ基づいてミスマッチングの有無を判定するので、処理負荷を大幅に軽減することができる。   In this special image determination processing S208, since the presence / absence of mismatching is determined based only on the positional relationship between the light source and the light band in the reference image 212a without using the comparison image 212b, the processing load can be greatly reduced. it can.

また、光源214aや対象像234に対する光源216aや光帯220aの探索位置が、対象像234の想定ミスマッチ距離分であると予め把握できるので、不要に広範囲を探索することがなく、処理負荷のさらなる軽減を図ることができる。   Further, since the search position of the light source 216a and the optical band 220a with respect to the light source 214a and the target image 234 can be grasped in advance as being the estimated mismatch distance of the target image 234, it is not necessary to search a wide range unnecessarily, and the processing load is further increased. Mitigation can be achieved.

さらに、ここでは、光源214aと光源216a、対象像234と光帯220aといったように、複数の像を総合的に判定しているので、その相関を高精度で求めることができ、特殊像の特定精度を高めることが可能となる。   Furthermore, since a plurality of images such as the light source 214a and the light source 216a and the target image 234 and the light band 220a are comprehensively determined here, the correlation can be obtained with high accuracy, and the special image can be specified. The accuracy can be increased.

(特定物特定処理S210)
特定物特定部180は、グループ化部176がグループ化した1または複数の対象像のうち、特殊像判定部178が特殊像であると判定した対象像を除外する。そして、特定物特定部180は、残った対象像の大きさ等、1または複数のパラメータに基づいて、例えば、車両、人、自転車等の特定物を特定する。かかる対象像から特定物を特定する技術としては、既存の様々な技術を適用可能なので、ここではその詳細な説明を省略する。
(Specific object identification process S210)
The specific object specifying unit 180 excludes the target image determined by the special image determining unit 178 as a special image from one or more target images grouped by the grouping unit 176. The specific object specifying unit 180 specifies a specific object such as a vehicle, a person, or a bicycle based on one or more parameters such as the size of the remaining target image. Since various existing techniques can be applied as a technique for identifying a specific object from the target image, detailed description thereof is omitted here.

ここでは、自車両1前方に存在しない特殊像を除外することで、特定物の特定精度を向上するとともに、特殊像が衝突回避制御やクルーズコントロールの制御対象となるのを回避でき、車両の走行安定性を向上することが可能となる。   Here, by excluding a special image that does not exist in front of the host vehicle 1, the accuracy of specifying a specific object can be improved, and the special image can be prevented from becoming a control target for collision avoidance control or cruise control. Stability can be improved.

以上、添付図面を参照しながら本発明の好適な実施形態について説明したが、本発明はかかる実施形態に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。   As mentioned above, although preferred embodiment of this invention was described referring an accompanying drawing, it cannot be overemphasized that this invention is not limited to this embodiment. It will be apparent to those skilled in the art that various changes and modifications can be made within the scope of the claims, and these are naturally within the technical scope of the present invention. Is done.

例えば、上述した実施形態においては、光源214aと光源216a、および、対象像234と光帯220aの両方の相関を総合的に判定したが、かかる場合に限らず、特殊像の特定精度は劣るものの、対象像234と光帯220aさえ相関を判定できれば、自車両1前方に存在しない特殊像を除外し、特定物の特定精度を向上することが可能となる。したがって、光源214a、216aを伴わなくとも特殊像を除外できることとなる。また、この場合、想定視差として光源214aの視差を利用できないが、特殊像と相対距離zを等しくする、特殊像以外の特定物、例えば、等間隔に配された格子構造等の視差を想定視差として用いることとなる。   For example, in the above-described embodiment, the correlation between the light source 214a and the light source 216a, and both the target image 234 and the light band 220a is comprehensively determined. As long as the correlation between the target image 234 and the light band 220a can be determined, it is possible to exclude a special image that does not exist in front of the host vehicle 1 and improve the accuracy of specifying a specific object. Therefore, the special image can be excluded without the light sources 214a and 216a. In this case, the parallax of the light source 214a cannot be used as the assumed parallax, but the parallax of the specific object other than the special image, for example, a lattice structure arranged at equal intervals, which makes the relative distance z equal to the special image is assumed. It will be used as.

なお、本明細書の車外環境認識処理の各工程は、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はなく、並列的あるいはサブルーチンによる処理を含んでもよい。   It should be noted that each step of the vehicle environment recognition processing in the present specification does not necessarily have to be processed in time series in the order described in the flowchart, and may include processing in parallel or by a subroutine.

本発明は、自車両の周囲に存在する対象像を特定する車外環境認識装置に利用することができる。   INDUSTRIAL APPLICABILITY The present invention can be used for an external vehicle environment recognition device that identifies a target image existing around the host vehicle.

1 自車両
100 環境認識システム
110 撮像装置
120 車外環境認識装置
170 画像取得部
172 画像処理部
174 3次元位置導出部
176 グループ化部
178 特殊像判定部
180 特定物特定部
212a 基準画像
212b 比較画像
214a、214b、216a、216b 光源
218a、218b、220a、220b 光帯
234 対象像
DESCRIPTION OF SYMBOLS 1 Self-vehicle 100 Environment recognition system 110 Imaging device 120 Outside-vehicle environment recognition device 170 Image acquisition part 172 Image processing part 174 Three-dimensional position derivation part 176 Grouping part 178 Special image determination part 180 Specific object identification part 212a Reference image 212b Comparison image 214a , 214b, 216a, 216b Light source 218a, 218b, 220a, 220b Optical band 234 Object image

Claims (6)

位置を異にする2つの撮像装置により撮像された基準画像と、比較画像とを取得する画像取得部と、
パターンマッチングにより、前記比較画像の所定の範囲から、前記基準画像における任意の基準ブロックと相関のある比較ブロックを抽出し、該基準ブロックの視差情報を生成する画像処理部と、
前記視差情報を用いて前記基準画像内における対象部位の3次元位置を導出する3次元位置導出部と、
前記3次元位置の差分が所定範囲内にある対象部位同士をグループ化して対象像とするグループ化部と、
前記基準画像内において、任意の対象像の垂直上方に光源を示す対象像があり、該任意の対象像および該光源を起点として、水平所定方向に、該任意の対象像の前記視差情報と想定視差との差分である想定ミスマッチ距離分シフトした位置に、該任意の対象像および該光源と相関のある対象像および光源が存在する場合、該任意の対象像を特殊像と判定する特殊像判定部と、
を備えることを特徴とする車外環境認識装置。
An image acquisition unit that acquires a reference image captured by two image capturing devices at different positions and a comparison image;
An image processing unit that extracts a comparison block correlated with an arbitrary reference block in the reference image from a predetermined range of the comparison image by pattern matching, and generates disparity information of the reference block;
A three-dimensional position deriving unit for deriving a three-dimensional position of a target part in the reference image using the parallax information;
A grouping unit for grouping target portions in which a difference in the three-dimensional position is within a predetermined range to be a target image;
In the reference image, there is a target image indicating a light source vertically above an arbitrary target image, and the parallax information of the arbitrary target image is assumed in a predetermined horizontal direction from the arbitrary target image and the light source. Special image determination in which, when there is a target image and a light source correlated with the arbitrary target image and the light source at a position shifted by an assumed mismatch distance that is a difference from the parallax, the arbitrary target image is determined as a special image And
A vehicle exterior environment recognition device comprising:
前記特殊像判定部は、さらに、前記対象像における、エッジの延伸方向に垂直なエッジ方向が水平方向とみなされる所定の方向範囲に含まれる割合が所定の閾値以上であれば、該対象像を特殊像と判定することを特徴とする請求項1に記載の車外環境認識装置。   The special image determination unit further determines the target image if the ratio of the edge direction perpendicular to the edge extension direction in the target image included in the predetermined direction range considered as the horizontal direction is equal to or greater than a predetermined threshold. The external environment recognition device according to claim 1, wherein the recognition device determines that the image is a special image. 前記特殊像判定部は、さらに、車外環境が、道路面が光源を反射する環境であれば、前記対象像を特殊像と判定することを特徴とする請求項1または2に記載の車外環境認識装置。   3. The vehicle exterior environment recognition according to claim 1, wherein the special image determination unit further determines that the target image is a special image if the vehicle exterior environment is an environment in which a road surface reflects a light source. apparatus. 前記特殊像判定部は、さらに、前記対象像自体に光源を含んでいなければ、前記対象像を特殊像と判定することを特徴とする請求項1から3のいずれか1項に記載の車外環境認識装置。   The outside of the vehicle according to any one of claims 1 to 3, wherein the special image determination unit further determines the target image as a special image if the target image itself does not include a light source. Environment recognition device. 位置を異にする2つの撮像装置により撮像された基準画像と、比較画像とを取得する画像取得部と、
パターンマッチングにより、前記比較画像の所定の範囲から、前記基準画像における任意の基準ブロックと相関のある比較ブロックを抽出し、視差情報を生成する画像処理部と、
前記視差情報を用いて前記基準画像内における対象部位の3次元位置を導出する3次元位置導出部と、
前記3次元位置の差分が所定範囲内にある対象部位同士をグループ化して対象像とするグループ化部と、
前記基準画像内において、任意の対象像を起点として、水平所定方向に、該任意の対象像の前記視差情報と想定視差との差分である想定ミスマッチ距離分シフトした位置に、該任意の対象像と相関のある対象像が存在する場合、該任意の対象像を特殊像と判定する特殊像判定部と、
を備えることを特徴とする車外環境認識装置。
An image acquisition unit that acquires a reference image captured by two image capturing devices at different positions and a comparison image;
An image processing unit that extracts a comparison block correlated with an arbitrary reference block in the reference image from a predetermined range of the comparison image by pattern matching, and generates disparity information;
A three-dimensional position deriving unit for deriving a three-dimensional position of a target part in the reference image using the parallax information;
A grouping unit for grouping target portions in which a difference in the three-dimensional position is within a predetermined range to be a target image;
In the reference image, starting from an arbitrary target image, the arbitrary target image is shifted to a position in the horizontal predetermined direction by an assumed mismatch distance that is a difference between the parallax information of the arbitrary target image and the assumed parallax. A special image determination unit that determines that the arbitrary target image is a special image,
A vehicle exterior environment recognition device comprising:
前記グループ化部がグループ化した1または複数の対象像のうち、前記特殊像判定部が前記特殊像であると判定した対象像を除外し、残った対象像から特定物を特定する特定物特定部をさらに備えることを特徴とする請求項1から5のいずれか1項に記載の車外環境認識装置。   Of the one or more target images grouped by the grouping unit, the target image determined by the special image determination unit to be the special image is excluded, and a specific object specification is specified from the remaining target images The outside environment recognition device according to claim 1, further comprising a unit.
JP2014131245A 2014-06-26 2014-06-26 Outside environment recognition device Active JP6329442B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014131245A JP6329442B2 (en) 2014-06-26 2014-06-26 Outside environment recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014131245A JP6329442B2 (en) 2014-06-26 2014-06-26 Outside environment recognition device

Publications (2)

Publication Number Publication Date
JP2016009429A JP2016009429A (en) 2016-01-18
JP6329442B2 true JP6329442B2 (en) 2018-05-23

Family

ID=55226921

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014131245A Active JP6329442B2 (en) 2014-06-26 2014-06-26 Outside environment recognition device

Country Status (1)

Country Link
JP (1) JP6329442B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019133324A (en) * 2018-01-30 2019-08-08 株式会社Soken Object detection device and parking assist device

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05282431A (en) * 1992-03-31 1993-10-29 Mazda Motor Corp Environment recognizing device for mobile vehicle
JP3348939B2 (en) * 1993-11-26 2002-11-20 富士重工業株式会社 Vehicle distance detection device
JP3287465B2 (en) * 1999-09-22 2002-06-04 富士重工業株式会社 Stereo image processing device
JP2001351200A (en) * 2000-06-09 2001-12-21 Nissan Motor Co Ltd Onboard object detecting device
JP5537491B2 (en) * 2011-05-12 2014-07-02 富士重工業株式会社 Environment recognition device
JP2014106704A (en) * 2012-11-27 2014-06-09 Clarion Co Ltd In-vehicle image processing device

Also Published As

Publication number Publication date
JP2016009429A (en) 2016-01-18

Similar Documents

Publication Publication Date Title
JP5906224B2 (en) Outside environment recognition device
US9224055B2 (en) Exterior environment recognition device
JP5886809B2 (en) Outside environment recognition device
US9269006B2 (en) Imaging apparatus, vehicle system, and image-processing method for image magnification and expansion
CN107092857B (en) Image processing apparatus
JP6156400B2 (en) Traveling road surface detection device and traveling road surface detection method
JP6034923B1 (en) Outside environment recognition device
JP6236039B2 (en) Outside environment recognition device
JP6420650B2 (en) Outside environment recognition device
JP5955291B2 (en) Filtering device and environment recognition system
JP5955292B2 (en) Filtering device
JP6591188B2 (en) Outside environment recognition device
JP7229032B2 (en) External object detection device
JP6174960B2 (en) Outside environment recognition device
JP7261006B2 (en) External environment recognition device
JP6329442B2 (en) Outside environment recognition device
JP6378547B2 (en) Outside environment recognition device
JP2019114150A (en) Extravehicular environment recognition device
JP6335065B2 (en) Outside environment recognition device
JP5890816B2 (en) Filtering device and environment recognition system
JP6523694B2 (en) Outside environment recognition device
JP6273156B2 (en) Pedestrian recognition device
JP6453571B2 (en) 3D object recognition device
JP6254870B2 (en) Outside environment recognition device
JP2014123301A (en) White line detection device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170307

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180327

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180420

R150 Certificate of patent or registration of utility model

Ref document number: 6329442

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250