JP6329442B2 - Outside environment recognition device - Google Patents
Outside environment recognition device Download PDFInfo
- Publication number
- JP6329442B2 JP6329442B2 JP2014131245A JP2014131245A JP6329442B2 JP 6329442 B2 JP6329442 B2 JP 6329442B2 JP 2014131245 A JP2014131245 A JP 2014131245A JP 2014131245 A JP2014131245 A JP 2014131245A JP 6329442 B2 JP6329442 B2 JP 6329442B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- target
- target image
- light source
- special
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000002596 correlated effect Effects 0.000 claims description 16
- 239000000284 extract Substances 0.000 claims description 7
- 238000000034 method Methods 0.000 description 69
- 230000003287 optical effect Effects 0.000 description 54
- 238000003384 imaging method Methods 0.000 description 25
- 230000000052 comparative effect Effects 0.000 description 12
- 238000010586 diagram Methods 0.000 description 11
- 238000009795 derivation Methods 0.000 description 5
- 238000001514 detection method Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 238000004441 surface measurement Methods 0.000 description 3
- 230000000875 corresponding effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 230000000116 mitigating effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Description
本発明は、自車両の周囲に存在する特定物を特定する車外環境認識装置に関する。 The present invention relates to a vehicle environment recognition apparatus that identifies a specific object existing around a host vehicle.
従来、自車両の前方に位置する車両等の特定物を特定し、先行車両との衝突を回避したり(衝突回避制御)、先行車両との車間距離を安全な距離に保つように制御する(クルーズコントロール)技術が知られている。このような自車両の前方監視技術により、先行車両や歩行者などの特定物との接触事故の回避や軽減にも効果が期待されている。 Conventionally, a specific object such as a vehicle positioned in front of the host vehicle is specified, and a collision with a preceding vehicle is avoided (collision avoidance control), or the distance between the preceding vehicle and the preceding vehicle is controlled to be kept at a safe distance ( (Cruise Control) technology is known. Such forward monitoring technology of the own vehicle is expected to be effective in avoiding and reducing contact accidents with specific objects such as preceding vehicles and pedestrians.
特定物の特定技術としては、例えば、ステレオ画像処理によって生成された距離画像を用い、3次元位置が互いに隣接する画像ブロック同士をグループ化し、グループ化した画像ブロック群の水平および垂直の最外端を囲った矩形状の領域を制御対象となり得る対象像(対象物の像)として特定する技術が公開されている(例えば、特許文献1)。 As a specific object specifying technique, for example, a distance image generated by stereo image processing is used, and image blocks whose three-dimensional positions are adjacent to each other are grouped, and the horizontal and vertical outermost ends of the grouped image blocks are grouped. A technique for specifying a rectangular region surrounding the image as a target image (image of a target object) that can be a control target is disclosed (for example, Patent Document 1).
自車両前方に位置する車両や人は、例えば、光軸を異にして車内に配された2つの撮像装置で撮像された2つの画像を用い、パターンマッチングによって3次元的な位置(3次元位置)が特定され、衝突回避制御やクルーズコントロールに用いられる。しかし、例えば、降雨の影響で道路面が濡れていると、道路上に配された信号機や街灯等の光源の光を反射し、画面垂直方向に延伸する帯を成す光帯が生じることがある。そうすると、このような、本来、自車両前方に立体物としては実在しない光帯が、上述した衝突回避制御やクルーズコントロールの制御対象となるおそれが生じる。 A vehicle or a person positioned in front of the host vehicle uses, for example, two images captured by two imaging devices arranged in the vehicle with different optical axes, and a three-dimensional position (three-dimensional position) by pattern matching. ) Is identified and used for collision avoidance control and cruise control. However, for example, when the road surface is wet due to the influence of rain, light from a light source such as a traffic light or a streetlight arranged on the road may be reflected to form a light band extending in the vertical direction of the screen. . Then, there is a possibility that such an optical band that does not actually exist in front of the host vehicle as a three-dimensional object becomes a control target of the above-described collision avoidance control or cruise control.
ただし、光帯は、道路面に反射している像であるため、その3次元位置を求めようとすると、道路面より鉛直下方に存在することとなる。そこで、道路面より鉛直下方に位置する対象像(ここでは光帯)を、特定物としては実在しない特殊像とし、衝突回避制御やクルーズコントロールの制御対象から除外することが考えられる。 However, since the light band is an image reflected on the road surface, when the three-dimensional position is obtained, the light band exists vertically below the road surface. Therefore, it is conceivable that the target image (here, the light band) positioned vertically below the road surface is a special image that does not actually exist as a specific object and is excluded from the control target for collision avoidance control and cruise control.
しかし、上記のような道路面が濡れている状況において、さらに、信号機等、発光態様の等しい複数の光源が存在する場合、道路面に反射する光帯も同様のカラー値や大きさで出現する場合がある。このとき、2つの撮像装置から取得した2つの画像について、同一の光帯同士がマッチングすれば問題ないが、異なる光帯同士がミスマッチングしてしまい、光帯が、本来の光帯の位置より自車両手前側に位置すると誤認識される場合がある。その場合、遠近法の関係から光帯が道路面より鉛直下方に位置しないと判断されることがあり、上記のように、特殊像として衝突回避制御やクルーズコントロールの制御対象から除外することができなくなる。 However, in the situation where the road surface is wet as described above, if there are a plurality of light sources having the same light emission mode, such as traffic lights, the light band reflected on the road surface also appears with the same color value and size. There is a case. At this time, there is no problem if the same optical bands are matched between the two images acquired from the two imaging devices, but the different optical bands are mismatched, so that the optical band is more than the position of the original optical band. It may be misrecognized as being located in front of the host vehicle. In that case, it may be determined that the light band is not located vertically below the road surface due to perspective, and as described above, it can be excluded from the target of collision avoidance control and cruise control as a special image. Disappear.
本発明は、このような課題に鑑み、道路面に反射した光帯を適切に特殊像として特定することで、特定物の特定精度を向上することが可能な車外環境認識装置を提供することを目的としている。 In view of such a problem, the present invention provides an external environment recognition device capable of improving the accuracy of specifying a specific object by appropriately specifying a light band reflected on a road surface as a special image. It is aimed.
上記課題を解決するために、本発明の車外環境認識装置は、位置を異にする2つの撮像装置により撮像された基準画像と、比較画像とを取得する画像取得部と、パターンマッチングにより、比較画像の所定の範囲から、基準画像における任意の基準ブロックと相関のある比較ブロックを抽出し、基準ブロックの視差情報を生成する画像処理部と、視差情報を用いて基準画像内における対象部位の3次元位置を導出する3次元位置導出部と、3次元位置の差分が所定範囲内にある対象部位同士をグループ化して対象像とするグループ化部と、基準画像内において、任意の対象像の垂直上方に光源を示す対象像があり、任意の対象像および光源を起点として、水平所定方向に、任意の対象像の視差情報と想定視差との差分である想定ミスマッチ距離分シフトした位置に、任意の対象像および光源と相関のある対象像および光源が存在する場合、任意の対象像を特殊像と判定する特殊像判定部と、を備えることを特徴とする。 In order to solve the above-described problem, the vehicle environment recognition apparatus according to the present invention compares a reference image captured by two imaging devices at different positions and an image acquisition unit that acquires a comparison image, and pattern matching. A comparison block correlated with an arbitrary reference block in the reference image is extracted from a predetermined range of the image, and an image processing unit that generates disparity information of the reference block; and 3 of the target part in the reference image using the disparity information A three-dimensional position deriving unit for deriving a three-dimensional position, a grouping unit for grouping target portions whose difference in three-dimensional position is within a predetermined range, and making a target image vertical in a reference image There is a target image showing a light source above, and an assumed mismatch distance that is a difference between the disparity information of the arbitrary target image and the assumed parallax in a predetermined horizontal direction starting from the arbitrary target image and the light source To the partial shift position, when the target image and a light source having a correlation with any subject image and the light source is present, characterized in that it comprises a special image determining section for determining a special image of any subject images, a.
特殊像判定部は、さらに、対象像における、エッジの延伸方向に垂直なエッジ方向が水平方向とみなされる所定の方向範囲に含まれる割合が所定の閾値以上であれば、対象像を特殊像と判定してもよい。 The special image determination unit further determines that the target image is a special image if the ratio of the edge direction perpendicular to the edge extension direction in the target image included in the predetermined direction range that is regarded as the horizontal direction is equal to or greater than a predetermined threshold. You may judge.
特殊像判定部は、さらに、車外環境が、道路面が光源を反射する環境であれば、対象像を特殊像と判定してもよい。 The special image determination unit may further determine that the target image is a special image if the environment outside the vehicle is an environment where the road surface reflects the light source.
特殊像判定部は、さらに、対象像自体に光源を含んでいなければ、対象像を特殊像と判定してもよい。 The special image determination unit may determine that the target image is a special image if the target image itself does not include a light source.
上記課題を解決するために、本発明の他の車外環境認識装置は、位置を異にする2つの撮像装置により撮像された基準画像と、比較画像とを取得する画像取得部と、パターンマッチングにより、比較画像の所定の範囲から、基準画像における任意の基準ブロックと相関のある比較ブロックを抽出し、視差情報を生成する画像処理部と、視差情報を用いて基準画像内における対象部位の3次元位置を導出する3次元位置導出部と、3次元位置の差分が所定範囲内にある対象部位同士をグループ化して対象像とするグループ化部と、基準画像内において、任意の対象像を起点として、水平所定方向に、任意の対象像の視差情報と想定視差との差分である想定ミスマッチ距離分シフトした位置に、任意の対象像と相関のある対象像が存在する場合、任意の対象像を特殊像と判定する特殊像判定部と、を備えることを特徴とする。 In order to solve the above-described problem, another external environment recognition device of the present invention includes a reference image captured by two imaging devices at different positions and an image acquisition unit that acquires a comparison image, and pattern matching. A comparison block correlated with an arbitrary reference block in the reference image is extracted from a predetermined range of the comparison image, and an image processing unit that generates disparity information, and a three-dimensional target region in the reference image using the disparity information A three-dimensional position deriving unit for deriving a position, a grouping unit for grouping target parts whose difference in three-dimensional position is within a predetermined range, and setting a target image as a starting point in a reference image When a target image correlated with an arbitrary target image exists at a position shifted by an assumed mismatch distance that is a difference between the parallax information of the arbitrary target image and the assumed parallax in a predetermined horizontal direction, And special image determining section for determining a target image at will a special image, characterized in that it comprises a.
グループ化部がグループ化した1または複数の対象像のうち、特殊像判定部が特殊像であると判定した対象像を除外し、残った対象像から特定物を特定する特定物特定部をさらに備えてもよい。 A specific object specifying unit that excludes the target image determined by the special image determination unit to be a special image from the one or more target images grouped by the grouping unit, and specifies a specific object from the remaining target images; You may prepare.
本発明によれば、道路面に反射した光帯を適切に特殊像として特定することで、特定物の特定精度を向上することが可能となる。 According to the present invention, it is possible to improve the accuracy of specifying a specific object by appropriately specifying the light band reflected on the road surface as a special image.
以下に添付図面を参照しながら、本発明の好適な実施形態について詳細に説明する。かかる実施形態に示す寸法、材料、その他具体的な数値などは、発明の理解を容易とするための例示にすぎず、特に断る場合を除き、本発明を限定するものではない。なお、本明細書および図面において、実質的に同一の機能、構成を有する要素については、同一の符号を付することにより重複説明を省略し、また本発明に直接関係のない要素は図示を省略する。 Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. The dimensions, materials, and other specific numerical values shown in the embodiment are merely examples for facilitating understanding of the invention, and do not limit the present invention unless otherwise specified. In the present specification and drawings, elements having substantially the same function and configuration are denoted by the same reference numerals, and redundant description is omitted, and elements not directly related to the present invention are not illustrated. To do.
(環境認識システム100)
図1は、環境認識システム100の接続関係を示したブロック図である。環境認識システム100は、自車両1内に設けられた、撮像装置110と、車外環境認識装置120と、車両制御装置(ECU:Engine Control Unit)130とを含んで構成される。
(Environment recognition system 100)
FIG. 1 is a block diagram showing a connection relationship of the
撮像装置110は、CCD(Charge-Coupled Device)やCMOS(Complementary Metal-Oxide Semiconductor)等の撮像素子を含んで構成され、自車両1の前方に相当する環境を撮像し、カラー値によるカラー画像、または、輝度(Y)による輝度画像(モノクロ画像)を生成することができる。ここで、カラー値は、1つの輝度(Y)と2つの色差(U、V)からなるYUV形式の色空間、3つの色相(R(赤)、G(緑)、B(青))からなるRGB形式の色空間、または、色相(H)、彩度(S)、明度(B)からなるHSB形式の色空間のいずれかで表される数値群である。本実施形態では、カラー画像を用いた例を説明するが、少なくとも輝度(Y)を有していれば足りるので、輝度画像を用いることもできる。
The
また、撮像装置110は、自車両1の進行方向側において2つの撮像装置110それぞれの光軸が略平行になるように、略水平方向に離隔して配置される。撮像装置110は、自車両1の前方の検出領域に存在する対象物を撮像したカラー画像を、例えば1/60秒のフレーム毎(60fps)に連続して生成する。ここで、認識する対象物や、対象物に対応付けて特定する特定物は、車両、歩行者、自転車、信号機、道路、ガードレール、建物といった立体的に独立して存在する物のみならず、テールランプやウィンカー、信号機の各点灯部分等、特定物の一部として特定できる物も含む。本実施形態の目的の一つは、カラー画像に含まれる対象像(対象物の像)を特定物として特定することにある。以下の実施形態における各機能部は、このようなカラー画像の取得(更新)を契機としてフレーム毎に各処理を遂行する。
In addition, the
車外環境認識装置120は、2つの撮像装置110それぞれからカラー画像を取得し、所謂パターンマッチングを用いて視差を導き出し、導出された視差情報(後述する相対距離に相当)をカラー画像に対応付けて距離画像を生成する。カラー画像および距離画像については後ほど詳述する。また、車外環境認識装置120は、カラー画像に基づくカラー値、および、距離画像に基づく自車両1との相対距離zを用いて、自車両1前方の検出領域における対象像を、制御対象となる特定物、もしくは、特定物としては実在しない特殊像として特定する。かかる特殊像については後程詳述する。
The vehicle exterior
また、車外環境認識装置120は、特定物を特定すると、その特定物(例えば、先行車両)を追跡しつつ、特定物の相対速度等を導出し、特定物と自車両1とが衝突する可能性が高いか否かの判定を行う。ここで、衝突の可能性が高いと判定した場合、車外環境認識装置120は、その旨、運転者の前方に設置されたディスプレイ122を通じて運転者に警告表示(報知)を行うとともに、車両制御装置130に対して、その旨を示す情報を出力する。
Further, when the outside
車両制御装置130は、ステアリングホイール132、アクセルペダル134、ブレーキペダル136を通じて運転者の操作入力を受け付け、操舵機構142、駆動機構144、制動機構146に伝達することで自車両1を制御する。また、車両制御装置130は、車外環境認識装置120の指示に従い、駆動機構144、制動機構146を制御する。
The
以下、車外環境認識装置120の構成について詳述する。ここでは、本実施形態に特徴的な、対象像を特殊像として特定する手順について詳細に説明し、本実施形態の特徴と無関係の構成については説明を省略する。
Hereinafter, the configuration of the outside
(車外環境認識装置120)
図2は、車外環境認識装置120の概略的な機能を示した機能ブロック図である。図2に示すように、車外環境認識装置120は、I/F部160と、データ保持部162と、中央制御部164とを含んで構成される。
(Vehicle environment recognition device 120)
FIG. 2 is a functional block diagram showing a schematic function of the outside
I/F部160は、撮像装置110や車両制御装置130との双方向の情報交換を行うためのインターフェースである。データ保持部162は、RAM、フラッシュメモリ、HDD等で構成され、以下に示す各機能部の処理に必要な様々な情報を保持し、また、撮像装置110から受信したカラー画像を一時的に保持する。
The I /
中央制御部164は、中央処理装置(CPU)、プログラム等が格納されたROM、ワークエリアとしてのRAM等を含む半導体集積回路で構成され、システムバス166を通じて、I/F部160、データ保持部162等を制御する。また、本実施形態において、中央制御部164は、画像取得部170、画像処理部172、3次元位置導出部174、グループ化部176、特殊像判定部178、特定物特定部180としても機能する。
The
(車外環境認識処理)
図3は、車外環境認識処理の流れを示すフローチャートである。車外環境認識処理では、画像取得部170が、撮像装置110から画像を取得し(S200)、画像処理部172が、取得した画像を処理し(S202)、3次元位置導出部174が、画像から3次元位置を導出し(S204)、グループ化部176が、3次元位置に基づいてグループ化された対象像を生成し(S206)、特殊像判定部178が、グループ化された対象像が特殊像であるか否か判定し(S208)、特定物特定部180が特定物を特定する(S210)。以下、個々の処理を詳述する。
(External vehicle environment recognition processing)
FIG. 3 is a flowchart showing the flow of the external environment recognition process. In the outside environment recognition processing, the
(画像取得処理S200)
画像取得部170は、2つの撮像装置110により撮像された2つのカラー画像を取得する。ここでは、2つのカラー画像のうち、後述するパターンマッチングの基準となる、自車両1前方に向かって右側に位置する撮像装置110から取得した一方のカラー画像を基準画像とし、このような基準画像と比較する、自車両1前方に向かって左側に位置する撮像装置110から取得した他方のカラー画像を比較画像とする。
(Image acquisition process S200)
The
(画像処理S202)
画像処理部172は、まず、基準画像から任意に抽出した基準ブロック(例えば水平4画素×垂直4画素の配列)を抽出する。そして、画像処理部172は、所謂パターンマッチングを用いて、比較画像の所定の範囲から、任意の基準ブロックと相関のある比較ブロックを抽出し、任意の基準ブロックと比較ブロックとの画像に対する位置関係から基準ブロックの視差情報(視差)を生成する。ここで、「水平」は画面横方向を示し、「垂直」は画面縦方向を示し、所定の範囲は、水平方向に視差が生じうる範囲、例えば、水平128画素×垂直4画素を示す。
(Image processing S202)
First, the
このパターンマッチングとしては、2つのカラー画像間において、任意の画像位置を示すブロック単位で輝度(Y色差信号)を比較することが考えられる。例えば、輝度の差分をとるSAD(Sum of Absolute Difference)、差分を2乗して用いるSSD(Sum of Squared intensity Difference)や、各画素の輝度から平均値を引いた分散値の類似度をとるNCC(Normalized Cross Correlation)等の手法がある。画像処理部172は、このようなブロック単位の視差導出処理を検出領域(例えば水平600画素×垂直180画素)に映し出されている全てのブロックについて行う。ここでは、ブロックを水平4画素×垂直4画素としているが、ブロック内の画素数は任意に設定することができる。以下、かかる視差情報を導出する単位となるブロックを視差ブロックと称する。
As this pattern matching, it is conceivable to compare the luminance (Y color difference signal) between two color images in units of blocks indicating arbitrary image positions. For example, SAD (Sum of Absolute Difference) that takes a luminance difference, SSD (Sum of Squared Intensity Difference) that uses the difference squared, or NCC that takes the similarity of a variance value obtained by subtracting an average value from the luminance of each pixel There are methods such as (Normalized Cross Correlation). The
図4は、パターンマッチングの一例を説明するための説明図である。ここでは、画像取得部170が、図4(a)に示す基準画像212aと、図4(b)に示す比較画像212bを取得したとする。かかる基準画像212aでは、降雨の影響で道路面が濡れており、道路上に配された任意の2つの信号機の光源(青信号)214a、216aの光を道路面で反射し、それぞれの光源214a、216aに対し、画面垂直方向に延伸する帯を成す光帯218a、220aが生じているとする。このような光帯218a、220aは、車外環境の輝度が低いとき(例えば夜間)に顕著に出現する。また、同様に、比較画像212bでは、同一の2つの信号機の光源214b、216bの光を道路面で反射し、それぞれの光源214b、216bに対し、画面垂直方向に帯を成す光帯218b、220bが生じているとする。
FIG. 4 is an explanatory diagram for explaining an example of pattern matching. Here, it is assumed that the
画像処理部172は、基準画像212aから、例えば、光帯218aの一部の視差ブロックである基準ブロックを抽出し、比較画像212bの所定の範囲から、その基準ブロックと相関のある視差ブロックである比較ブロックを探索する。そうすると、図4(b)中、矢印で示した視差(後述する想定視差)分離隔した位置に、同一の光帯218bの一部であり、基準画像212aの基準ブロックと垂直位置を等しくする比較ブロックが抽出される。また、同様にして、画像処理部172は、基準画像212aから、光帯220aの一部の基準ブロックを抽出し、比較画像212bの所定の範囲から、その基準ブロックと相関のある比較ブロックを探索する。そうすると、図4(b)中、矢印で示した視差分離隔した位置に、同一の光帯220bの一部であり、基準画像212aの基準ブロックと垂直位置を等しくする比較ブロックが抽出される。
The
こうして、画像処理部172は、相関のある基準画像212aの光帯218aと比較画像212bの光帯218bとの視差情報を生成し、後述するグループ化部176によって、図4(c)の基準画像212aに示す対象像230が特定される。また、同様に、画像処理部172は、相関のある基準画像212aの光帯220aと比較画像212bの光帯220bとの視差情報を生成し、後述するグループ化部176によって、図4(c)の基準画像212aに示す対象像232が特定される。
In this way, the
しかし、このような光帯の対象像230、232は、本来、特定物としては実在しない特殊像であり、このような特殊像を特定物として衝突回避制御やクルーズコントロールの制御対象としてしまうと、車両走行の安定性に影響を及ぼすおそれがある。そこで、後述する特殊像判定部178では、光帯218a、218b、220a、220bによる対象像230、232を特殊像とし、衝突回避制御やクルーズコントロールの制御対象から除外する。
However,
図5は、特殊像の判定を説明するための説明図である。図5では、光源214aや光帯218aの対象像230の自車両1に対する相対距離および高さの位置関係を表している。光帯218aの対象像230は、光源214aの光を道路面で反射したものなので、図5に太線で示すように、光源214aから延伸するように出現する。ただし、実際に存在する対象物(対象像)は、必ず道路面より鉛直上方に位置するのに対し、当該光帯218aの対象像230は、仮に実在するとしたら、道路面より鉛直下方に位置すると認識される。
FIG. 5 is an explanatory diagram for explaining the determination of the special image. FIG. 5 shows the positional relationship between the relative distance and height of the
そこで、後述する特殊像判定部178は、対象像230が道路面より鉛直下方に位置する場合、その対象像230を特殊像と判定し、衝突回避制御やクルーズコントロールの制御対象から除外する。
Therefore, when the
図6は、パターンマッチングの他の例を説明するための説明図である。上記のように、相関のある基準画像212aの光帯218aと比較画像212bの光帯218bとによって対象像230が特定され、相関のある基準画像212aの光帯220aと比較画像212bの光帯220bとによって対象像232が特定されれば、いずれの対象像230、232も道路面より鉛直下方に存在すると判定され、最終的に衝突回避制御やクルーズコントロールの制御対象から除外される。しかし、道路面が濡れている状況において、図6(a)に示すように、信号機等、発光態様の等しい複数の光源214a、216aが存在する場合、道路面に反射する光帯218a、218b、220a、220bも同様のカラー値や大きさで出現する場合がある。
FIG. 6 is an explanatory diagram for explaining another example of pattern matching. As described above, the
このとき、2つの撮像装置110から取得した基準画像212aおよび比較画像212bについて、図4を用いて説明したように、同一の光帯218a、218b同士や光帯220a、220b同士がマッチングすれば問題ないが、異なる光帯同士、例えば、基準画像212aの光帯218aと比較画像212bの光帯220bとがミスマッチングする場合がある。そうすると、図6(a)、図6(b)に示すように、本来の視差(基準画像212aの光帯218aと比較画像212bの光帯218bとの視差)である想定視差に、ミスマッチング分の想定ミスマッチ距離(比較画像212bの光帯218bと比較画像212bの光帯220bとの距離)が加わって視差情報が導出されてしまう。そして、図6(c)に示すように、光帯218aの対象像234が、本来の光帯218aの対象像230の位置より自車両1から見て手前側に位置すると誤認識される場合がある。
At this time, as described with reference to FIG. 4, with respect to the
図7は、特殊像の判定を説明するための説明図である。図7では、光源214aや光帯218aの対象像234の自車両1に対する相対距離および高さの位置関係を表している。光帯218aの対象像234は、本来、光源214aの光を道路面で反射したものなので、視差情報は想定視差となり、図7に太線の破線で示すように、光源214aから延伸するように出現するはずである。しかし、図6を用いて説明したように、基準画像212aの光帯218aと比較画像212bの光帯220bとがミスマッチングしてしまうと、視差情報が、想定視差より想定ミスマッチ距離分大きくなり、光帯218aの対象像234が、本来の光帯218aの対象像230の位置より自車両1から見て手前側に位置すると誤認識され、図7に太線の実線で示すように、遠近法の関係から、道路面より鉛直上方に位置すると認識される場合がある。その場合、対象像234(光帯)が道路面より鉛直下方に位置しないと判断されてしまい、上記のように、特殊像として衝突回避制御やクルーズコントロールの制御対象から除外することができなくなる。
FIG. 7 is an explanatory diagram for explaining the determination of the special image. FIG. 7 shows the positional relationship between the relative distance and the height of the
そこで、本実施形態では、画像処理部172は、ミスマッチングの有無に拘わらず、パターンマッチングによって一旦視差情報を導出し、後述する距離画像を生成する。そして、後述するグループ化部176によって一旦グループ化された対象像234を他の条件で判定することで、その対象像234を特殊像として特定し、衝突回避制御やクルーズコントロールの制御対象から除外する。こうして、ミスマッチングによる光帯218aの対象像234の特定物化を回避して、特定物の特定精度を向上することが可能となる。
Therefore, in the present embodiment, the
図8は、カラー画像212と距離画像240を説明するための説明図である。例えば、2つの撮像装置110を通じ、検出領域242について2つのカラー画像212が生成されたとする。ただし、ここでは、説明の便宜上、右側に位置する撮像装置110から取得されたカラー画像(基準画像212a)のみを示している。本実施形態において、画像処理部172は、このようなカラー画像212(基準画像212aと比較画像212b)からブロック毎の視差を求め、図8(b)のような距離画像240を形成する。距離画像240における各視差ブロックには、その視差ブロックの視差が関連付けられている。ここでは、説明の便宜上、視差が導出された視差ブロックを黒のドットで表している。
FIG. 8 is an explanatory diagram for explaining the color image 212 and the
(3次元位置導出処理S204)
図3に戻って説明すると、3次元位置導出部174は、画像処理部172で生成された距離画像240に基づいて検出領域242内の視差ブロック毎の視差情報を、所謂ステレオ法を用いて、水平距離x、高さyおよび相対距離zを含む実空間における3次元位置に変換する。ここで、ステレオ法は、三角測量法を用いることで、対象部位(画素または複数の画素からなるブロック)の距離画像240における視差からその対象部位の撮像装置110に対する相対距離zを導出する方法である。このとき、3次元位置導出部174は、対象部位の相対距離zを求め、対象部位と同相対距離zにある道路表面上の点と対象部位との距離画像240上の検出距離とに基づいて、対象部位の道路表面からの高さyを導出する。そして、導出された3次元位置を改めて距離画像240に対応付ける。かかる相対距離zの導出処理や3次元位置の特定処理は、様々な公知技術を適用できるので、ここでは、その説明を省略する。
(Three-dimensional position derivation process S204)
Returning to FIG. 3, the three-dimensional
(グループ化処理S206)
グループ化部176は、3次元位置の差分が所定範囲内にある対象部位同士をグループ化して対象像とする。具体的に、グループ化部176は、距離画像240における、水平距離xの差分、高さyの差分および相対距離zの差分が予め定められた範囲(例えば0.1m)内にある対象部位同士を、同一の特定物に対応すると仮定してグループ化する。こうして、仮想的な対象部位群である対象像が生成される。上記の範囲は実空間上の距離で表され、製造者や搭乗者によって任意の値に設定することができる。また、グループ化部176は、グループ化により新たに追加された対象部位に関しても、その対象部位を基点として、水平距離xの差分、高さyの差分および相対距離zの差分が所定範囲内にある対象部位をさらにグループ化する。結果的に、同一の特定物と仮定可能な対象部位全てがグループ化されることとなる。ここでは、図6(c)に示すような、基準画像212aの光帯218aと比較画像212bの光帯220bとがミスマッチングした光帯218aの対象像234が生成されたとする。
(Grouping process S206)
The
また、ここでは、水平距離xの差分、高さyの差分および相対距離zの差分をそれぞれ独立して判定し、全てが所定範囲に含まれる場合のみ同一のグループとしているが、他の計算によることもできる。例えば、水平距離xの差分、高さyの差分および相対距離zの差分の二乗平均√((水平距離xの差分)2+(高さyの差分)2+(相対距離zの差分)2)が所定範囲に含まれる場合に同一のグループとしてもよい。かかる計算により、対象部位同士の実空間上の正確な距離を導出することができるので、グループ化精度を高めることができる。 Here, the horizontal distance x difference, the height y difference, and the relative distance z difference are determined independently, and only when all are included in a predetermined range, the same group is used. You can also. For example, the root mean square of the difference in horizontal distance x, the difference in height y, and the difference in relative distance z ((difference in horizontal distance x) 2 + (difference in height y) 2 + (difference in relative distance z) 2 ) Are included in the predetermined range, the same group may be used. With this calculation, an accurate distance between the target parts in the real space can be derived, so that the grouping accuracy can be improved.
(特殊像判定処理S208)
図9は、特殊像判定処理S208の流れを示すフローチャートである。特殊像判定部178は、対象像のうち、所定の条件を満たす対象像を特殊像と判定する。具体的に、道路面下判定処理(S208−1)の条件を満たすか、もしくは、道路面状態判定処理(S208−2)、光源有無判定処理(S208−3)、エッジ方向判定処理(S208−4)、光源位置判定処理(S208−5)、光源ミスマッチ判定処理(S208−6)、対象像ミスマッチ判定処理(S208−7)の全ての条件を満たせば、対象像を特殊像と判定する(S208−8)。そして、特殊像判定部178は、グループ化部176がグループ化した全ての対象像に対してステップS208−1〜ステップS208−7までの処理が完了しているか否か判定し(S208−9)、完了していなければ(S208−9におけるNO)、次の対象像を準備して(S208−10)、道路面下判定処理(S208−1)からの処理を繰り返す。また、完了していれば(S208−9におけるYES)、当該特殊像判定処理S208を終了する。
(Special image determination processing S208)
FIG. 9 is a flowchart showing the flow of the special image determination process S208. The special
ここでは、道路面下判定処理(S208−1)の条件の他、道路面状態判定処理(S208−2)、光源有無判定処理(S208−3)、エッジ方向判定処理(S208−4)、光源位置判定処理(S208−5)、光源ミスマッチ判定処理(S208−6)、対象像ミスマッチ判定処理(S208−7)の6つの条件を全て満たした場合に対象像を特殊像と判定する例を挙げて説明するが、これらから選択された1または複数の条件を満たした場合や、かかる条件に加え他の条件を満たした場合に対象像を特殊像と判定するとしてもよい。以下、道路面下判定処理(S208−1)、道路面状態判定処理(S208−2)、光源有無判定処理(S208−3)、エッジ方向判定処理(S208−4)、光源位置判定処理(S208−5)、光源ミスマッチ判定処理(S208−6)、対象像ミスマッチ判定処理(S208−7)の7つの条件をその順に説明する。 Here, in addition to the conditions of the road surface lower determination process (S208-1), the road surface state determination process (S208-2), the light source presence / absence determination process (S208-3), the edge direction determination process (S208-4), the light source An example in which the target image is determined to be a special image when all six conditions of the position determination process (S208-5), the light source mismatch determination process (S208-6), and the target image mismatch determination process (S208-7) are satisfied. However, the target image may be determined as a special image when one or more conditions selected from these are satisfied, or when other conditions are satisfied in addition to such conditions. Hereinafter, road surface down determination processing (S208-1), road surface state determination processing (S208-2), light source presence / absence determination processing (S208-3), edge direction determination processing (S208-4), and light source position determination processing (S208). -5), the seven conditions of the light source mismatch determination process (S208-6) and the target image mismatch determination process (S208-7) will be described in that order.
(道路面下判定処理S208−1)
特殊像判定部178は、まず、対象像の3次元位置を取得し、対象像が道路面より鉛直下方に位置するか否か判定する。その結果、道路面より鉛直下方に位置する場合、対象像を特殊像と判定し(S208−8)、道路面より鉛直上方に位置する場合、道路面状態判定処理S208−2に処理を移す。
(Road surface determination processing S208-1)
The special
(道路面状態判定処理S208−2)
そして、特殊像判定部178は、車外環境が、道路面が光源を反射する環境であるか否か判定する。その結果、道路面が光源を反射する環境であれば、光源有無判定処理S208−3に処理を移し、道路面が光源を反射する環境でなければ、完了判定処理S208−9に処理を移す。かかる判定は、降雨センサによる降雨状態や、車外環境認識装置120による道路面のカラー値等、既存の様々な技術を用いることで可能となる。
(Road surface state determination processing S208-2)
Then, the special
(光源有無判定処理S208−3)
続いて、特殊像判定部178は、対象像自体に光源が含まれていないか否か判定する。その結果、対象像自体に光源が含まれていなければ、エッジ方向判定処理S208−4に処理を移し、対象像自体に光源が含まれていれば、完了判定処理S208−9に処理を移す。
(Light source presence / absence determination processing S208-3)
Subsequently, the special
(エッジ方向判定処理S208−4)
次に、特殊像判定部178は、対象像における、エッジの延伸方向に垂直なエッジ方向が水平方向とみなされる所定の方向範囲に含まれる割合が所定の閾値以上であるか否か判定する。その結果、所定の閾値以上であれば、光源位置判定処理S208−5に処理を移し、所定の閾値未満であれば、完了判定処理S208−9に処理を移す。以下に、かかる処理を詳述する。
(Edge direction determination processing S208-4)
Next, the special
図10は、エッジ方向判定処理S208−4を説明するための説明図である。特殊像判定部178は、まず、対象像234の全てのブロック(水平2画素×垂直2画素)のエッジ方向を導出する。ここで、エッジ方向は、エッジの延伸方向に垂直な方向を示す。
FIG. 10 is an explanatory diagram for explaining the edge direction determination processing S208-4. The special
図10(a)に示すように、対象像234の任意のブロック250を拡大すると、図10(b)のような輝度分布となっていたとする。また、輝度の範囲を0〜255とし、図10(b)中、仮に、白色の塗りつぶしを輝度「200」、黒色の塗りつぶしを輝度「0」とする。ここでは、仮に、ブロック250の図10(b)中、左上画素の輝度をA、右上画素の輝度をB、左下画素の輝度をC、右下画素の輝度をDとし、エッジ方向の水平方向成分を(B+D)−(A+C)、エッジ方向の垂直方向成分を(A+B)−(C+D)と定義する。
As shown in FIG. 10A, when an
すると、図10(b)に示すブロック250のエッジ方向の水平方向成分は、(B+D)−(A+C)=(0+0)−(200+200)=−400となり、エッジ方向の垂直方向成分は、(A+B)−(C+D)=(200+0)−(200+0)=0となる。したがって、水平方向成分「−400」、垂直方向成分「0」となり、エッジ方向は、図10(c)の如く水平方向左向き(負)の矢印で示される。ただし、図10(d)のように、水平成分は画面右方向を正、垂直成分は画面上方向を正としている。
Then, the horizontal component in the edge direction of the
このように、ブロック内の半分の領域から他の半分の領域を減算する構成により、ブロック内全体に含まれる輝度のオフセットやノイズを取り除くことができ、エッジを適切に抽出することが可能となる。また、加減算のみの単純計算でエッジ方向を導出できるので、計算負荷を軽減できる。 As described above, the configuration in which the other half area is subtracted from the half area in the block can remove the luminance offset and noise included in the entire block, and can appropriately extract the edge. . In addition, since the edge direction can be derived by simple calculation with only addition and subtraction, the calculation load can be reduced.
本実施形態では、このようにして導出されたエッジ方向を累積し、その割合を導出することを目的としている。しかし、上記水平方向成分や垂直方向成分を導出した値をそのまま用いて単純にエッジ方向としてしまうと、そのエッジ方向のバリエーションが無限に存在することとなる。そうすると、その無限のバリエーションに対して同一とみなしてよいエッジ方向の範囲を設定しなければならない。 The object of the present embodiment is to accumulate the edge directions derived in this way and derive the ratio. However, if the values derived from the horizontal direction component and the vertical direction component are used as they are and the edge direction is simply used, there are infinite variations in the edge direction. Then, the edge direction range that can be regarded as the same for the infinite variation must be set.
そこで、本実施形態では、水平方向成分および垂直方向成分のいずれも単位長さで定義し、エッジ方向のバリエーションを単純化する。即ち、水平方向成分および垂直方向成分のいずれも−1、0、+1のいずれかとみなすこととする。そうすると、エッジ方向は、図10(e)のようにそれぞれ45度ずつの角度をなす8つの方向に限定することができる。例えば、上述した図10(b)の例では、エッジ方向は図10(e)の「6」の方向となる。こうすることで、特殊像判定部178の計算負荷を大幅に軽減することが可能となる。ただし、エッジ方向の導出手段は、かかる場合に限らず、エッジの出現態様を判定できる既存の様々な導出手段を適用することができる。
Therefore, in this embodiment, both the horizontal direction component and the vertical direction component are defined by unit length, and the variation in the edge direction is simplified. That is, both the horizontal direction component and the vertical direction component are assumed to be either -1, 0, or +1. Then, the edge directions can be limited to eight directions each having an angle of 45 degrees as shown in FIG. For example, in the example of FIG. 10B described above, the edge direction is the direction “6” in FIG. By doing so, the calculation load of the special
特殊像判定部178は、このようなエッジ方向を、対象像234の全てのブロックに対して導出し、そのエッジ方向の数を累計する。上述したように、対象像234は、光源214aを反射した帯で表され、その方向は垂直方向に近くなる。したがって、光帯218aの水平方向左端のエッジ近傍では、エッジ方向として図10(e)の「1」〜「3」の方向が導出され易く、また、光帯218aの水平方向右端のエッジ近傍では、エッジ方向として図10(e)の「5」〜「7」の方向が導出され易い。
The special
そこで、特殊像判定部178は、対象像234におけるエッジ方向が所定の方向範囲に含まれる割合が所定の閾値以上であれば、例えば、図10(e)の「1」〜「3」および「5」〜「7」の方向(方向範囲は、時計回りを正として垂直上方から22.5°〜157.5°、−22.5°〜−157.5°)の合計が80%以上であるか否か判定する。
Therefore, if the ratio of the edge direction in the
(光源位置判定処理S208−5)
図11は、光源位置判定処理S208−5、光源ミスマッチ判定処理S208−6、対象像ミスマッチ判定処理S208−7を説明するための説明図である。図11(a)は、図6(c)に示した基準画像212aを、図11(b)〜図11(d)は、それぞれ図11(a)の円で囲んだ部分の拡大図を示す。
(Light source position determination processing S208-5)
FIG. 11 is an explanatory diagram for explaining the light source position determination processing S208-5, the light source mismatch determination processing S208-6, and the target image mismatch determination processing S208-7. 11A shows an enlarged view of the
続いて、特殊像判定部178は、基準画像212a内において、対象像234の垂直上方に光源を示す対象像があるか否か判定する。その結果、図11(b)に示すように、対象像234の垂直上方に光源214aを示す対象像があれば、光源ミスマッチ判定処理S208−6に処理を移し、対象像234の垂直上方に光源214aを示す対象像がなければ、完了判定処理S208−9に処理を移す。ここでは、対象像234が道路面に反射したものと仮定した場合に、その反射元となる光源214aが存在しているか否か判定している。また、特殊像判定部178は、対象像234の垂直上方に光源214aを示す対象像があれば、後述する対象像ミスマッチ判定処理S208−7のために対象像234と光源214aとの距離を保持する。
Subsequently, the special
(光源ミスマッチ判定処理S208−6)
次に、特殊像判定部178は、当該対象像234の視差情報を取得し、視差情報から想定視差を減算して想定ミスマッチ距離を導出する。ここで、想定ミスマッチ距離を導出しているのは、図6を用いて説明したように、対象像234の視差情報には、ミスマッチング分の視差(想定ミスマッチ距離)のみならず、光帯218aの本来の視差である想定視差を含むからである。したがって、対象像234の視差情報から想定視差を減算した想定ミスマッチ距離を用いて、光源ミスマッチ判定処理S208−6、および、後述する対象像ミスマッチ判定処理S208−7を行う。また、想定視差としては、光帯218aの本来の視差であろう値を参照する。例えば、光帯218aの相対距離zは光源214aとほぼ等しい。そこで、ここでは、光源214aの視差を想定視差として用いることとする。
(Light source mismatch determination processing S208-6)
Next, the special
光源214aを用いる理由は以下の通りである。道路面が濡れている環境下では、光帯218aは、帯形状を成すものの、その幅は垂直位置に応じて変動し、全く帯を成してない(幅=0)部分も生じ得る。したがって、本来マッチングすべき光帯のそのような帯を成してない部分を飛び越して、類似する隣の光帯とマッチングするおそれがある。これに対し、光源214aは、輝度もエッジも安定しており、ミスマッチングが生じにくい。したがって、光源214aの視差を想定視差として利用することが可能となる。ただし、想定視差は、光帯218aの本来の視差の推定値であれば足り、光源214aの視差に限らず、確からしい様々な値を参照することができる。
The reason for using the
そして、特殊像判定部178は、基準画像212a内において、光源位置判定処理S208−5で特定した対象像234の垂直上方の光源214aを起点として、水平所定方向に対象像234の想定ミスマッチ距離分シフトした位置に、光源214aと相関のある他の光源216aが存在するか否か判定する。その結果、図11(c)に示すように、他の光源216aが存在すれば、対象像ミスマッチ判定処理S208−7に処理を移し、他の光源216aが存在しなければ、完了判定処理S208−9に処理を移す。
Then, the special
上述した誤ったパターンマッチング、すなわち、基準画像212aの光帯218aと比較画像212bの光帯220bとのミスマッチングは、反射元となる光源214aの水平所定方向に対象像234の想定ミスマッチ距離分シフトした位置に、発光態様の等しい光源216aが存在することから生じる。したがって、ここでは、光源214aを起点として、水平所定方向に対象像234の想定ミスマッチ距離分シフトした位置に光源216aが存在すれば、ミスマッチングが生じているおそれがあると判定できる。なお、水平所定方向は、例えば、基準画像212aが右側の撮像装置110で撮像されたカラー画像であれば、水平右方向であり、基準画像212aが左側の撮像装置110で撮像されたカラー画像であれば、水平左方向である。
The erroneous pattern matching described above, that is, the mismatch between the
(対象像ミスマッチ判定処理S208−7)
続いて、特殊像判定部178は、光源位置判定処理S208−5において保持した対象像234と光源214aとの距離を取得し、基準画像212a内において、光源ミスマッチ判定処理S208−6で特定した光源214aと相関のある他の光源216aから、垂直下方に対象像234と光源214aとの距離分シフトした位置に、対象像234と相関のある他の光帯220aが存在するか否か判定する。その結果、図11(d)に示すように、他の光帯220aが存在すれば、すなわち、道路面状態判定処理(S208−2)、光源有無判定処理(S208−3)、エッジ方向判定処理(S208−4)、光源位置判定処理(S208−5)、光源ミスマッチ判定処理(S208−6)、対象像ミスマッチ判定処理(S208−7)の全ての判定処理で条件を満たせば対象像234を特殊像と判定する(S208−8)。また、他の光帯220aが存在しなければ、完了判定処理S208−9に処理を移す。
(Target image mismatch determination processing S208-7)
Subsequently, the special
上述した誤ったパターンマッチング、すなわち、基準画像212aの光帯218aと比較画像212bの光帯220bとのミスマッチングは、対象像234の水平所定方向に対象像234の想定ミスマッチ距離分シフトした位置に、カラー値や大きさの等しい光帯220aが存在することから生じる。したがって、ここでは、光源216aを起点として、垂直下方に対象像234と光源214aとの距離分シフトした位置(対象像234の水平所定方向に対象像234の想定ミスマッチ距離分シフトした位置)に光帯220aが存在すれば、ミスマッチングが生じているおそれがあると判定できる。
The erroneous pattern matching described above, that is, the mismatch between the
かかる特殊像判定処理S208では、比較画像212bを用いることなく、基準画像212a中の光源や光帯の位置関係にのみ基づいてミスマッチングの有無を判定するので、処理負荷を大幅に軽減することができる。
In this special image determination processing S208, since the presence / absence of mismatching is determined based only on the positional relationship between the light source and the light band in the
また、光源214aや対象像234に対する光源216aや光帯220aの探索位置が、対象像234の想定ミスマッチ距離分であると予め把握できるので、不要に広範囲を探索することがなく、処理負荷のさらなる軽減を図ることができる。
Further, since the search position of the
さらに、ここでは、光源214aと光源216a、対象像234と光帯220aといったように、複数の像を総合的に判定しているので、その相関を高精度で求めることができ、特殊像の特定精度を高めることが可能となる。
Furthermore, since a plurality of images such as the
(特定物特定処理S210)
特定物特定部180は、グループ化部176がグループ化した1または複数の対象像のうち、特殊像判定部178が特殊像であると判定した対象像を除外する。そして、特定物特定部180は、残った対象像の大きさ等、1または複数のパラメータに基づいて、例えば、車両、人、自転車等の特定物を特定する。かかる対象像から特定物を特定する技術としては、既存の様々な技術を適用可能なので、ここではその詳細な説明を省略する。
(Specific object identification process S210)
The specific
ここでは、自車両1前方に存在しない特殊像を除外することで、特定物の特定精度を向上するとともに、特殊像が衝突回避制御やクルーズコントロールの制御対象となるのを回避でき、車両の走行安定性を向上することが可能となる。 Here, by excluding a special image that does not exist in front of the host vehicle 1, the accuracy of specifying a specific object can be improved, and the special image can be prevented from becoming a control target for collision avoidance control or cruise control. Stability can be improved.
以上、添付図面を参照しながら本発明の好適な実施形態について説明したが、本発明はかかる実施形態に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。 As mentioned above, although preferred embodiment of this invention was described referring an accompanying drawing, it cannot be overemphasized that this invention is not limited to this embodiment. It will be apparent to those skilled in the art that various changes and modifications can be made within the scope of the claims, and these are naturally within the technical scope of the present invention. Is done.
例えば、上述した実施形態においては、光源214aと光源216a、および、対象像234と光帯220aの両方の相関を総合的に判定したが、かかる場合に限らず、特殊像の特定精度は劣るものの、対象像234と光帯220aさえ相関を判定できれば、自車両1前方に存在しない特殊像を除外し、特定物の特定精度を向上することが可能となる。したがって、光源214a、216aを伴わなくとも特殊像を除外できることとなる。また、この場合、想定視差として光源214aの視差を利用できないが、特殊像と相対距離zを等しくする、特殊像以外の特定物、例えば、等間隔に配された格子構造等の視差を想定視差として用いることとなる。
For example, in the above-described embodiment, the correlation between the
なお、本明細書の車外環境認識処理の各工程は、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はなく、並列的あるいはサブルーチンによる処理を含んでもよい。 It should be noted that each step of the vehicle environment recognition processing in the present specification does not necessarily have to be processed in time series in the order described in the flowchart, and may include processing in parallel or by a subroutine.
本発明は、自車両の周囲に存在する対象像を特定する車外環境認識装置に利用することができる。 INDUSTRIAL APPLICABILITY The present invention can be used for an external vehicle environment recognition device that identifies a target image existing around the host vehicle.
1 自車両
100 環境認識システム
110 撮像装置
120 車外環境認識装置
170 画像取得部
172 画像処理部
174 3次元位置導出部
176 グループ化部
178 特殊像判定部
180 特定物特定部
212a 基準画像
212b 比較画像
214a、214b、216a、216b 光源
218a、218b、220a、220b 光帯
234 対象像
DESCRIPTION OF SYMBOLS 1 Self-
Claims (6)
パターンマッチングにより、前記比較画像の所定の範囲から、前記基準画像における任意の基準ブロックと相関のある比較ブロックを抽出し、該基準ブロックの視差情報を生成する画像処理部と、
前記視差情報を用いて前記基準画像内における対象部位の3次元位置を導出する3次元位置導出部と、
前記3次元位置の差分が所定範囲内にある対象部位同士をグループ化して対象像とするグループ化部と、
前記基準画像内において、任意の対象像の垂直上方に光源を示す対象像があり、該任意の対象像および該光源を起点として、水平所定方向に、該任意の対象像の前記視差情報と想定視差との差分である想定ミスマッチ距離分シフトした位置に、該任意の対象像および該光源と相関のある対象像および光源が存在する場合、該任意の対象像を特殊像と判定する特殊像判定部と、
を備えることを特徴とする車外環境認識装置。 An image acquisition unit that acquires a reference image captured by two image capturing devices at different positions and a comparison image;
An image processing unit that extracts a comparison block correlated with an arbitrary reference block in the reference image from a predetermined range of the comparison image by pattern matching, and generates disparity information of the reference block;
A three-dimensional position deriving unit for deriving a three-dimensional position of a target part in the reference image using the parallax information;
A grouping unit for grouping target portions in which a difference in the three-dimensional position is within a predetermined range to be a target image;
In the reference image, there is a target image indicating a light source vertically above an arbitrary target image, and the parallax information of the arbitrary target image is assumed in a predetermined horizontal direction from the arbitrary target image and the light source. Special image determination in which, when there is a target image and a light source correlated with the arbitrary target image and the light source at a position shifted by an assumed mismatch distance that is a difference from the parallax, the arbitrary target image is determined as a special image And
A vehicle exterior environment recognition device comprising:
パターンマッチングにより、前記比較画像の所定の範囲から、前記基準画像における任意の基準ブロックと相関のある比較ブロックを抽出し、視差情報を生成する画像処理部と、
前記視差情報を用いて前記基準画像内における対象部位の3次元位置を導出する3次元位置導出部と、
前記3次元位置の差分が所定範囲内にある対象部位同士をグループ化して対象像とするグループ化部と、
前記基準画像内において、任意の対象像を起点として、水平所定方向に、該任意の対象像の前記視差情報と想定視差との差分である想定ミスマッチ距離分シフトした位置に、該任意の対象像と相関のある対象像が存在する場合、該任意の対象像を特殊像と判定する特殊像判定部と、
を備えることを特徴とする車外環境認識装置。 An image acquisition unit that acquires a reference image captured by two image capturing devices at different positions and a comparison image;
An image processing unit that extracts a comparison block correlated with an arbitrary reference block in the reference image from a predetermined range of the comparison image by pattern matching, and generates disparity information;
A three-dimensional position deriving unit for deriving a three-dimensional position of a target part in the reference image using the parallax information;
A grouping unit for grouping target portions in which a difference in the three-dimensional position is within a predetermined range to be a target image;
In the reference image, starting from an arbitrary target image, the arbitrary target image is shifted to a position in the horizontal predetermined direction by an assumed mismatch distance that is a difference between the parallax information of the arbitrary target image and the assumed parallax. A special image determination unit that determines that the arbitrary target image is a special image,
A vehicle exterior environment recognition device comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014131245A JP6329442B2 (en) | 2014-06-26 | 2014-06-26 | Outside environment recognition device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014131245A JP6329442B2 (en) | 2014-06-26 | 2014-06-26 | Outside environment recognition device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016009429A JP2016009429A (en) | 2016-01-18 |
JP6329442B2 true JP6329442B2 (en) | 2018-05-23 |
Family
ID=55226921
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014131245A Active JP6329442B2 (en) | 2014-06-26 | 2014-06-26 | Outside environment recognition device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6329442B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019133324A (en) * | 2018-01-30 | 2019-08-08 | 株式会社Soken | Object detection device and parking assist device |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05282431A (en) * | 1992-03-31 | 1993-10-29 | Mazda Motor Corp | Environment recognizing device for mobile vehicle |
JP3348939B2 (en) * | 1993-11-26 | 2002-11-20 | 富士重工業株式会社 | Vehicle distance detection device |
JP3287465B2 (en) * | 1999-09-22 | 2002-06-04 | 富士重工業株式会社 | Stereo image processing device |
JP2001351200A (en) * | 2000-06-09 | 2001-12-21 | Nissan Motor Co Ltd | Onboard object detecting device |
JP5537491B2 (en) * | 2011-05-12 | 2014-07-02 | 富士重工業株式会社 | Environment recognition device |
JP2014106704A (en) * | 2012-11-27 | 2014-06-09 | Clarion Co Ltd | In-vehicle image processing device |
-
2014
- 2014-06-26 JP JP2014131245A patent/JP6329442B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2016009429A (en) | 2016-01-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5906224B2 (en) | Outside environment recognition device | |
US9224055B2 (en) | Exterior environment recognition device | |
JP5886809B2 (en) | Outside environment recognition device | |
US9269006B2 (en) | Imaging apparatus, vehicle system, and image-processing method for image magnification and expansion | |
CN107092857B (en) | Image processing apparatus | |
JP6156400B2 (en) | Traveling road surface detection device and traveling road surface detection method | |
JP6034923B1 (en) | Outside environment recognition device | |
JP6236039B2 (en) | Outside environment recognition device | |
JP6420650B2 (en) | Outside environment recognition device | |
JP5955291B2 (en) | Filtering device and environment recognition system | |
JP5955292B2 (en) | Filtering device | |
JP6591188B2 (en) | Outside environment recognition device | |
JP7229032B2 (en) | External object detection device | |
JP6174960B2 (en) | Outside environment recognition device | |
JP7261006B2 (en) | External environment recognition device | |
JP6329442B2 (en) | Outside environment recognition device | |
JP6378547B2 (en) | Outside environment recognition device | |
JP2019114150A (en) | Extravehicular environment recognition device | |
JP6335065B2 (en) | Outside environment recognition device | |
JP5890816B2 (en) | Filtering device and environment recognition system | |
JP6523694B2 (en) | Outside environment recognition device | |
JP6273156B2 (en) | Pedestrian recognition device | |
JP6453571B2 (en) | 3D object recognition device | |
JP6254870B2 (en) | Outside environment recognition device | |
JP2014123301A (en) | White line detection device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170307 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180213 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180327 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180420 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6329442 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |