JP2022037358A - Surrounding environment recognition apparatus - Google Patents
Surrounding environment recognition apparatus Download PDFInfo
- Publication number
- JP2022037358A JP2022037358A JP2020141452A JP2020141452A JP2022037358A JP 2022037358 A JP2022037358 A JP 2022037358A JP 2020141452 A JP2020141452 A JP 2020141452A JP 2020141452 A JP2020141452 A JP 2020141452A JP 2022037358 A JP2022037358 A JP 2022037358A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- dimensional object
- pair
- back surface
- predicted
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、自車両の進行方向に存在する立体物を特定する車外環境認識装置に関する。 The present invention relates to an external environment recognition device that identifies a three-dimensional object existing in the traveling direction of the own vehicle.
特許文献1には、自車両の前方に位置する先行車両を検出し、先行車両との衝突被害を軽減する技術や、先行車両との車間距離を安全な距離に保つように追従制御する技術が開示されている。
自車両と先行車両との衝突被害を軽減するため、また、先行車両への追従制御を実現するため、自車両は、まず、進行方向に存在する立体物を特定し、その立体物が先行車両等の特定物であるか否か判定する。自車両は、立体物を適切に特定するために、例えば、三次元位置が互いに隣接する距離画像のブロック同士を、立体物の背面や、立体物の側面としてそれぞれグルーピングする。そして、自車両は、グルーピングされた背面と側面とをペアリングし、同一の立体物を表すペアとして特定する。 In order to reduce the damage caused by the collision between the own vehicle and the preceding vehicle and to realize the follow-up control to the preceding vehicle, the own vehicle first identifies a three-dimensional object existing in the traveling direction, and the three-dimensional object is the preceding vehicle. It is determined whether or not it is a specific object such as. In order to appropriately identify a three-dimensional object, the own vehicle groups, for example, blocks of distance images whose three-dimensional positions are adjacent to each other as the back surface of the three-dimensional object and the side surface of the three-dimensional object. Then, the own vehicle pairs the grouped back surface and the side surface, and identifies them as a pair representing the same three-dimensional object.
しかし、距離画像における相対距離のミスマッチングによってノイズが生じると、自車両は、立体物の背面や側面を適切にグルーピングできず、その結果、立体物として安定的に特定することが困難となる。 However, if noise is generated due to the mismatch of the relative distance in the distance image, the own vehicle cannot properly group the back surface and the side surface of the three-dimensional object, and as a result, it becomes difficult to stably identify the three-dimensional object.
本発明は、このような課題に鑑み、立体物の背面や側面を適切にグルーピングすることで、立体物の特定精度を向上することが可能な車外環境認識装置を提供することを目的としている。 In view of such problems, it is an object of the present invention to provide an external environment recognition device capable of improving the accuracy of specifying a three-dimensional object by appropriately grouping the back surface and the side surface of the three-dimensional object.
上記課題を解決するために、本発明の車外環境認識装置は、撮像された画像におけるブロック単位の三次元位置を導出する位置導出部と、三次元位置の差分が所定範囲内にあるブロック同士をグルーピングして立体物候補を特定するグルーピング部と、立体物候補を水平面に投影し、奥行き方向に対する角度に基づいて背面と側面とに区別し、背面と側面とをペアリングしてペアを特定するペアリング部と、ペアの未来の位置を予測するペア予測部と、を備え、グルーピング部は、ペア予測部に過去に予測されたペアの未来の位置に基づいて立体物候補を特定する。 In order to solve the above problems, the vehicle exterior environment recognition device of the present invention has a position deriving unit that derives a three-dimensional position in block units in an captured image, and blocks having a difference in three-dimensional positions within a predetermined range. The grouping part that identifies the three-dimensional object candidate by grouping, the three-dimensional object candidate is projected on the horizontal plane, the back surface and the side surface are distinguished based on the angle with respect to the depth direction, and the back surface and the side surface are paired to specify the pair. A pairing unit and a pair prediction unit that predicts the future position of the pair are provided, and the grouping unit identifies a three-dimensional object candidate based on the future position of the pair predicted in the past by the pair prediction unit.
グルーピング部は、ペア予測部に過去に予測されたペアの背面の未来の位置を示す予測背面線とブロックとの距離に基づいて背面に相当する立体物候補を特定し、ペア予測部に過去に予測されたペアの側面の未来の位置を示す予測側面線とブロックとの距離に基づいて側面に相当する立体物候補を特定してもよい。 The grouping unit identifies the three-dimensional object candidate corresponding to the back surface based on the distance between the block and the predicted back line indicating the future position of the back surface of the pair predicted in the past in the pair prediction unit, and the pair prediction unit in the past. Candidates for three-dimensional objects corresponding to the sides may be identified based on the distance between the block and the predicted side line indicating the future position of the side of the predicted pair.
本発明によれば、立体物の背面と側面とを適切にペアリングすることで、立体物の特定精度を向上することが可能となる。 According to the present invention, it is possible to improve the accuracy of specifying a three-dimensional object by appropriately pairing the back surface and the side surface of the three-dimensional object.
以下に添付図面を参照しながら、本発明の好適な実施形態について詳細に説明する。かかる実施形態に示す寸法、材料、その他具体的な数値などは、発明の理解を容易とするための例示にすぎず、特に断る場合を除き、本発明を限定するものではない。なお、本明細書および図面において、実質的に同一の機能、構成を有する要素については、同一の符号を付することにより重複説明を省略し、また本発明に直接関係のない要素は図示を省略する。 Preferred embodiments of the present invention will be described in detail below with reference to the accompanying drawings. The dimensions, materials, and other specific numerical values shown in the embodiment are merely examples for facilitating the understanding of the invention, and do not limit the present invention unless otherwise specified. In the present specification and the drawings, elements having substantially the same function and configuration are designated by the same reference numerals to omit duplicate description, and elements not directly related to the present invention are not shown. do.
(車外環境認識システム100)
図1は、車外環境認識システム100の接続関係を示したブロック図である。車外環境認識システム100は、自車両1に設けられ、撮像装置110と、車外環境認識装置120と、車両制御装置130とを含む。
(External environment recognition system 100)
FIG. 1 is a block diagram showing a connection relationship of the vehicle exterior
撮像装置110は、CCD(Charge-Coupled Device)やCMOS(Complementary Metal-Oxide Semiconductor)等の撮像素子で構成される。撮像装置110は、自車両1の進行方向側において2つの撮像装置110それぞれの光軸が略平行になるように、略水平方向に離隔して配置される。撮像装置110は、自車両1の前方の車外環境を撮像し、少なくとも輝度の情報が含まれる輝度画像(カラー画像やモノクロ画像)を生成する。撮像装置110は、自車両1の前方の検出領域に存在する立体物を撮像した輝度画像を、例えば1/60秒のフレーム毎(60fps)に連続して生成する。ここで、車外環境認識装置120が認識する立体物は、自転車、歩行者、車両、信号機、道路標識、ガードレール、建物といった独立して存在する物のみならず、車両の背面や側面、自転車の車輪等、その一部として特定できる物も含む。ここで、車両の背面は、自車両1の前方において自車両1に対向する面を示し、車両自体の後方面を示すものではない。
The
車外環境認識装置120は、2つの撮像装置110それぞれから輝度画像を取得し、所謂パターンマッチングを用いて距離画像を生成する。車外環境認識装置120は、輝度画像と距離画像に基づき、路面より上方に位置し、カラー値が等しく、三次元の位置情報が互いに隣接するブロック同士を立体物としてグルーピングする。そして、車外環境認識装置120は、立体物がいずれの特定物であるかを特定する。例えば、車外環境認識装置120は、立体物が先行車両であると特定する。また、車外環境認識装置120は、このように先行車両を特定すると、自車両1と先行車両との衝突被害の軽減制御を行い、また、自車両1を先行車両に追従させる追従制御を行う。車外環境認識装置120の具体的な動作については後程詳述する。
The vehicle exterior
車両制御装置130は、ECU(Electronic Control Unit)等で構成され、ステアリングホイール132、アクセルペダル134、ブレーキペダル136を通じて運転手の操作入力を受け付け、操舵機構142、駆動機構144、制動機構146に伝達することで自車両1を制御する。また、車両制御装置130は、車外環境認識装置120の指示に従い、操舵機構142、駆動機構144、制動機構146を制御する。
The
(車外環境認識装置120)
図2は、車外環境認識装置120の概略的な機能を示した機能ブロック図である。図2に示すように、車外環境認識装置120は、I/F部150と、データ保持部152と、中央制御部154とを含む。
(External environment recognition device 120)
FIG. 2 is a functional block diagram showing a schematic function of the vehicle exterior
I/F部150は、撮像装置110、および、車両制御装置130との双方向の情報交換を行うためのインターフェースである。データ保持部152は、RAM、フラッシュメモリ、HDD等で構成され、以下に示す各機能部の処理に必要な様々な情報を保持する。
The I / F unit 150 is an interface for bidirectional information exchange with the
中央制御部154は、中央処理装置(CPU)、プログラム等が格納されたROM、ワークエリアとしてのRAM等を含む半導体集積回路で構成され、システムバス156を通じて、I/F部150、データ保持部152等を制御する。また、本実施形態において、中央制御部154は、位置導出部170、グルーピング部172、ペアリング部174、ペア予測部176、立体物特定部178としても機能する。以下、車外環境認識方法について、当該中央制御部154の各機能部の動作も踏まえて詳述する。
The
(車外環境認識方法)
図3は、車外環境認識方法の流れを示すフローチャートである。車外環境認識装置120は、所定の割込時間毎に車外環境認識方法を実行する。車外環境認識方法において、位置導出部170は、撮像装置110から取得した輝度画像におけるブロック単位の三次元位置を導出する(位置導出処理S200)。グルーピング部172は、ブロック同士をグルーピングして立体物候補を特定する(グルーピング処理S202)。ペアリング部174は、立体物候補を水平面に投影し、奥行き方向に対する角度に基づいて背面と側面とに区別し、背面と側面とをペアリングしてペアを特定する(ペアリング処理S204)。ペア予測部176は、ペアの未来の位置を予測する(ペア予測処理S206)。立体物特定部178は、ペアを構成する立体物やその他の立体物がいずれの特定物に対応するか特定する(立体物特定処理S208)。
(Method of recognizing the environment outside the vehicle)
FIG. 3 is a flowchart showing the flow of the vehicle exterior environment recognition method. The vehicle exterior
(位置導出処理S200)
図4(図4A~図4C)は、輝度画像および距離画像を説明するための説明図である。位置導出部170は、撮像装置110で光軸を異として同タイミングで撮像された複数(ここでは2)の輝度画像をそれぞれ取得する。ここで、位置導出部170は、輝度画像212として、図4Aに示す、自車両1の比較的右側に位置する撮像装置110で撮像された第1輝度画像212aと、図4Bに示す、自車両1の比較的左側に位置する撮像装置110で撮像された第2輝度画像212bとを取得したとする。
(Position derivation process S200)
4 (FIGS. 4A to 4C) are explanatory views for explaining a luminance image and a distance image. The
図4Aおよび図4Bを参照すると、撮像装置110の撮像位置の違いから、第1輝度画像212aと第2輝度画像212bとで、画像に含まれる立体物の画像位置が水平方向に異なるのが理解できる。ここで、水平は、撮像した画像の画面横方向を示し、垂直は、撮像した画像の画面縦方向を示す。
With reference to FIGS. 4A and 4B, it is understood that the image positions of the three-dimensional objects included in the images differ in the horizontal direction between the
位置導出部170は、位置導出部170が取得した、図4Aに示す第1輝度画像212aと、図4Bに示す第2輝度画像212bとに基づいて、図4Cのような、撮像対象の距離を特定可能な距離画像214を生成する。
The
具体的に、位置導出部170は、所謂パターンマッチングを用いて、視差、および、任意のブロックの画像内の位置を示す画像位置を含む視差情報を導出する。そして、位置導出部170は、一方の輝度画像(ここでは第1輝度画像212a)から任意に抽出したブロックに対応するブロックを他方の輝度画像(ここでは第2輝度画像212b)から検索する。ここで、ブロックは、例えば、水平4画素×垂直4画素の配列で表される。また、パターンマッチングは、一方の輝度画像から任意に抽出したブロックに対応するブロックを他方の輝度画像から検索する手法である。
Specifically, the
例えば、パターンマッチングにおけるブロック間の一致度を評価する関数として、輝度の差分をとるSAD(Sum of Absolute Difference)、差分を2乗して用いるSSD(Sum of Squared intensity Difference)や、各画素の輝度から平均値を引いた分散値の類似度をとるNCC(Normalized Cross Correlation)等の手法がある。 For example, SAD (Sum of Absolute Difference) that takes the difference in brightness, SSD (Sum of Squared intensity Difference) that squares the difference, and the brightness of each pixel are functions for evaluating the degree of matching between blocks in pattern matching. There is a method such as NCC (Normalized Cross Correlation) that takes the similarity of the variance value obtained by subtracting the average value from.
位置導出部170は、このようなブロック単位の視差導出処理を、例えば、600画素×200画素の検出領域に映し出されている全てのブロックについて行う。ここで、位置導出部170は、ブロックを4画素×4画素として処理しているが、任意の画素数で処理してもよい。
The
位置導出部170は、距離画像214のブロック毎の視差情報を、所謂ステレオ法を用いて、水平距離x、高さyおよび相対距離zを含む実空間における三次元位置に変換する。ここで、ステレオ法は、三角測量法を用いることで、ブロックの距離画像214における視差からそのブロックの撮像装置110に対する相対距離zを導出する手法である。このとき、位置導出部170は、ブロックの相対距離zと、ブロックと同相対距離zにある道路表面上の点とブロックとの距離画像214上の検出距離とに基づいて、ブロックの道路表面からの高さyを導出する。そして、位置導出部170は、導出した三次元位置を改めて距離画像214に対応付ける。かかる相対距離zの導出処理や三次元位置の特定処理は、様々な公知技術を適用できるので、ここでは、その説明を省略する。
The
(グルーピング処理S202)
グルーピング部172は、路面より上方に位置し、カラー値が等しく、距離画像214における三次元位置の差分が所定範囲内にあるブロック同士をグルーピングして立体物候補を特定する。具体的に、グルーピング部172は、距離画像214における、水平距離xの差分、高さyの差分および相対距離zの差分が予め定められた範囲(例えば0.1m)内にあるブロック同士を、同一の特定物に対応すると仮定してグルーピングする。こうして、仮想的なブロック群が生成される。
(Grouping process S202)
The
図5(図5A~図5C)は、グルーピング部172の動作を説明するための説明図である。ここで、位置導出部170が、例えば、図5Aのような距離画像214を生成したとする。グルーピング部172は、かかる距離画像214からブロック同士をグルーピングする。こうして、図5Bのようにグルーピングされたブロック群が複数抽出される。グルーピング部172は、図5Bにおいて、グルーピングしたブロックの全てが含まれる外形線、例えば、水平線および垂直線、または、奥行き方向に延びる線および垂直線からなる矩形状の枠(面)を、立体物候補220(220a、220b、220c、220d、220e)とする。
5 (FIGS. 5A to 5C) are explanatory views for explaining the operation of the
図5Bにおける、距離画像214上の立体物候補220a、220b、220c、220d、220eは、水平距離xおよび相対距離zで示す2次元の水平面で表すと、図5Cにおける、立体物候補220a、220b、220c、220d、220eとなる。
The three-
(ペアリング処理S204)
図5Cにおいては、例えば、立体物候補220aと立体物候補220bとは異なる立体物候補となっている。しかし、立体物候補220aは先行車両の背面を構成し、立体物候補220bは先行車両の側面を構成している。したがって、立体物候補220aと立体物候補220bとは、本来、一体的な同一の立体物を構成するペアとして認識されるべきである。同様に、立体物候補220dと立体物候補220eも同一の立体物として認識されるべきである。そこで、ペアリング部174は、同一の立体物の背面と側面とすべき立体物候補220をペアリングする。
(Pairing process S204)
In FIG. 5C, for example, the three-
図6は、ペアリング部174の動作を説明するための説明図である。図6は、立体物候補220を水平面に投影したものであり、水平距離xおよび相対距離zのみで表されている。
FIG. 6 is an explanatory diagram for explaining the operation of the pairing unit 174. FIG. 6 is a projection of the three-
ペアリング部174は、立体物候補220を水平面に投影し、奥行き方向に対する角度に基づいて背面と側面とに区別し、背面と側面との関係が所定条件を満たせば、背面と側面とをペアリングしてペアを特定する。
The pairing unit 174 projects the three-
具体的に、ペアリング部174は、まず、奥行き方向に相当する相対距離の軸に対する、立体物候補220の近似直線の角度を導出する。ペアリング部174は、導出した角度の絶対値が45度以上135度未満であれば、その立体物候補220を背面とする。一方、ペアリング部174は、導出した角度の絶対値が0度以上45度未満または135度以上180度以下であれば、その立体物候補220を側面とする。
Specifically, the pairing unit 174 first derives the angle of the approximate straight line of the three-
ここで、例えば、グルーピング部172がグルーピングした結果、図6Aのように、立体物候補220f、220gを導出したとする。かかる例では、図6Bのように、立体物候補220fの近似直線の角度の絶対値は45度以上135度未満となるので、ペアリング部174は、当該立体物候補220fを背面であると判定する。一方、立体物候補220gの近似直線の角度の絶対値は0度以上45度未満となるので、ペアリング部174は、当該立体物候補220gを側面であると判定する。こうして、グルーピング部172は、背面と側面とを大凡区別することができる。
Here, for example, as a result of grouping by the
ペアリング部174は、このように区別された背面と側面との全ての組み合わせについて総当たりでペアリング可能か否か判断する。したがって、ペアリング部174は、1の背面に対する全ての側面とのペアリング判断を背面の数だけ繰り返すこととなるので、その処理回数は、背面の数×側面の数となる。なお、このとき、ペアリング部174は、背面と側面との距離が車両の一部として適切な距離(例えば2m)以内であり、背面と側面との速度がいずれも安定し、背面および側面それぞれの長さが所定値(例えば1m)以上であり、かつ、その中央位置が検出領域内であれば、ペアリングを実行するとしてもよい。かかるペアリングの前提条件を追加することで、ペアリング部174は、ペアリングの対象を適切に制限することが可能となり、処理負荷の軽減を図ることが可能となる。 The pairing unit 174 determines whether or not all combinations of the back surface and the side surface thus distinguished can be paired in a round-robin manner. Therefore, since the pairing unit 174 repeats the pairing determination with all the side surfaces with respect to the back surface by the number of the back surface, the number of processing is the number of the back surface × the number of the side surface. At this time, in the pairing portion 174, the distance between the back surface and the side surface is within an appropriate distance (for example, 2 m) as a part of the vehicle, the speed between the back surface and the side surface is stable, and the back surface and the side surface are respectively. If the length of is equal to or greater than a predetermined value (for example, 1 m) and the center position thereof is within the detection area, pairing may be executed. By adding such a precondition for pairing, the pairing unit 174 can appropriately limit the target of pairing and can reduce the processing load.
図7(図7A~図7D)は、ペアリング部174によるペアリング可否の判断を説明するための説明図である。ペアリング部174は、背面222と側面224との関係が所定条件を満たすか否かによってペアリング可否を判定する。その結果、所定の条件を満たすと判定すると、ペアリング部174は、同一の立体物の背面222と側面224とをペアとして特定する。ここでは、立体物候補220fに対応する背面222と、立体物候補220gに対応する側面224とを挙げて、そのペアリングの可否を判断する。また、所定の条件として、「端点間距離」、「速度ベクトル距離」、「交点距離」、「成す角度」の4つの項目を説明する。なお、所定条件として、必ずしも4つ全ての項目を採用する必要はなく、適宜、1または複数の項目を採用するとしてもよい。
FIG. 7 (FIGS. 7A to 7D) is an explanatory diagram for explaining the determination of whether or not pairing is possible by the pairing unit 174. The pairing unit 174 determines whether or not pairing is possible depending on whether or not the relationship between the
まず、ペアリング部174は、図7Aのように、水平面において、背面222と側面224との互いに近い方の端点を特定し、その特定した端点間の距離を導出する。そして、ペアリング部174は、その端点間距離が例えば1m未満であれば、「端点間距離」の条件を満たしていると判定する。
First, as shown in FIG. 7A, the pairing unit 174 identifies the end points of the
次に、ペアリング部174は、図7Bのように、水平面において、背面222の速度ベクトルと側面224の速度ベクトルをそれぞれ導出する。そして、ペアリング部174は、速度ベクトルの差分ベクトル、すなわち、2つの速度ベクトルの始点を合わせた状態における2つの速度ベクトルの距離を導出する。そして、ペアリング部174は、その速度ベクトル距離yが例えば10km/h未満であれば、「速度ベクトル距離」の条件を満たしていると判定する。
Next, the pairing unit 174 derives the velocity vector of the
続いて、ペアリング部174は、図7Cのように、水平面において、背面222の近似直線と側面224の近似直線との交点と、背面222の交点側の端点との距離を導出する。そして、ペアリング部174は、その交点距離が例えば1m未満であれば、「交点距離」の条件を満たしていると判定する。
Subsequently, the pairing unit 174 derives the distance between the intersection of the approximate straight line of the
次に、ペアリング部174は、図7Dのように、水平面において、背面222の近似直線と側面224の近似直線との成す角度を導出する。そして、ペアリング部174は、その成す角度vが90度に近い、例えば70~110度の範囲であれば、「成す角度」の条件を満たしていると判定する。
Next, the pairing unit 174 derives the angle formed by the approximate straight line of the
ペアリング部174は、「端点間距離」、「速度ベクトル距離」、「交点距離」、「成す角度」の4つの条件を満たすと、その背面222と側面224とをペアリングする。
The pairing unit 174 pairs the
続いて、ペアリング部174は、前回フレームで生成した背面222と側面224とのペアを用いて、ペアリングした背面222と側面224とを補正する。
Subsequently, the pairing unit 174 corrects the paired back
図8(図8A、図8B)は、背面222および側面224の補正を説明するための説明図である。図8には、図7同様、背面222と側面224とが示されている。ペアリング部174は、当該フレームでペアリングした背面222と側面224とに対し、まず、交点と端点に関する実測値を特定する。
FIG. 8 (FIG. 8A, 8B) is an explanatory diagram for explaining the correction of the
具体的に、ペアリング部174は、図8Aに示すように、背面222の近似直線と側面224の近似直線との交点の実測値を実測交点とし、背面222の交点側の端点の実測値を実測交点側端点とし、背面222の交点側と逆の端点の実測値を実測背面端点とし、側面224の交点側と逆の端点の実測値を実測側面端点とする。なお、ペアリング部174は、交点に相当する実測値の導出において、背面222と側面224との実際の交点をそのまま用いず、その交点と、背面222の交点側の端点、すなわち、実測交点側端点との中間点を用いる。これは、側面224に比べ背面222の特定精度が高く、背面222の端点の方が、信頼性が高いからである。
Specifically, as shown in FIG. 8A, the pairing unit 174 uses the measured value of the intersection of the approximate straight line of the
ここで、中間点は各点の水平距離および相対距離をそれぞれ平均することで求められる。なお、中間点は、必ずしも平均とすることはなく、その信頼性から重みをつけてもよい。例えば、背面222の端点の信頼性が高い場合、実測交点より実測交点側端点に近い点を中間点として補正交点を求めてもよい。
Here, the intermediate point is obtained by averaging the horizontal distance and the relative distance of each point. The intermediate points are not necessarily averaged, and may be weighted based on their reliability. For example, when the reliability of the end point of the
次に、ペアリング部174は、実測値を補正し、補正交点、補正背面端点、および、補正側面端点を導出する。具体的に、ペアリング部174は、予測交点と、実測交点および実測交点側端点の中間点との中間点を補正交点とし、予測背面端点と実測背面端点との中間点を補正背面端点とし、予測側面端点と実測側面端点との中間点を補正側面端点とする。ここで、予測交点、予測背面端点、および、予測側面端点は、ペア予測部176が、前回フレームにおいて、当該フレームにおける交点、背面端点、および側面端点を予測したものである。なお、前回フレームにおいて、予測交点、予測背面端点、および、予測側面端点が導出されていない場合、ペアリング部174は、実測交点、実測背面端点、実測側面端点を、そのまま予測交点、予測背面端点、および、予測側面端点として用いる。
Next, the pairing unit 174 corrects the measured value and derives the correction intersection point, the correction back end point, and the correction side end point. Specifically, the pairing unit 174 uses the intermediate point between the predicted intersection and the intermediate point between the measured intersection and the measured intersection side end point as the corrected intersection, and the intermediate point between the predicted back end point and the actually measured back end point as the corrected back end point. The intermediate point between the predicted side surface end point and the measured side surface end point is defined as the corrected side surface end point. Here, the predicted intersection point, the predicted back end point, and the predicted side end point are those predicted by the
こうして、ペアリング部174は、図8Bに示すような、補正交点、補正背面端点、補正側面端点を特定する。車外環境認識装置120は、補正交点と補正背面端点とを結ぶ線を補正後の背面222とし、補正交点と補正側面端点とを結ぶ線を補正後の側面224とする。車外環境認識装置120は、かかる補正交点、補正背面端点、予測側面端点、背面222、側面224を用いて、自車両1と先行車両との衝突被害の軽減制御を行い、また、自車両1を先行車両に追従させる追従制御を行う。
In this way, the pairing unit 174 identifies the correction intersection point, the correction back end point, and the correction side end point as shown in FIG. 8B. In the vehicle exterior
(ペア予測処理S206)
ペア予測部176は、ペアリング部174がペアリングした背面222と側面224とのペアの未来の位置、ここでは、次フレームにおける位置を予測する。
(Pair prediction processing S206)
The
図9は、ペア予測部176の動作を説明するための説明図である。図9は、水平距離xおよび相対距離zのみで表されている。ペア予測部176は、導出された補正交点、補正背面端点、補正側面端点と、過去に導出した複数回分の補正交点、補正背面端点、補正側面端点とを用い、例えば、カルマンフィルタ等を用いて、次回の予測交点、予測背面端点、予測側面端点とを導出する。このとき、ペア予測部176は、背面および側面の相対速度、Y軸回りの角速度、および、エゴモーションを考慮して、次回の予測交点、予測背面端点、予測側面端点を予測する。
FIG. 9 is an explanatory diagram for explaining the operation of the
(立体物特定処理S208)
立体物特定部178は、ペアリング部174によってペアリングされた背面222と側面224とのペアによって構成される立体物やその他の立体物がいずれの特定物に対応するか特定する。例えば、立体物特定部178は、背面222と側面224とのペアによって構成される立体物が、車両らしい大きさ、形状、相対速度であり、かつ、後方の所定の位置にブレーキランプやハイマウントストップランプ等の発光源を有する場合、その立体物を先行車両と特定する。
(Three-dimensional object identification process S208)
The three-dimensional
図9を用いて説明したように、ペア予測部176は、次フレームにおける背面222、側面224を予測する。そして、図5を用いて説明したように、グルーピング部172が隣接するブロック同士をグルーピングし、図6、7を用いて説明したように、ペアリング部174は、グルーピングされた立体物候補220同士をペアリングする。そして、図8を用いて説明したように、ペアリング部174は、その予測された背面222、側面224を用いて、背面222、側面224の位置を補正する。このように、ペアリング部174は、ペア予測部176が予測した背面222、側面224を用いることで、背面222、側面224の位置を適切に補正することができる。
As described with reference to FIG. 9, the
ただし、ペアリング部174におけるペアリングが適切に行われても、その前段のグルーピング部172におけるグルーピングが適切に行われていなければ、立体物の特定精度は高まらない。
However, even if the pairing in the pairing unit 174 is properly performed, the specific accuracy of the three-dimensional object is not improved unless the grouping in the
図10は、グルーピング部172の動作を説明するための説明図である。図10は、水平距離xおよび相対距離zのみで表されている。例えば、距離画像214において、図10のようなブロックが抽出されたとする。グルーピング部172は、距離画像214における三次元位置の差分が所定範囲内にあるブロック同士をグルーピングする。しかし、距離画像214における相対距離のミスマッチングによってノイズが生じると、グルーピング部172は、背面222や側面224を適切にグルーピングできない場合が生じる。
FIG. 10 is an explanatory diagram for explaining the operation of the
例えば、図10の例では、グルーピング部172が、3つの立体物候補220h、220i、220jを特定したとする。ここで、立体物候補220hは背面222に相当し、立体物候補220iは側面224に相当する。一方、立体物候補220jはノイズであり、本来、立体物候補とすべきではない。また、ブロックの位置によっては、グルーピング部172が、このようなノイズを含めて立体物候補220jを特定するおそれもある。そうすると、ペアリング部174が背面222および側面224を適切にペアリングできず、車外環境認識装置120は、これらを立体物として安定的に特定することが困難となる。
For example, in the example of FIG. 10, it is assumed that the
そこで、グルーピング部172は、ペア予測部176が前回フレームで予測した、次フレームにおける背面222、側面224を用いて、立体物候補220を特定する。
Therefore, the
図11(図11A、図11B)は、グルーピング部172の動作を説明するための説明図である。グルーピング部172は、ペア予測部176が予測した背面222および側面224それぞれに近いブロックを優先してグルーピングする。
FIG. 11 (FIGS. 11A and 11B) is an explanatory diagram for explaining the operation of the
具体的に、図11Aに示すように、グルーピング部172は、ペア予測部176が予測した予測交点と予測背面端点とを結ぶ、背面222に相当する予測背面線232を生成する。次に、グルーピング部172は、予測背面線232からの距離が、図中破線で示した所定範囲内にあるブロックであり、かつ、三次元位置の差分が所定範囲内にあるブロック同士をグルーピングする。こうして、グルーピング部172は、背面222に相当する立体物候補220hを特定できる。なお、ブロックから予測背面線232への距離は、ブロックから予測背面線232に垂線をおろし、その垂線と予測背面線232との交点とブロックとの距離を示す。
Specifically, as shown in FIG. 11A, the
同様に、図11Bに示すように、グルーピング部172は、ペア予測部176が予測した予測交点と予測側面端点とを結ぶ、側面224に相当する予測側面線234を生成する。次に、グルーピング部172は、予測側面線234からの距離が、図中破線で示した所定範囲内にあるブロックであり、かつ、三次元位置の差分が所定範囲内にあるブロック同士をグルーピングする。こうして、グルーピング部172は、側面224に相当する立体物候補220iを特定できる。
Similarly, as shown in FIG. 11B, the
なお、ここでは、グルーピング部172が、予測側面線234からの距離が所定範囲内にあるブロックをグルーピングの対象としたが、かかる場合に限らず、様々な統計的手法を用いることができる。例えば、グルーピング部172は、最小二乗距離やM推定を用いて、分散が所定範囲内となるブロックのみをグルーピングの対象とすることができる。
Here, the
また、グルーピング部172は、背面222と側面224との交点に位置するブロックは、背面222および側面224のいずれにも属するブロックとして処理してもよいし、背面222および側面224のいずれか一方にのみ属するブロックとして処理してもよい。
Further, the
かかる構成により、距離画像214における相対距離のミスマッチングによってノイズが生じたとしても、グルーピング部172は、背面222に相当する立体物候補220hおよび側面224に相当する立体物候補220iを適切に特定できる。その結果、ペアリング部174は、グルーピングされた立体物候補220h、220iを適切にペアリングでき、立体物の特定精度を向上することが可能となる。
With this configuration, even if noise is generated due to the mismatch of the relative distance in the
また、ここでは、ペア予測部176は、背面222と側面224のペアで位置を予測しているが、グルーピング部172が、背面222のグルーピングと側面224のグルーピングとを独立して実行している。したがって、グルーピング部172は、背面222および側面224をそれぞれ独立して適切に特定することができる。
Further, here, the
また、コンピュータを車外環境認識装置120として機能させるプログラムや、当該プログラムを記録した、コンピュータで読み取り可能なフレキシブルディスク、光磁気ディスク、ROM、CD、DVD、BD等の記憶媒体も提供される。ここで、プログラムは、任意の言語や記述方法にて記述されたデータ処理手段をいう。
Further, a program for making a computer function as an external
以上、添付図面を参照しながら本発明の好適な実施形態について説明したが、本発明はかかる実施形態に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。 Although the preferred embodiment of the present invention has been described above with reference to the accompanying drawings, it goes without saying that the present invention is not limited to such an embodiment. It is clear that a person skilled in the art can come up with various modifications or modifications within the scope of the claims, and it is understood that these also naturally belong to the technical scope of the present invention. Will be done.
例えば、上述した実施形態では、先行車両が自車両1より画面右側に位置しており、グルーピング部172が、先行車両の左側の側面224を特定する例を挙げて説明した。しかし、かかる場合に限らず、先行車両が自車両1より画面左側に位置している場合、グルーピング部172は、先行車両の右側の側面224を特定することとなる。
For example, in the above-described embodiment, the preceding vehicle is located on the right side of the screen from the
また、上述した実施形態では、立体物候補220が、背面222または側面224のいずれであるか特定されているが、ペアリング部174が特定するまでは、立体物候補220が背面222か側面224か明確に特定できない場合がある。この場合、グルーピング部172は、ペアとなり得る2つの立体物候補220をそれぞれ、左面、右面として処理してもよいし、第1面、第2面として処理してもよい。
Further, in the above-described embodiment, it is specified whether the three-
なお、本明細書の車外環境認識方法の各工程は、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はなく、並列的あるいはサブルーチンによる処理を含んでもよい。 It should be noted that each step of the vehicle exterior environment recognition method of the present specification does not necessarily have to be processed in chronological order according to the order described as a flowchart, and may include parallel processing or processing by a subroutine.
本発明は、自車両の進行方向に存在する立体物を特定する車外環境認識装置に利用することができる。 INDUSTRIAL APPLICABILITY The present invention can be used as an external environment recognition device for identifying a three-dimensional object existing in the traveling direction of the own vehicle.
110 撮像装置
120 車外環境認識装置
170 位置導出部
172 グルーピング部
174 ペアリング部
176 ペア予測部
222 背面
224 側面
232 予測背面線
234 予測側面線
110
Claims (2)
前記三次元位置の差分が所定範囲内にあるブロック同士をグルーピングして立体物候補を特定するグルーピング部と、
前記立体物候補を水平面に投影し、奥行き方向に対する角度に基づいて背面と側面とに区別し、前記背面と前記側面とをペアリングしてペアを特定するペアリング部と、
前記ペアの未来の位置を予測するペア予測部と、
を備え、
前記グルーピング部は、前記ペア予測部に過去に予測された前記ペアの未来の位置に基づいて前記立体物候補を特定する車外環境認識装置。 A position derivation unit that derives the three-dimensional position of each block in the captured image,
A grouping unit that groups blocks whose three-dimensional position differences are within a predetermined range to specify a three-dimensional object candidate, and a grouping unit.
A pairing unit that projects the three-dimensional object candidate onto a horizontal plane, distinguishes the back surface and the side surface based on the angle with respect to the depth direction, and pairs the back surface and the side surface to specify the pair.
A pair prediction unit that predicts the future position of the pair,
Equipped with
The grouping unit is an external environment recognition device that identifies the three-dimensional object candidate based on the future position of the pair predicted in the past by the pair prediction unit.
前記ペア予測部に過去に予測された前記ペアの背面の未来の位置を示す予測背面線とブロックとの距離に基づいて背面に相当する前記立体物候補を特定し、
前記ペア予測部に過去に予測された前記ペアの側面の未来の位置を示す予測側面線とブロックとの距離に基づいて側面に相当する前記立体物候補を特定する請求項1に記載の車外環境認識装置。 The grouping section is
The pair predictor identifies the three-dimensional object candidate corresponding to the back surface based on the distance between the block and the predicted back line indicating the future position of the back surface of the pair predicted in the past.
The external environment according to claim 1, wherein the three-dimensional object candidate corresponding to the side surface is specified based on the distance between the block and the predicted side surface line indicating the future position of the side surface of the pair predicted in the past by the pair prediction unit. Recognition device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020141452A JP2022037358A (en) | 2020-08-25 | 2020-08-25 | Surrounding environment recognition apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020141452A JP2022037358A (en) | 2020-08-25 | 2020-08-25 | Surrounding environment recognition apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022037358A true JP2022037358A (en) | 2022-03-09 |
Family
ID=80494595
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020141452A Pending JP2022037358A (en) | 2020-08-25 | 2020-08-25 | Surrounding environment recognition apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022037358A (en) |
-
2020
- 2020-08-25 JP JP2020141452A patent/JP2022037358A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9224055B2 (en) | Exterior environment recognition device | |
US9280900B2 (en) | Vehicle external environment recognition device | |
WO2011080943A1 (en) | Road-shoulder detecting device and vehicle using road-shoulder detecting device | |
US20150092989A1 (en) | Vehicle external environment recognition device | |
US9524645B2 (en) | Filtering device and environment recognition system | |
US9659376B2 (en) | Filtering device | |
JP2015170240A (en) | Vehicular outside environment recognition system | |
WO2011016257A1 (en) | Distance calculation device for vehicle | |
JP3868915B2 (en) | Forward monitoring apparatus and method | |
JP7356319B2 (en) | Vehicle exterior environment recognition device | |
JP7229032B2 (en) | External object detection device | |
JP6764378B2 (en) | External environment recognition device | |
JP6174884B2 (en) | Outside environment recognition device and outside environment recognition method | |
JP2022037358A (en) | Surrounding environment recognition apparatus | |
JP7261006B2 (en) | External environment recognition device | |
JP2022040651A (en) | Vehicle outside environment recognition device | |
CN112606839A (en) | Vehicle exterior environment recognition device | |
JP2022043413A (en) | External environment recognizing device for vehicle | |
JP6731020B2 (en) | Exterior environment recognition device and exterior environment recognition method | |
JP5890816B2 (en) | Filtering device and environment recognition system | |
JP2022039949A (en) | Surrounding environment recognition apparatus | |
JP2021059322A (en) | Outside-vehicle environment recognition device | |
JP2021059132A (en) | Outside-vehicle environment recognition device | |
JP5981857B2 (en) | Outside environment recognition device and outside environment recognition method | |
JP4397164B2 (en) | Obstacle detection device and obstacle detection method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230703 |