JP6831883B2 - 車両検出装置 - Google Patents

車両検出装置 Download PDF

Info

Publication number
JP6831883B2
JP6831883B2 JP2019160291A JP2019160291A JP6831883B2 JP 6831883 B2 JP6831883 B2 JP 6831883B2 JP 2019160291 A JP2019160291 A JP 2019160291A JP 2019160291 A JP2019160291 A JP 2019160291A JP 6831883 B2 JP6831883 B2 JP 6831883B2
Authority
JP
Japan
Prior art keywords
region
interest
area
vehicle
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019160291A
Other languages
English (en)
Other versions
JP2020095683A (ja
Inventor
啓隆 小甲
啓隆 小甲
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Subaru Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Subaru Corp filed Critical Subaru Corp
Priority to US16/592,207 priority Critical patent/US11093783B2/en
Publication of JP2020095683A publication Critical patent/JP2020095683A/ja
Application granted granted Critical
Publication of JP6831883B2 publication Critical patent/JP6831883B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本開示は、車両のタイヤ検出を行う車両検出装置に関する。
画像中の立体物が車両であるか否かを検出する車両検出装置がある。また、車両のタイヤ検出を行うタイヤ検出装置がある(特許文献1〜3参照)。
特開2007−134961号公報 特開2013−232080号公報 特開2017−54386号公報
画像処理のアルゴリズムでは機械学習に基づく車両検出アルゴリズムが数多く提案されているものの、車両の形状は多種多様であるため学習コストがかかり、車両検出のための識別器には計算コストがかかる。
効率的に車両を検出することを可能にする車両検出装置を提供することが望ましい。
本開示の一実施の形態に係る第1の車両検出装置は、画像中の注目領域を切り出す領域切り出し部と、注目領域を複数の分割領域に分割し、複数の分割領域のそれぞれの特徴量を算出した後に合成することによって、注目領域全体の合成特徴量を算出する特徴量算出部と、特徴量算出部によって算出された合成特徴量に基づいて、車両のタイヤではないと類推される注目領域を棄却するフィルタリングを行う特徴量識別部と、画像中の水平方向に対する注目領域の傾き角を算出する角度算出部とを備え、特徴量算出部は、角度算出部によって算出された傾き角に応じて、複数の分割領域のそれぞれの特徴量を合成する順番を変更する
本開示の一実施の形態に係る第2の車両検出装置は、画像中の注目領域を切り出す領域切り出し部と、画像中の水平方向に対する注目領域の傾き角を算出する角度算出部と、角度算出部によって算出された傾き角に応じて、注目領域が自車両に対して正対している場合と傾いている場合とでフィルタリング処理に用いるパラメータを変更して、車両のタイヤではないと類推される注目領域を棄却するフィルタリングを行うフィルタ部とを備える。
本開示の一実施の形態に係る第3の車両検出装置は、画像中の注目領域を切り出す領域切り出し部と、注目領域に対して左方向および右方向のそれぞれの外側領域の代表距離の値を2つずつ取得し、左方向および右方向のそれぞれの外側領域について代表距離の平均値を求め、次に、注目領域の奥行値と代表距離の平均値との差の絶対値を求め、その差の絶対値が所定の第1の閾値以上、または所定の第2の閾値未満の場合に、車両のタイヤではないと類推し、注目領域を棄却するフィルタリングを行う代表距離フィルタ部とを備える。
本開示の一実施の形態に係る第4の車両検出装置は、画像中の注目領域を切り出す領域切り出し部と、注目領域内の色情報に基づいて、車両のタイヤではないと類推される注目領域を棄却するフィルタリングを行う色情報フィルタ部とを備える。
本開示の一実施の形態に係る車両検出装置によれば、画像中の注目領域に基づく車両のタイヤ検出の処理を最適化するようにしたので、車両のタイヤ検出を効率的に行うことが可能となる結果、効率的に車両を検出することが可能となる。
本開示の第1の実施の形態に係る車両検出装置を備える車外環境認識システムの一構成例を概略的に示す構成図である。 車外環境認識装置の一構成例を概略的に示すブロック図である。 車両検出部によるタイヤ検出処理の流れの一例を示すフローチャートである。 検出対象の車両およびタイヤが自車両に対し正対している画像の一例を示す説明図である。 検出対象の車両およびタイヤが自車両に対し斜め方向に傾いている画像の一例を示す説明図である。 画像から特定された代表距離の一例を示す説明図である。 画像から切り出された注目領域の一例を示す説明図である。 注目領域の傾き角とフィルタリングに用いるパラメータとの関係の一例を概略的に示す説明図である。 注目領域の傾き角が所定範囲内にある場合の空間フィルタ部によるフィルタリングの一例を概略的に示す説明図である。 注目領域の傾き角が所定閾値以上にある場合の空間フィルタ部によるフィルタリングの一例を概略的に示す説明図である。 代表距離フィルタ部によるフィルタリングの一例を概略的に示す説明図である。 代表距離フィルタ部によるフィルタリングの一例を概略的に示す説明図である。 領域調整部による領域調整処理の一例を概略的に示す説明図である。 領域調整部による領域調整処理の一例を概略的に示す説明図である。 領域調整部による領域調整処理の一例を概略的に示す説明図である。 Haar−likeフィルタ部によるフィルタリングの一例を概略的に示す説明図である。 画像から切り出されたタイヤ以外の立体物の一例を示す説明図である。 画像から切り出されたタイヤの一例を示す説明図である。 YUV色空間の一例を示す説明図である。 注目領域の傾き方向の一例を示す説明図である。 注目領域が傾いていない場合の特徴量算出部による特徴量算出処理の一例を概略的に示す説明図である。 注目領域が傾いていない場合において、特徴量算出部によって算出された合成特徴量の一例を概略的に示す説明図である。 注目領域の傾き方向が+方向である場合の特徴量算出部による特徴量算出処理の一例を概略的に示す説明図である。 注目領域の傾き方向が−方向である場合の特徴量算出部による特徴量算出処理の一例を概略的に示す説明図である。
以下、本開示の実施の形態について図面を参照して詳細に説明する。なお、説明は以下の順序で行う。
1.第1の実施の形態
1.0 概要
1.1 構成
1.2 動作
1.3 効果
2.その他の実施の形態
<1.第1の実施の形態>
[1.0 概要]
本実施の形態は、タイヤを検出することによって車両を検出する技術に関する。
近年、自車両に搭載した車載カメラによって車外環境を撮像し、撮像した画像に基づいて先行車両等の立体物を特定する技術が開発されている。これにより、特定された立体物との衝突を回避する衝突防止機能や、先行車両との車間距離を所定の距離に保つ(ACC:Adaptive Cruise Control)を搭載した車両が普及しつつある。
さらに、画像中の立体物が車両であるか否かを検出する技術として、機械学習に基づく車両検出アルゴリズムが数多く提案されている。しかしながら、車両の形状は多種多様であるため学習コストがかかり、車両検出のための識別器には計算コストがかかる。一方、タイヤはどの車両であっても類似した形状であるため、車両そのものを検出する場合に比べ、機械学習に基づく検出器を容易に生成でき、またその検出器による計算量は軽量である。
ここで、タイヤ検出を行う場合、タイヤの傾きに応じた検出処理を行うことが望ましい。
図4は、検出対象の車両およびタイヤが自車両に対して正対している画像の一例を示している。図5は、検出対象の車両およびタイヤが自車両に対して斜め方向に傾いている画像の一例を示している。図4および図5において、四角形で囲った領域部分(例えば、領域601、領域602、領域603、領域604)が、立体物として特定されている。
例えば図4の領域602で特定されているような、自車両に対して正対している車両と、例えば図5の領域604で特定されているような、自車両に対して側方に存在する車両とでは、タイヤを示す画像部分に傾きが生じ、画像上でのタイヤの形状が異なる。このため、タイヤ検出の処理を、例えば図4の領域602で特定されているような、自車両に対して正対している車両のタイヤ検出に最適化した場合、例えば図5の領域604で特定されているような、自車両に対し側方に存在する車両のタイヤ検出の検出性能が低下する。
本実施の形態では、車両のタイヤ検出を効率的に行い、効率的に車両を検出することが可能となる技術を提供する。また、傾きに応じたタイヤの検出処理を行うことが可能となる技術を提供する。
[1.1 構成]
(車外環境認識システム100)
図1は、本開示の第1の実施の形態に係る車両検出装置を備える車外環境認識システム100の一構成例を概略的に示している。
自車両1は、車外環境認識システム100を備えている。車外環境認識システム100は、2つの撮像装置110と、車外環境認識装置120と、車両制御装置(ECU:Engine Control Unit)130とを備えている。また、自車両1は、ステアリングホイール132と、アクセルペダル134と、ブレーキペダル136と、操舵機構142と、駆動機構144と、制動機構146とを備えている。
車両制御装置130は、ステアリングホイール132、アクセルペダル134、およびブレーキペダル136を通じて運転手の操作入力を受け付け、操舵機構142、駆動機構144、および制動機構146に伝達することで自車両1を制御する。また、車両制御装置130は、車外環境認識装置120の指示に従い、操舵機構142、駆動機構144、および制動機構146を制御する。
2つの撮像装置110はそれぞれ、CCD(Charge-Coupled Device)やCMOS(Complementary Metal-Oxide Semiconductor)等の撮像素子を含んで構成され、自車両1の前方の車外環境を撮像し、少なくとも輝度の情報が含まれる輝度画像を生成する。輝度画像としては、例えばカラー値で表されるカラー画像を生成する。カラー値は、例えば1つの輝度(Y)と2つの色差(UV)からなる数値群である。また、カラー値は、3つの色相(R(赤)、G(緑)、B(青))からなる数値群であってもよい。
撮像装置110は、自車両1の進行方向側において、例えば、2つの撮像装置110のそれぞれの光軸が略平行になるように、略水平方向に離隔して配置されている。2つの撮像装置110はそれぞれ、自車両1の前方の検出領域に存在する立体物を撮像した輝度画像を、例えば1/60秒のフレームごと(60fps)に連続して生成する。ここで、撮像装置110によって認識する立体物は、自転車、歩行者、車両、信号機、道路(進行路)、道路標識、ガードレール、建物といった独立して存在する物のみならず、自転車の車輪、車両のタイヤ等、その一部として特定できる物も含む。
車外環境認識装置120は、2つの撮像装置110のそれぞれから輝度画像を取得し、一方の輝度画像から任意に抽出したブロック(例えば、水平4画素×垂直4画素の配列)に対応するブロックを他方の輝度画像から検索する、いわゆるパターンマッチングを用いて視差、および、任意のブロックの画面内の位置を示す画面位置を含む視差情報を導出する。ここで、水平は、撮像した画像の画面横方向を示し、垂直は、撮像した画像の画面縦方向を示す。このパターンマッチングとしては、一対の画像間において、任意のブロック単位で輝度(Y)を比較することが考えられる。例えば、輝度の差分をとるSAD(Sum of Absolute Difference)、差分を2乗して用いるSSD(Sum of Squared intensity Difference)や、各画素の輝度から平均値を引くことにより得られた分散値の類似度をとるZNCC(Zero-mean Normalized Cross Correlation)等の手法がある。車外環境認識装置120は、このようなブロック単位の視差導出処理を検出領域(例えば、600画素×200画素)に映し出されている全てのブロックについて行う。ここでは、ブロックを4画素×4画素としているが、ブロック内の画素数は任意に設定することができる。
ただし、車外環境認識装置120では、検出分解能単位であるブロックごとに視差を導出することはできるが、そのブロックがどのような対象物の一部であるかを認識できない。したがって、視差情報は、対象物単位ではなく、検出領域における検出分解能単位(例えばブロック単位)で独立して導出されることとなる。このようにして導出された視差情報を対応付けた画像を、上述した輝度画像と区別して距離画像という。
また、車外環境認識装置120は、輝度画像に基づく輝度値(カラー値)、および、距離画像に基づいて算出された、自車両1との相対距離を含む実空間における3次元の位置情報を用い、カラー値が等しく3次元の位置情報が近いブロック同士を対象物としてグループ化して、自車両1の前方の検出領域における対象物がいずれの特定物(例えば、先行車両や自転車)に対応するかを特定する。また、車外環境認識装置120は、このように立体物を特定すると、立体物との衝突を回避したり(衝突回避制御)、先行車両との車間距離を安全な距離に保つように自車両1を制御する(クルーズコントロール)。なお、上記相対距離は、距離画像におけるブロックごとの視差情報を、いわゆるステレオ法を用いて3次元の位置情報に変換することで求められる。ここで、ステレオ法は、三角測量法を用いることで、対象物の視差からその対象物の撮像装置110に対する相対距離を導出する方法である。
(車外環境認識装置120)
次に、車外環境認識装置120の構成について詳述する。ここでは、主として、本実施の形態に特徴的なタイヤ検出に関する処理を行う部分について詳細に説明する。
図2は、車外環境認識装置120の一構成例を概略的に示している。
図2に示すように、車外環境認識装置120は、I/F(インタフェース)部150と、データ保持部152と、中央制御部154とを備えている。
I/F部150は、撮像装置110、および、車両制御装置130との双方向の情報交換を行うためのインタフェースである。データ保持部152は、RAM(Random Access Memory)、フラッシュメモリ、HDD(Hard Disk Drive)等で構成され、以下に示す中央制御部154内の各部の処理に必要な様々な情報を保持する。
中央制御部154は、中央処理装置(CPU)、プログラム等が格納されたROM(Read Only Memory)、およびワークエリアとしてのRAM等を含む半導体集積回路で構成されている。中央制御部154は、システムバス156を通じて、I/F部150、およびデータ保持部152等を制御する。
中央制御部154は、車両検出部160を有している。また、中央制御部154は、既知の技術により路面モデルを生成し、距離画像および輝度画像上での路面(道路表面)領域を特定する路面特定部を含んでいる。
車両検出部160は、タイヤ検出を行うことによって車両を検出する。車両検出部160は、領域切り出し部161と、角度算出部162と、空間フィルタ部163と、代表距離フィルタ部164と、領域調整部165と、Haar−likeフィルタ部166と、色情報フィルタ部167と、特徴量算出部168と、特徴量識別部169と、タイヤ判定部170とを含んでいる。
車両検出部160は、本開示の一実施の形態に係る車両検出装置の一具体例に相当する。空間フィルタ部163、代表距離フィルタ部164、Haar−likeフィルタ部166、色情報フィルタ部167、特徴量算出部168、および特徴量識別部169のうち少なくとも1つが、本開示の一実施の形態に係るフィルタ部の一具体例に相当する。
領域切り出し部161は、上述の距離画像に基づいて算出された、自車両1との相対距離を含む実空間における3次元空間上の位置情報を参照して、輝度画像中の注目領域(ROI:Region of Interest)を切り出す領域切り出し処理を行う。
角度算出部162は、上述の3次元空間上の位置情報を参照して、領域切り出し部161によって切り出された注目領域の水平方向に対する3次元空間上の傾き角を算出する。
空間フィルタ部163は、上述の3次元空間上の位置情報を参照して、注目領域の実空間上での、サイズ、距離、および横位置の値に基づく注目領域のフィルタリングを行う。また、空間フィルタ部163は、輝度画像上での注目領域のサイズの値に基づく注目領域のフィルタリングを行う。
代表距離フィルタ部164は、上述の3次元空間上の位置情報を参照して、注目領域に対して左方向および右方向のそれぞれの外側領域の代表距離の値を取得し、取得した外側領域の代表距離の値に基づいて、注目領域のフィルタリングを行う。
領域調整部165は、上述の3次元空間上の位置情報を参照して、輝度画像上での注目領域を矩形領域となるように調整する。
Haar−likeフィルタ部166は、Haar−likeフィルタを用いて、輝度画像上での注目領域のフィルタリングを行う。
色情報フィルタ部167は、輝度画像上での注目領域内の色情報に基づいて、注目領域のフィルタリングを行う。
特徴量算出部168は、輝度画像上での注目領域を複数の分割領域に分割し、複数の分割領域のそれぞれの特徴量を算出した後に合成(結合)することによって、注目領域全体の合成特徴量を算出する。特徴量算出部168は、角度算出部162によって算出された傾き角に応じて、複数の分割領域のそれぞれの特徴量を合成する順番を変更する。特徴量算出部168は、特徴量として、例えばHOG(Histograms of Oriented Gradients)特徴量を算出する。
特徴量識別部169は、特徴量算出部168によって算出された合成特徴量に基づいて、注目領域のフィルタリングを行う。特徴量識別部169は、識別器を含む。識別器は、例えばSVM(Support Vector Machine)を用いることができる。
タイヤ判定部170は、特徴量識別部169によってフィルタリングされた後の注目領域に車両のタイヤが含まれていると判定する。
[1.2 動作]
次に、本実施の形態に特徴的なタイヤ検出に関する処理を行う車両検出部160による動作について詳細に説明する。
図3は、車両検出部160によるタイヤ検出処理の流れの一例を示している。
まず、車両検出部160は、領域切り出し部161によって、上述の3次元空間上の位置情報を参照して注目領域(ROI)の切り出し処理を行う(ステップS11)。次に、車両検出部160は、角度算出部162によって、上述の3次元空間上の位置情報を参照して、領域切り出し部161によって切り出された注目領域の水平方向に対する3次元空間上の傾き角を求める(ステップS12)。以降、車両検出部160では、角度算出部162によって算出された傾き角に応じたフィルタリング処理を行う。
次に、車両検出部160は、空間フィルタ部163によって、上述の3次元空間上の位置情報を参照して、注目領域の実空間上での、サイズ、距離、および横位置の値に基づく注目領域のフィルタリングを行う。また、車両検出部160は、空間フィルタ部163によって、輝度画像上での注目領域のサイズの値に基づく注目領域のフィルタリングを行う(ステップS13)。
次に、車両検出部160は、代表距離フィルタ部164によって、上述の3次元空間上の位置情報を参照して、注目領域よりも左右外側にある代表距離の値を用いて、注目領域のフィルタリングを行う(ステップS14)。次に、車両検出部160は、領域調整部165によって、上述の3次元空間上の位置情報を参照して、輝度画像上での注目領域を矩形領域となるように調整する(ステップS15)。
次に、車両検出部160は、Haar−likeフィルタ部166によって、Haar−likeフィルタを用いて、輝度画像上での注目領域のフィルタリングを行う(ステップS16)。次に、車両検出部160は、色情報フィルタ部167によって、輝度画像上での注目領域内の色情報に基づいて、注目領域のフィルタリングを行う(ステップS17)。
次に、車両検出部160は、特徴量算出部168によって、輝度画像上での注目領域を複数の分割領域に分割し、複数の分割領域のそれぞれの特徴量を算出した後に合成(結合)することによって、注目領域全体の合成特徴量を算出する。次に、車両検出部160は、特徴量識別部169の識別器(SVM)によって、合成特徴量に基づいて注目領域のフィルタリングを行うフィルタリングを行う(ステップS18)。
最後に、車両検出部160は、タイヤ判定部170によって、特徴量識別部169によるフィルタリング後に残った注目領域をタイヤと判定する(ステップS19)。
車両検出部160は、タイヤ判定部170によってタイヤと判定された注目領域を含む立体物を車両と判定する。
以下、上述の各ステップの処理の具体例を説明する。
・領域切り出し部161による処理(ステップS11)
図6は、3次元空間上の位置情報を参照して特定された距離画像または輝度画像上における代表距離300の一例を示している。図7は、距離画像または輝度画像から切り出された注目領域401,402,…,40nの一例を示している。
領域切り出し部161は、まず、例えば距離画像または輝度画像の左端から右端に向けて、水平位置ごとの代表距離を算出する。具体的には、領域切り出し部161は、まず、例えば距離画像または輝度画像を水平方向に対して複数の短冊形状の分割領域に分割する。各分割領域は、水平方向に所定数の画素幅を持つ垂直方向に延在する領域である。続いて、領域切り出し部161は、分割領域ごとに、3次元空間上の位置情報に基づき、例えば道路表面より上方に位置する全ての画素ブロックを対象に、相対距離に関するヒストグラムを生成する。領域切り出し部161は、そのヒストグラムに基づいて、最も頻度の高い、ピークに相当する相対距離を特定する。ここで、ピークに相当するとは、ピーク値またはピーク近傍で任意の条件を満たす値をいう。領域切り出し部161は、このピークに相当する相対距離を分割領域ごと(水平位置ごと)の代表距離とする。これにより、図6において、黒い太線で示したような代表距離300が複数、算出される。
次に、領域切り出し部161は、図7に示したように、例えば距離画像または輝度画像の左端から右端に向けて、順次、水平位置ごとの2つの代表距離を組み合わせることによって、注目領域を切り出す。図7において、例えば、注目領域401は、代表距離300と、代表距離300に対して1番目に隣接する代表距離301とを組み合わせることによって切り出された領域を示す。図7において、例えば、注目領域402は代表距離300と、代表距離300に対して2番目に隣接する代表距離302とを組み合わせることによって切り出された領域を示す。図7において、例えば、注目領域40nは代表距離300と、代表距離300に対してn番目に隣接する代表距離30nとを組み合わせることによって切り出された領域を示す。このようにして、領域切り出し部161は、複数の注目領域を切り出す処理を行うが、図3のステップS12以降の処理は、複数の注目領域のそれぞれに対して行われる。
・角度算出部162による処理(ステップS12)
図8は、領域切り出し部161によって切り出された注目領域の傾き角と、ステップS13以降で行うフィルタ処理に用いるパラメータとの関係の一例を概略的に示している。図8において、Zは撮像装置110に対して3次元空間上の奥行き方向、Xは3次元空間上の水平方向を示す。以降の他の同類の図においても同様である。
なお、注目領域の傾き角は、画像に着目すると「距離画像において、水平方向に沿った注目領域の奥行き方向の距離の変化率」に相当する。また、注目領域の傾き角は、実空間に着目すると「実空間における、車両の水平方向に沿った注目領域に対応する対象の撮像装置110からの距離の変化率」に相当する。
角度算出部162は、上述の3次元空間上の位置情報を参照して、領域切り出し部161によって切り出された注目領域の水平方向に対する3次元空間上の傾き角を算出する。図8において、例えばROI1は、水平方向に対する3次元空間上の傾き角が0度である注目領域を模式的に示している。傾き角が0度であることは、例えば、注目領域に含まれる立体物が図4の領域602に含まれる立体物のように、自車両1に対して正対していることに相当する。
また、図8において、例えばROI2は、例えば水平方向に対する3次元空間上の傾き角が80度以上90度未満である注目領域を模式的に示している。例えばROI3は、水平方向に対する3次元空間上の傾き角が90度である注目領域を模式的に示している。傾き角が80度以上90度未満であることは、例えば、注目領域に含まれる立体物が図4の領域604に含まれる立体物のように、自車両1に対して斜め方向に傾いていることに相当する。
立体物としてのタイヤが自車両1に対し正対している場合と傾いている場合とで見え方が大きく異なるため、車両検出部160は、図3のステップS13以降では傾き角に応じた、注目領域のフィルタリング処理を行う。図3のステップS13以降では、傾き角に応じて、例えばフィルタリング処理に用いるパラメータを変更する。
車両検出部160は、例えば傾き角が0〜45度の範囲では、パラメータセット1を用いたフィルタリング処理を行う。また、例えば傾き角が80度以上の範囲では、パラメータセット1とは異なるパラメータセット2を用いたフィルタリング処理を行う。また、車両検出部160は、傾き角が上記以外の範囲であった場合、注目領域によって特定される立体物は車両のタイヤではないと類推されるので、注目領域を棄却する。
・空間フィルタ部163による処理(ステップS13)
図9は、注目領域の傾き角が所定範囲内(例えば0〜45度の範囲内)にある場合の空間フィルタ部163によるフィルタリングの一例を概略的に示している。
注目領域の傾き角が例えば0〜45度の範囲内にある場合、以下のいずれかの条件から外れるものは、注目領域によって特定される立体物は車両のタイヤではないと類推されるので、注目領域を棄却する。
・注目領域の実空間上での奥行60m以内
・注目領域の実空間上での注目領域の横幅1.8m以内
・注目領域の輝度画像上でのサイズが10px(ピクセル)以上
図10は、注目領域の傾き角が所定閾値以上(例えば80度以上)にある場合の空間フィルタ部163によるフィルタリングの一例を概略的に示している。
注目領域の傾き角が例えば80度以上である場合、以下のいずれかの条件から外れるものは、注目領域によって特定される立体物は車両のタイヤではないと類推されるので、注目領域を棄却する。
・注目領域の実空間上での奥行30m以内
・注目領域の位置が実空間上で左右±4m以内
・注目領域の横幅1.8m以内
・注目領域の輝度画像上でのサイズが10px(ピクセル)以上
・代表距離フィルタ部164による処理(ステップS14)
図11および図12は、代表距離フィルタ部164によるフィルタリングの一例を概略的に示している。図11は、立体物が車両のタイヤではない場合の注目領域700の例を示している。図12は、立体物が車両のタイヤの場合の注目領域800の例を示している。図11において、700Lは注目領域700の左端、700Rは注目領域700の右端、701Lは注目領域700の左外側領域の代表距離、701Rは注目領域700の右外側領域の代表距離を示す。図12において、800Lは注目領域800の左端、800Rは注目領域800の右端、801Lは注目領域800の左外側領域の代表距離、801Rは注目領域800の右外側領域の代表距離を示す。
代表距離フィルタ部164は、上述の3次元空間上の位置情報を参照して、注目領域に対して左方向および右方向のそれぞれの外側領域(図11、図12参照)の代表距離の値を2つずつ取得し、左方向および右方向のそれぞれの外側領域について代表距離の平均値を求める。次に、代表距離フィルタ部164は、注目領域の奥行値(注目領域の左端と右端との平均値)と、上述の左方向および右方向のそれぞれの外側領域についての代表距離の平均値との差の絶対値を求める。代表距離フィルタ部164は、その差の絶対値が、所定の第1の閾値以上、または所定の第2の閾値未満の場合、注目領域によって特定される立体物は車両のタイヤではないと類推されるので、注目領域を棄却する。代表距離フィルタ部164は、この判断に用いる閾値を、上述の傾き角に応じて変更する(切り替える)。
・領域調整部165による処理(ステップS15)
図13ないし図15は、領域調整部165による注目領域の領域調整処理の一例を概略的に示している。
領域調整部165は、まず、図13に示したように、距離画像および輝度画像において、注目領域の左端の代表距離の位置を下方向へ延在した直線と路面モデルが示す平面との交点を求める。そして、その交点の垂直方向の位置を求める(図13の点A)。同様に、距離画像および輝度画像において、注目領域の右端の代表距離の位置を下方向へ延在した直線と路面モデルが示す平面との交点を求める。そして、その交点の垂直方向の位置を求める(図13の点B)。
次に、領域調整部165は、点A,Bの3次元空間上の距離d[mm]を求め、距離画像および輝度画像において、点A,Bから鉛直方向へd[mm]伸ばした点C,Dを求める(図14)。このようにして、図15に示したように、点A,B,C,Dを頂点とする平行四辺形201を得る。領域調整部165は、平行四辺形201を内包する矩形領域202を注目領域とする。
・Haar−likeフィルタ部166による処理(ステップS16)
図16は、Haar−likeフィルタ部166によるフィルタリングの一例を概略的に示している。
Haar−likeフィルタ部166は、注目領域に対し、この例では、図16に示したようなHaar−likeフィルタを適用する。具体的には、注目領域における中心部と外周部の平均輝度値差を求める。外周部の範囲は、例えば最外周位置から20%の範囲とする。タイヤであれば中心部は白く、外周部は黒いはずなので、その差は一定の特徴が表れる。Haar−likeフィルタ部166は、タイヤとは異なる特徴が表れた場合、注目領域によって特定される立体物は車両のタイヤではないと類推されるので、注目領域を棄却する。Haar−likeフィルタ部166は、Haar−likeフィルタに用いるパラメータ等を、上述の傾き角に応じて変更する(切り替える)。また、Haar−likeフィルタ部166は、外周部の範囲の割合(%)を、上述の傾き角に応じて変更してもよい。なお、この例では、図16に示したパターンを用いたが、これに限定されるものではなく、車両のタイヤを識別可能な様々なパターンを用いることができる。
・色情報フィルタ部167による処理(ステップS17)
以下では、輝度画像のカラー値が輝度(Y)と2つの色差(UV)情報で表される場合を説明する。
図17は、輝度画像から切り出されたタイヤ以外の立体物の一例を示している。図18は、輝度画像から切り出されたタイヤの一例を示している。図19は、YUV色空間の一例を示している。
タイヤは基本的に白と黒の2色であるため、U,Vの値は0である。そのため、注目領域内のU,Vの値の分散は0である。また、西日などが当たった場合、画像全体がオレンジがかる。すなわち、U,Vの値に一定のバイアスがかかるものの、その分散値は0か非常に小さい。そこで、色情報フィルタ部167は、例えば、注目領域内の画素のYUV値を取得する。色情報フィルタ部167は、例えば、UとVの値の注目領域内の分散を調べ、分散値が閾値以上であれば、注目領域によって特定される立体物は車両のタイヤではないと類推されるので、注目領域を破棄する。
色情報フィルタ部167は、フィルタに用いる閾値等を、上述の傾き角に応じて変更する(切り替える)。
・特徴量算出部168、および特徴量識別部169による処理(ステップS18)
図20は、注目領域の傾き方向の一例を示している。図20に示したように、傾き角が水平方向に対して90度未満の場合を傾き方向が+、傾き角が水平方向に対して90度を超える場合を傾き方向が−(マイナス)とする。
(傾き角が0度の場合)
図21は、注目領域が傾いていない場合(傾き角が0度)の特徴量算出部168による特徴量算出処理の一例を概略的に示している。図22は、注目領域が傾いていない場合において、特徴量算出部168によって算出された合成特徴量の一例を概略的に示している。
特徴量算出部168は、輝度画像上での注目領域を複数の分割領域に分割する。例えば、図21に示したように第1分割領域501、第2分割領域502、第3分割領域503、および第4分割領域504に分割する。なお、分割数は4つに限られるものではない。
次に、特徴量算出部168は、複数の分割領域のそれぞれの特徴量を算出する。特徴量としては、例えばHOG特徴量を算出する。図21では、各分割領域について8次元の勾配ベクトルのHOG特徴量を算出した例を示す。なお、算出する次元の数は8次元に限定されるものではない。
次に、特徴量算出部168は、図22に示したように、第1分割領域501、第2分割領域502、第3分割領域503、および第4分割領域504の特徴量をそのままの順に合成(結合)することによって、注目領域全体の合成特徴量を算出する。これにより、全体として例えば32次元のHOG特徴量が得られる。
特徴量識別部169は、特徴量算出部168によって算出された合成特徴量に基づいて、例えばSVMを用いたフィルタリングを行う。
(傾き方向が+の場合)
図23は、注目領域の傾き方向が+方向である場合の特徴量算出部168による特徴量算出処理の一例を概略的に示している。
傾き方向が+方向である場合、図23に示したように、特徴量算出部168は上述の傾き角が0度の場合と同様の手順で、例えば第1分割領域501、第2分割領域502、第3分割領域503、および第4分割領域504の特徴量を算出する。なお、図23では、各分割領域について9次元の勾配ベクトルのHOG特徴量を算出した例を示す。なお、算出する次元の数は9次元に限定されるものではない。
傾き方向が+方向である場合、図23に示したように、特徴量算出部168は上述の傾き角が0度の場合と同様の手順で、第1分割領域501、第2分割領域502、第3分割領域503、および第4分割領域504の特徴量をそのままの順に合成(結合)することによって、注目領域全体の合成特徴量を算出する。これにより、全体として例えば36次元のHOG特徴量が得られる。
特徴量識別部169は、特徴量算出部168によって算出された合成特徴量に基づいて、例えばSVMを用いたフィルタリングを行う。
(傾き方向が−の場合)
図24は、注目領域の傾き方向が−方向である場合の特徴量算出部168による特徴量算出処理の一例を概略的に示している。
傾き方向が−方向である場合、図24に示したように、特徴量算出部168は上述の傾き角が0度の場合と同様の手順で、例えば第1分割領域501、第2分割領域502、第3分割領域503、および第4分割領域504の特徴量を算出する。なお、図24では、各分割領域について9次元の勾配ベクトルのHOG特徴量を算出した例を示す。なお、算出する次元の数は9次元に限定されるものではない。
次に、特徴量算出部168は、図24に示したように、第1分割領域501、第2分割領域502、第3分割領域503、および第4分割領域504の特徴量の並べ替えを行った上で、合成(結合)することによって、注目領域全体の合成特徴量を算出する。これにより、全体として例えば36次元のHOG特徴量が得られる。
特徴量識別部169は、特徴量算出部168によって算出された合成特徴量に基づいて、例えばSVMを用いたフィルタリングを行う。
以上のように、傾き方向に応じて、分割領域の特徴量の並べ替えを行って注目領域全体の合成特徴量を算出する。これにより、傾き方向が+方向であるか−方向であるかに関わらず、同一のSVMを用いたフィルタリングが可能となる。これにより、フィルタリング性能向上の効果が得られる。
[1.3 効果]
以上説明したように、第1の実施の形態に係る車両検出装置によれば、画像中の注目領域に基づく車両のタイヤ検出の処理を最適化するようにしたので、車両のタイヤ検出を効率的に行うことが可能となる結果、効率的に車両を検出することが可能となる。
第1の実施の形態に係る車両検出装置によれば、自車両1に対し正対したタイヤのみならず、側面に現れたタイヤを効率的に検出することが可能となる。
<2.その他の実施の形態>
本開示による技術は、上記実施の形態の説明に限定されず種々の変形実施が可能である。
上記実施の形態において、コンピュータを車外環境認識装置120として機能させるプログラムは、当該プログラムを記録した、コンピュータで読み取り可能なフレキシブルディスク、光磁気ディスク、ROM、CD、DVD、BD等の記憶媒体によって提供されてもよい。ここで、プログラムは、任意の言語や記述方法にて記述されたデータ処理手段をいう。
上記実施の形態において、車両検出部160による処理は、必ずしも図3のフローチャートに示した順序に沿って時系列に処理する必要はなく、並列的あるいはサブルーチンによる処理を含んでもよい。
また、上記実施の形態において、中央制御部154は、中央処理装置(CPU)、ROM、RAM等を含む半導体集積回路で構成される場合に限らず、FPGA(Field Programmable Gate Array)やASIC(Application Specific Integrated Circuit)等の集積回路で構成されるようにしてもよい。また、1または複数の中央処理装置、FPGA、ASICにより構成されるようにしてもよい。
1…自車両、100…車外環境認識システム、110…撮像装置、120…車外環境認識装置、130…車両制御装置、132…ステアリングホイール、134…アクセルペダル、136…ブレーキペダル、142…操舵機構、144…駆動機構、146…制動機構、150…I/F部、152…データ保持部、154…中央制御部、156…システムバス、160…車両検出部、161…領域切り出し部、162…角度算出部、163…空間フィルタ部、164…代表距離フィルタ部、165…領域調整部、166…Haar−likeフィルタ部、167…色情報フィルタ部、168…特徴量算出部(HOG)、169…特徴量識別部(SVM)、170…タイヤ判定部、201…平行四辺形、202…矩形領域、300,301,302,…,30n…代表距離、401,402,…,40n…注目領域(ROI)、501…第1分割領域、502…第2分割領域、503…第3分割領域、504…第4分割領域、601,602,603,604…領域、700…注目領域(ROI)、700L…注目領域左端、700R…注目領域右端、701L…左外側領域の代表距離、701R…右外側領域の代表距離、800…注目領域(ROI)、800L…注目領域左端、800R…注目領域右端、801L…左外側領域の代表距離、801R…右外側領域の代表距離。

Claims (7)

  1. 画像中の注目領域を切り出す領域切り出し部と、
    前記注目領域を複数の分割領域に分割し、前記複数の分割領域のそれぞれの特徴量を算出した後に合成することによって、前記注目領域全体の合成特徴量を算出する特徴量算出部と、
    前記特徴量算出部によって算出された前記合成特徴量に基づいて、車両のタイヤではないと類推される前記注目領域を棄却するフィルタリングを行う特徴量識別部と
    前記画像中の水平方向に対する前記注目領域の傾き角を算出する角度算出部と
    を備え
    前記特徴量算出部は、前記角度算出部によって算出された前記傾き角に応じて、前記複数の分割領域のそれぞれの特徴量を合成する順番を変更する
    車両検出装置。
  2. 前記注目領域に対して左方向および右方向のそれぞれの外側領域の代表距離の値を2つずつ取得し、前記左方向および前記右方向のそれぞれの前記外側領域について前記代表距離の平均値を求め、次に、前記注目領域の奥行値と前記代表距離の平均値との差の絶対値を求め、その差の絶対値が所定の第1の閾値以上、または所定の第2の閾値未満の場合に、前記車両のタイヤではないと類推し、前記注目領域を棄却するフィルタリングを行う代表距離フィルタ部、をさらに備える
    請求項1に記載の車両検出装置。
  3. 前記注目領域を矩形領域となるように調整する領域調整部、をさらに備える
    請求項1または2に記載の車両検出装置。
  4. 前記注目領域内の色情報に基づいて、前記車両のタイヤではないと類推される前記注目領域を棄却するフィルタリングを行う色情報フィルタ部、をさらに備える
    請求項1ないしのいずれか1つに記載の車両検出装置。
  5. 画像中の注目領域を切り出す領域切り出し部と、
    前記画像中の水平方向に対する前記注目領域の傾き角を算出する角度算出部と、
    前記角度算出部によって算出された前記傾き角に応じて、前記注目領域が自車両に対して正対している場合と傾いている場合とでフィルタリング処理に用いるパラメータを変更して、車両のタイヤではないと類推される前記注目領域を棄却するフィルタリングを行うフィルタ部と
    を備える
    車両検出装置。
  6. 画像中の注目領域を切り出す領域切り出し部と、
    前記注目領域に対して左方向および右方向のそれぞれの外側領域の代表距離の値を2つずつ取得し、前記左方向および前記右方向のそれぞれの前記外側領域について前記代表距離の平均値を求め、次に、前記注目領域の奥行値と前記代表距離の平均値との差の絶対値を求め、その差の絶対値が所定の第1の閾値以上、または所定の第2の閾値未満の場合に、車両のタイヤではないと類推し、前記注目領域を棄却するフィルタリングを行う代表距離フィルタ部と
    を備える
    車両検出装置。
  7. 画像中の注目領域を切り出す領域切り出し部と、
    前記注目領域内の色情報に基づいて、車両のタイヤではないと類推される前記注目領域を棄却するフィルタリングを行う色情報フィルタ部と
    を備える
    車両検出装置。
JP2019160291A 2018-12-05 2019-09-03 車両検出装置 Active JP6831883B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/592,207 US11093783B2 (en) 2018-12-05 2019-10-03 Vehicle detection apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018228083 2018-12-05
JP2018228083 2018-12-05

Publications (2)

Publication Number Publication Date
JP2020095683A JP2020095683A (ja) 2020-06-18
JP6831883B2 true JP6831883B2 (ja) 2021-02-17

Family

ID=71085031

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019160291A Active JP6831883B2 (ja) 2018-12-05 2019-09-03 車両検出装置

Country Status (1)

Country Link
JP (1) JP6831883B2 (ja)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003309844A (ja) * 2002-04-18 2003-10-31 Nissan Motor Co Ltd 車両用表示装置
JP2007140938A (ja) * 2005-11-18 2007-06-07 Nissan Motor Co Ltd 駐停車判定装置及び駐停車判定方法
JP6315580B2 (ja) * 2014-08-06 2018-04-25 アルパイン株式会社 車両発進支援装置および発進報知方法
JP6132411B2 (ja) * 2015-09-10 2017-05-24 株式会社Subaru 車外環境認識装置

Also Published As

Publication number Publication date
JP2020095683A (ja) 2020-06-18

Similar Documents

Publication Publication Date Title
US11093783B2 (en) Vehicle detection apparatus
JP6013884B2 (ja) 物体検出装置及び物体検出方法
JP6274557B2 (ja) 移動面情報検出装置、及びこれを用いた移動体機器制御システム並びに移動面情報検出用プログラム
JP5906224B2 (ja) 車外環境認識装置
US9280900B2 (en) Vehicle external environment recognition device
JP7206583B2 (ja) 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法およびプログラム
JP6753134B2 (ja) 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及び画像処理プログラム
EP3115933A1 (en) Image processing device, image capturing device, mobile body control system, image processing method, and computer-readable recording medium
JP6132411B2 (ja) 車外環境認識装置
Devane et al. Lane detection techniques using image processing
JP6591188B2 (ja) 車外環境認識装置
KR20160108344A (ko) 차량 검출 시스템 및 방법
EP3410345B1 (en) Information processing apparatus and non-transitory recording medium storing thereon a computer program
JP7229032B2 (ja) 車外物体検出装置
JP6564218B2 (ja) 車外環境認識装置
JP6831883B2 (ja) 車両検出装置
JP7261006B2 (ja) 車外環境認識装置
EP3146462A1 (en) Method for determining a respective boundary of at least one object, sensor device, driver assistance device and motor vehicle
JP6329438B2 (ja) 車外環境認識装置
JP6378547B2 (ja) 車外環境認識装置
JP7071102B2 (ja) 車外環境認識装置
JP2022040651A (ja) 車外環境認識装置
JP6523694B2 (ja) 車外環境認識装置
WO2018097269A1 (en) Information processing device, imaging device, equipment control system, mobile object, information processing method, and computer-readable recording medium
JP2018088237A (ja) 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法、及び、情報処理プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190903

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201019

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201222

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210105

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210129

R150 Certificate of patent or registration of utility model

Ref document number: 6831883

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250