JP5922257B2 - 車両周辺監視装置 - Google Patents
車両周辺監視装置 Download PDFInfo
- Publication number
- JP5922257B2 JP5922257B2 JP2014554183A JP2014554183A JP5922257B2 JP 5922257 B2 JP5922257 B2 JP 5922257B2 JP 2014554183 A JP2014554183 A JP 2014554183A JP 2014554183 A JP2014554183 A JP 2014554183A JP 5922257 B2 JP5922257 B2 JP 5922257B2
- Authority
- JP
- Japan
- Prior art keywords
- identification
- area
- region
- unit
- identification target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000012806 monitoring device Methods 0.000 title claims description 18
- 238000000034 method Methods 0.000 claims description 77
- 230000008569 process Effects 0.000 claims description 63
- 238000004364 calculation method Methods 0.000 claims description 47
- 238000012545 processing Methods 0.000 claims description 32
- 238000003384 imaging method Methods 0.000 claims description 15
- 238000012544 monitoring process Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 8
- 230000006872 improvement Effects 0.000 description 7
- 230000006870 function Effects 0.000 description 5
- 238000001514 detection method Methods 0.000 description 4
- 238000012706 support-vector machine Methods 0.000 description 4
- 241001465754 Metazoa Species 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 241000271566 Aves Species 0.000 description 1
- 241000282472 Canis lupus familiaris Species 0.000 description 1
- 241000282994 Cervidae Species 0.000 description 1
- 241000283086 Equidae Species 0.000 description 1
- 241000282326 Felis catus Species 0.000 description 1
- 241000124008 Mammalia Species 0.000 description 1
- 241001494479 Pecora Species 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Q—ARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
- B60Q9/00—Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling
- B60Q9/008—Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling for anti-collision purposes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/166—Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30261—Obstacle
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Signal Processing (AREA)
- Mechanical Engineering (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
- Closed-Circuit Television Systems (AREA)
Description
この発明は、車載された撮像部から取得した撮像画像に基づいて、車両の周辺に存在する対象物を検知する車両周辺監視装置に関する。
従来から、車両の走行支援等を目的として、車両外に存在する物体を検知し、或いは物体と自車両との相対的な位置関係等を監視する技術が知られている。特に、車両の前方に搭載された車載カメラ(撮像部)を用いて撮像し、得られた撮像画像を基に物体を検知等する方法が種々提案されている。
例えば、“夜間歩行者検出”,ViEW2008,ビジョン技術の実利用ワークショップ講演論文集,p.224−p.228には、撮像画像の全体に対して演算時間が短い簡易な1次識別処理(例えば、ブースティング)を施すことで多数の領域候補を抽出した後、各領域候補に対して演算時間が長い詳細な2次識別処理{例えば、SVM(Support Vector machine)}を順次施す旨が記載されている。
ところで、簡易な1次識別処理を実行することで対象物の形態を捉えることが可能であるが、対象物の位置までは正確に検出できない傾向がある。すなわち、同一の対象物であっても、位置等が僅かに異なった複数の領域候補が抽出される場合がある。このため、2次識別処理は、同一の対象物に対して実質的に無駄な演算を実行しなければならず、演算量の低減効果が十分に得られないという問題があった。
本発明は上記した問題を解決するためになされたもので、対象物の識別処理に関する精度の向上及び演算量の低減を両立可能な車両周辺監視装置を提供することを目的とする。
本発明に係る車両周辺監視装置は、車両に搭載され、前記車両の走行中に撮像することで前記車両の周辺における撮像画像を取得する撮像部と、前記撮像部により取得された前記撮像画像における画像領域の中から識別対象領域を決定する識別対象領域決定部と、前記識別対象領域決定部により決定された前記識別対象領域内に対象物が存在するか否かを識別する対象物識別部とを備え、前記対象物識別部は、前記対象物の識別処理に要する演算量が相対的に少ない第1識別器と、前記対象物の識別処理に要する演算量が相対的に多い第2識別器とを有し、前記識別対象領域決定部は、前記第1識別器により前記対象物が存在するとして抽出した複数の領域候補に対し、位置及び/又はスケールに関するクラスタリング処理を施すことで、前記第2識別器による識別処理に供される前記識別対象領域を少なくとも1つ決定する。
このように、対象物識別部は、対象物の識別処理に要する演算量が相対的に少ない第1識別器と、演算量が相対的に多い第2識別器とを有し、識別対象領域決定部は、前記第1識別器により前記対象物が存在するとして抽出した複数の領域候補に対し、位置及び/又はスケールに関するクラスタリング処理を施すことで、前記第2識別器による識別処理に供される識別対象領域を少なくとも1つ決定する。これにより、適切に分類された識別対象領域に対して、演算量が相対的に多い第2識別器による識別処理を実行可能であり、対象物の識別処理に関する精度向上及び演算量の低減を両立できる。
また、前記識別対象領域決定部は、前記画像領域を複数のサブ領域に分割し、該サブ領域毎に算出した前記領域候補の各代表位置に対し、位置に関する前記クラスタリング処理を施すことで前記識別対象領域を決定することが好ましい。これにより、クラスタリング処理に用いるデータ量(異なる位置の総数)を低減可能であり、演算処理の一層の高速化を実現できる。
さらに、前記識別対象領域決定部は、スケールに応じて、前記複数の領域候補を2つ以上のグループに分類し、該グループ毎に前記クラスタリング処理を施すことで前記識別対象領域をそれぞれ決定することが好ましい。このように、スケールが適切に分類された識別対象領域に対して第2識別器による識別処理を実行することで、スケールのばらつきによる誤差因子を低減可能であり、識別精度を一層向上できる。
さらに、前記識別対象領域決定部は、少なくとも位置に関する前段のクラスタリング処理を施すことで前記複数の領域候補を少なくとも1つの位置グループに分類した後に、スケールに応じて、前記少なくとも1つの位置グループに属する各領域候補を前記2つ以上のグループにそれぞれ分類し、前記識別対象領域をそれぞれ決定することが好ましい。演算量が相対的に少ない第1識別器を用いることで、スケールが似通った領域候補が略同じ位置で抽出される傾向がある。そこで、複数の領域候補を少なくとも1つの位置グループに分類することで、スケールが似通っているが位置が離れた領域候補の存在を予め除外可能であり、識別精度を一層向上できる。
本発明に係る車両周辺監視装置によれば、対象物識別部は、対象物の識別処理に要する演算量が相対的に少ない第1識別器と、演算量が相対的に多い第2識別器とを有し、識別対象領域決定部は、前記第1識別器により前記対象物が存在するとして抽出した複数の領域候補に対し、位置及び/又はスケールに関するクラスタリング処理を施すことで、前記第2識別器による識別処理に供される識別対象領域を少なくとも1つ決定する。これにより、適切に分類された識別対象領域に対して、演算量が相対的に多い第2識別器による識別処理を実行可能であり、対象物の識別処理に関する精度の向上及び演算量の低減を両立できる。
以下、本発明に係る車両周辺監視装置について好適な実施形態を挙げ、添付の図面を参照しながら説明する。
[車両周辺監視装置10の構成]
図1は、本実施形態に係る車両周辺監視装置10の構成を示すブロック図である。図2は、図1に示す車両周辺監視装置10が搭載された車両12の概略斜視図である。
図1は、本実施形態に係る車両周辺監視装置10の構成を示すブロック図である。図2は、図1に示す車両周辺監視装置10が搭載された車両12の概略斜視図である。
図1及び図2に示すように、車両周辺監視装置10は、複数のカラーチャンネルからなるカラー画像(以下、撮像画像Imという)を撮像するカラーカメラ(以下、単に「カメラ14」という)と、車両12の車速Vsを検出する車速センサ16と、車両12のヨーレートYrを検出するヨーレートセンサ18と、運転者によるブレーキペダルの操作量Brを検出するブレーキセンサ20と、この車両周辺監視装置10を制御する電子制御装置(以下、「ECU22」という)と、音声で警報等を発するためのスピーカ24と、カメラ14から出力された撮像画像等を表示する表示装置26と、を備える。
カメラ14は、主に可視光領域の波長を有する光を利用するカメラであり、車両12の周辺を撮像する撮像手段(撮像部)として機能する。カメラ14は、被写体の表面を反射する光量が多いほど、その出力信号レベルが高くなり、画像の輝度(例えば、RGB値)が増加する特性を有する。図2に示すように、カメラ14は、車両12の前部バンパー部の略中心部に固定的に配置(搭載)されている。
なお、車両12の周囲を撮像する撮像手段は、上記した構成例(いわゆる単眼カメラ)に限られることなく、例えば複眼カメラ(ステレオカメラ)であってもよい。また、カラーカメラに代替して、モノクロカメラ又は赤外線カメラを用いてもよく、或いはこれらを併せ備えてもよい。さらに、単眼カメラの場合、別の測距手段(レーダ装置)を併せて備えてもよい。
図1に戻って、スピーカ24は、ECU22からの指令に応じて、警報音等の出力を行う。スピーカ24は、車両12の図示しないダッシュボードに設けられる。或いは、スピーカ24に代替して、他の装置(例えば、オーディオ装置又はナビゲーション装置)が備える音声出力機能を用いてもよい。
表示装置26(図1及び図2参照)は、車両12のフロントウインドシールド上、運転者の前方視界を妨げない位置に配されたHUD(ヘッドアップディスプレイ)である。表示装置26として、HUDに限らず、車両12に搭載されたナビゲーションシステムの地図等を表示するディスプレイや、メータユニット内等に設けられた燃費等を表示するディスプレイ(MID;マルチインフォメーションディスプレイ)を利用することができる。
ECU22は、入出力部28、演算部30、表示制御部32、及び記憶部34を基本的に備える。
カメラ14、車速センサ16、ヨーレートセンサ18及びブレーキセンサ20からの各信号は、入出力部28を介してECU22側に入力される。また、ECU22からの各信号は、入出力部28を介してスピーカ24及び表示装置26側に出力される。入出力部28は、入力されたアナログ信号をデジタル信号に変換する図示しないA/D変換回路を備える。
演算部30は、カメラ14、車速センサ16、ヨーレートセンサ18及びブレーキセンサ20からの各信号に基づく演算を実行し、演算結果に基づきスピーカ24及び表示装置26に対する信号を生成する。演算部30は、識別対象領域決定部40(識別対象領域決定手段)、対象物識別部42(対象物識別手段)、及び対象物検知部44として機能する。
演算部30における各部の機能は、記憶部34に記憶されているプログラムを読み出して実行することにより実現される。或いは、前記プログラムは、図示しない無線通信装置(携帯電話機、スマートフォン等)を介して外部から供給されてもよい。
表示制御部32は、表示装置26を駆動制御する制御回路である。表示制御部32が、入出力部28を介して、表示制御に供される信号を表示装置26に出力することで、表示装置26が駆動する。これにより、表示装置26は各種画像(撮像画像Im、マーク等)を表示することができる。
記憶部34は、デジタル信号に変換された撮像信号、各種演算処理に供される一時データ等を記憶するRAM(Random Access Memory)、及び実行プログラム、テーブル又はマップ等を記憶するROM(Read Only Memory)等で構成される。
本実施形態に係る車両周辺監視装置10は、基本的には、以上のように構成される。この車両周辺監視装置10の動作の概要について以下説明する。
ECU22は、所定のフレームクロック間隔・周期(例えば、1秒あたり30フレーム)毎に、カメラ14から出力されるアナログの映像信号をデジタル信号に変換し、記憶部34に一時的に取り込む。
そして、ECU22は、記憶部34から読み出した撮像画像Im(車両12の前方画像)に対して各種演算処理を施す。ECU22(特に演算部30)は、撮像画像Imに対する処理結果、必要に応じて車両12の走行状態を示す各信号(車速Vs、ヨーレートYr及び操作量Br)を総合的に考慮し、車両12の前方に存在する人体、動物等を、監視対象となる物体(以下、「監視対象物」或いは単に「対象物」という。)として検出する。
車両12が監視対象物に接触する可能性が高いと演算部30により判断された場合、ECU22は、運転者の注意を喚起するために車両周辺監視装置10の各出力部を制御する。ECU22は、例えば、スピーカ24を介して警報音(例えば、ピッ、ピッ、…と鳴る音)を出力させると共に、表示装置26上に可視化された撮像画像Imのうちその監視対象物の部位を強調表示させる。
[車両周辺監視装置10の詳細な動作]
続いて、車両周辺監視装置10の詳細な動作について、図3のフローチャートを参照しながら説明する。なお、本処理の流れは、車両12が走行中である場合、撮像のフレーム毎に実行される。
続いて、車両周辺監視装置10の詳細な動作について、図3のフローチャートを参照しながら説明する。なお、本処理の流れは、車両12が走行中である場合、撮像のフレーム毎に実行される。
ステップS1において、ECU22は、フレーム毎に、カメラ14により撮像された車両12の前方(所定画角範囲)の出力信号である撮像画像Imを取得する。
図4Aに示すように、任意の時点における撮像により、1つのフレームの撮像画像Imが得られたとする。撮像画像Imが表す画像領域60は横方向に長尺な矩形状(例えば、横方向が1200画素、縦方向が600画素)である。この画像領域60内には、左側から順に、郵便差出箱の画像領域(以下、単に「ポストボックス62」という)、電柱の画像領域(以下、単に「電柱64」という)、路面の画像領域(以下、単に「路面65」という)、第1歩行者の画像領域(以下、単に「第1歩行者66」という)、及び第2歩行者の画像領域(以下、単に「第2歩行者68」という)がそれぞれ存在する。
ステップS2において、演算部30は、撮像画像Imのラスタスキャンを開始する。ここで、ラスタスキャンとは、撮像画像Im内のスキャン領域70を所定の走査方向に移動させながら、撮像画像Imの中に対象物が存在するか否かを遂次識別する手法をいう。ここで、スキャン領域70は、第1歩行者66を含む対象物の存否又はその種類を識別しようとする関心領域に相当する。
以下、識別対象領域決定部40は、現在指定されたスキャン領域70の位置・スケール(サイズ)を遂次決定する。図4A例では、矩形状のスキャン領域70(破線で図示する枠内の領域)が、第1歩行者66の略全体を含むように設定されている。そして、スキャン領域70の位置は、実在する路面及び第1歩行者の接触点に対応する位置(以下、接触位置72)によって特定可能である。
ステップS3において、対象物識別部42(第1識別器50)は、決定されたスキャン領域70内に、少なくとも1種類の対象物が存在するか否かを識別する。なお、「第1識別処理」とは、対象物の識別処理に要する演算量が相対的に少ない識別処理を意味し、詳細は後述する。そして、対象物が存在すると識別された場合、領域候補抽出部46は、そのスキャン領域70を領域候補74(図4B参照)として抽出する。
ステップS4において、識別対象領域決定部40は、指定領域内のスキャンが全て完了したか否かを判別する。未完了であると判別された場合(ステップS4:NO)、次のステップ(S5)に進む。なお、スキャン対象である指定領域は、画像領域60の全体であっても、その一部の領域であってもよい。
ステップS5において、識別対象領域決定部40は、スキャン領域70の位置又はスケールを変更する。具体的には、識別対象領域決定部40は、現在のスキャン領域70をスキャンが未実行である位置に、具体的には、所定の走査方向(例えば、右方向)に所定量(例えば、1画素分)だけ移動する。
その後、ステップS3に戻って、演算部30は、指定領域内のスキャンが全て完了するまでステップS3−S5を順次繰り返す。完了したと判別された場合(ステップS4:YES)、演算部30は、撮像画像Imのラスタスキャンを終了する(ステップS6)。
図4Bに示すように、画像領域60上において多数の領域候補74が抽出されたとする。ここで、領域候補群75は、ポストボックス62の部位を少なくとも含む領域候補74の集合体である。また、領域候補群76は、電柱64の部位を少なくとも含む領域候補74の集合体である。さらに、領域候補群77は、第1歩行者66の部位を少なくとも含む領域候補74の集合体である。さらに、領域候補群78は、第2歩行者68の部位を少なくとも含む領域候補74の集合体である。
ここで、識別可能な対象物の種類は、人体(図4Aの第1歩行者66)の他、各種動物(具体的には、鹿、馬、羊、犬、猫等の哺乳動物、鳥類等)、人工構造物(具体的には、車両、標識、電柱、ガードレール、壁等)であってもよい。本実施形態において、対象物識別部42は、生体(人体又は動物)を検知しようとする。この場合、第1識別処理によって、第1歩行者66及び第2歩行者68が正しく識別される一方、人工構造物であるポストボックス62及び電柱64が誤って識別されている。
また、対象物識別部42は、簡易な第1識別処理を実行することで対象物の形態を捉えることが可能であるが、対象物の位置までは正確に検出できない傾向がある。すなわち、同一の対象物であっても、位置等が僅かに異なった複数の領域候補74が抽出される場合がある。具体的には、図4Bに示すように、1つのポストボックス62の近傍に、位置又はスケールが異なる複数の領域候補74が抽出され、領域候補群75が形成されている。
ステップS7において、領域分類部48は、ステップS3で抽出された各領域候補74に対してクラスタリング処理を施すことで、少なくとも1つの識別対象領域95−98(図6A参照)を決定する。ここで、クラスタリング処理とは、データ集合を部分集合(クラスタ)に分類・分割する処理を意味し、データの分類が階層的になされる階層型手法と、特定の評価関数に従って分類する非階層的手法とに大別される。
領域分類部48は、例えば、非階層的手法であるミーンシフト法、K平均法等を用いて、複数の領域候補74の位置及び/又はスケールのクラスタリング処理を実行する。ただし、この手法によるとデータ数の2乗に略比例して演算量が増加するため、領域候補74の総数が増加すればそれだけ本処理の演算時間が掛かってしまう。そこで、識別対象領域決定部40(領域分類部48)は、画像領域60を複数のサブ領域80に分割し、該サブ領域80毎に算出した領域候補74の各代表位置に対し、位置に関するクラスタリング処理を施す。
図5Aに示すように、画像領域60を格子状に分割することで、複数のサブ領域80がそれぞれ定義される。本図例において、矩形状の画像領域60は、行数が5つ、列数が10つとして、二次元的に均等分割されている。本図では、複数の領域候補74の位置を特定する各候補位置82が、画像領域60上にそれぞれプロットされている。丸印で表記した候補位置82は、例えば領域候補74の接触位置72に相当する。
図5Bに示すように、予め分割したサブ領域80毎に代表位置が決定される。1つのサブ領域80内に3つの候補位置82が存在する場合、これらの統計値(平均値)を算出し、このサブ領域80の代表位置として、候補位置82の数(3個)と共に記憶される。そして、サブ領域80における最大50個の代表位置は、ミーンシフト法を用いて少なくとも1つのグループに分類される。この演算の際、候補位置82の個数、具体的には図5Bの矩形セル内に表記した数字に応じて、評価値がそれぞれ重み付けされる。これにより、クラスタリング処理に用いるデータ量(異なる位置の総数)を低減可能であり、演算処理の一層の高速化を実現できる。
クラスタリング処理の結果、図5Cに示すように、4つの領域候補群75−78(図4B参照)に対応する候補位置群85、86、87、88がそれぞれ抽出される。そして、各候補位置群85−88に応じた基準位置90、91、92、93がそれぞれ決定される。
このようにして、図6Aに示すように、識別対象領域決定部40(領域分類部48)は、画像領域60上において、基準位置90−93から特定される4つの識別対象領域95、96、97、98を決定する。なお、図5A−図5Cでは、複数の領域候補74の位置(横方向及び縦方向)に関するクラスタリング処理について中心に説明したが、スケールに関するクラスタリング処理も独立して/併せて実行してもよい。また、クラスタリング処理を適用する空間座標系は、三次元空間(実空間)上であっても、二次元空間(例えば、撮像面)上であってもよい。
ステップS8において、対象物識別部42(第2識別器52)は、ステップS7で決定された識別対象領域95−98内に、少なくとも1種類の対象物が存在するか否かを識別する。ここで、「第2識別処理」とは、対象物の識別処理に要する演算量が相対的に多い識別処理を意味する。以下、第1及び第2識別処理の差異について説明する。
第1識別処理(ステップS3)は、相対的に演算時間が短い簡易な処理であって、対象物の形態を検知可能である。一方、第2識別処理(ステップS8)は、相対的に演算時間が長い詳細な処理であって、対象物の形態及び位置を検出可能である。例えば、[1]演算対象領域が大きいこと、[2]画像解像度が高いこと、[3]画像特徴量の算出手法が複雑であること、[4]画像特徴量の種類が多いこと、[5]対象物の種別も含めて識別すること、[6]第1識別処理の内容を全て包含すること、又は[7]使用メモリ量が多いこと、等に起因して相対的に演算量が多く(演算時間が長く)なる。
第1識別器50(又は第2識別器52)は、例えば、スキャン領域70(又は識別対象領域95−98)における画像特徴量を入力とし、対象物の存否情報を出力とする、機械学習を用いて生成された識別器である。機械学習の手法として、教師あり学習、教師なし学習、強化学習のうちのいずれのアルゴリズムを採用してもよい。学習アーキテクチャの例として、AdaBoostを含むブースティング法、SVM(Support Vector machine)、ニューラルネットワーク、EM(Expectation Maximization)アルゴリズム等が挙げられる。
図6Bに示すように、対象物識別部42(第2識別器52)は、人工構造物であるポストボックス62及び電柱64をそれぞれ除外すると共に、第1歩行者66及び第2歩行者68をそれぞれ識別する。このように、対象物識別部42は、適切に分類された識別対象領域95−98に対して第2識別処理を実行すればよく、全ての領域候補74(図4B参照)を処理対象とする場合と比べて演算量を大幅に削減できる。
ステップS9において、対象物検知部44は、撮像画像Im内に存在する対象物、ステップS8で識別された第1歩行者66及び第2歩行者68を検知する。フレーム単体での識別結果を用いてもよいし、複数のフレームでの識別結果を併せて考慮することで、同一の対象物についての動きベクトルを算出できる。
ステップS10において、ECU22は、次回の演算処理に必要なデータを記憶部34に記憶させる。例えば、ステップS9で得られた対象物(図4Aの第1歩行者66、第2歩行者68)の属性、識別対象領域97、98の位置等が挙げられる。
この動作を遂次実行することで、車両周辺監視装置10は、所定の時間間隔で、車両12の前方に存在する対象物を監視することができる。
以上のように、対象物識別部42は、対象物の識別処理に要する演算量が相対的に少ない第1識別器50と、演算量が相対的に多い第2識別器52とを有し、識別対象領域決定部40は、第1識別器50により対象物が存在するとして抽出した複数の領域候補74に対し、位置及び/又はスケールに関するクラスタリング処理を施すことで、第2識別器52による識別処理に供される識別対象領域95−98を少なくとも1つ決定する。これにより、適切に分類された識別対象領域95−98に対して、演算量が相対的に多い第2識別器52による識別処理を実行可能であり、対象物の識別処理に関する精度の向上及び演算量の低減を両立できる。
[クラスタリング処理の改良例]
続いて、本実施形態に係るクラスタリング処理(図3のステップS7参照)の改良例について説明する。
続いて、本実施形態に係るクラスタリング処理(図3のステップS7参照)の改良例について説明する。
図7A例に示すように、同一の対象物(第2歩行者68)に対して、複数レベルのスケールが混在した領域候補群78が抽出されたとする。この場合、横方向、縦方向、及びスケール方向に対して同時にクラスタリング処理を実行した結果、上記した複数レベルにおける中間値のスケールを有する識別対象領域99が設定されることがある(図7B参照)。換言すれば、複数レベルのスケールを区別なく取り扱うことで、適切なスケールの識別対象領域を設定できない場合がある。そこで、領域分類部48は、スケールに応じて、複数の領域候補74を2つ以上のグループに分類し、該グループ毎にクラスタリング処理を施してもよい。これにより、スケールが適切に分類された識別対象領域105等(図9参照)に対して第2識別処理を実行することで、スケールのばらつきによる誤差因子を低減可能であり、識別精度を一層向上できる。
<第1の改良例>
先ず、第1の改良例におけるクラスタリング処理(図3のステップS7A)について、図8及び図9を参照しながら説明する。図8は、第1の改良例のクラスタリング処理の説明に供されるフローチャートである。
先ず、第1の改良例におけるクラスタリング処理(図3のステップS7A)について、図8及び図9を参照しながら説明する。図8は、第1の改良例のクラスタリング処理の説明に供されるフローチャートである。
ステップS71において、領域分類部48は、少なくとも位置に関するクラスタリング処理(以下、1次クラスタリング処理)を施すことで、各領域候補74を少なくとも1つの位置グループに分類する。この結果、各領域候補74は、1つの位置グループである領域候補群78(図7A)として分類されたとする。
ステップS72において、領域分類部48は、ステップS71での分類結果を踏まえて2次クラスタリング処理を開始する。以下、2次クラスタリング処理について説明する。
領域分類部48は、未だ選択されていない位置グループ、すなわち領域候補群78を1つ選択した後(ステップS73)、該位置グループに属する各領域候補74のスケール分割を行う(ステップS74)。
図9に示すように、領域分類部48は、横軸をスケールとし、縦軸を座標(位置)とする複数次元座標上の各プロットを、スケールに応じて2つ以上のレベルに分割する。その結果、各領域候補74が、3つのグループ101、102、103に分類されたとする。
その後、領域分類部48は、ステップS73で分類されたグループ毎に、位置及び/又はスケールに関するクラスタリング処理を実行する(ステップS75)。このクラスタリング処理は、ステップS7と同様に実行可能であるから、その説明を割愛する。
その後、領域分類部48は、ステップS73に戻って(ステップS76:NO)、以下ステップS73−S75を順次繰り返す。そして、全ての位置グループ(領域候補群78)が選択され、クラスタリング処理が終了した場合(ステップS76:YES)、2次クラスタリング処理が終了する(ステップS77)。
この結果、領域分類部48は、クラスタリング処理により分類されたグループ101−103毎に、識別対象領域105、106、107をそれぞれ決定する。領域分類部48は、同じ第2歩行者68に対して、小さいスケールの識別対象領域105、中間のスケールの識別対象領域106、及び大きいスケールの識別対象領域107をそれぞれ決定することができる。
このように、識別対象領域決定部40は、少なくとも位置に関する前段のクラスタリング処理を施すことで複数の領域候補74を少なくとも1つの位置グループに分類した後に、スケールに応じて、少なくとも1つの位置グループに属する各領域候補74を2つ以上のグループにそれぞれ分類し、識別対象領域105−107をそれぞれ決定してもよい。
演算量が相対的に少ない第1識別器50を用いることで、スケールが似通った領域候補74が略同じ位置で抽出される傾向がある。そこで、複数の領域候補74を少なくとも1つの位置グループに分類することで、スケールが似通っているが位置が離れた領域候補74の存在を予め除外可能であり、識別精度を一層向上できる。
<第2の改良例>
次に、第2の改良例について、図10を参照しながら説明する。
次に、第2の改良例について、図10を参照しながら説明する。
図10に示すように、領域分類部48は、スケールに応じて複数の領域候補74を2つ以上のグループに分類する。本図例では、所定の閾値よりも大きいスケールを有する領域候補74の集合体である領域候補群110と、所定の閾値以下のスケールを有する領域候補74の集合体である領域候補群111とに分類される。その後、領域分類部48は、グループ毎にクラスタリング処理を施すことで複数の識別対象領域112、113を決定する。すなわち、領域分類部48は、同じ第2歩行者68に対して、小さいスケールの識別対象領域112、及び大きいスケールの識別対象領域113をそれぞれ決定することができる。
このように、第2の改良例では、分類されたグループの数だけクラスタリング処理を施せばよく、識別精度の向上を図りつつも演算量の低減を実現できる。
[補足]
なお、この発明は、上述した実施形態に限定されるものではなく、この発明の主旨を逸脱しない範囲で自由に変更できることは勿論である。
なお、この発明は、上述した実施形態に限定されるものではなく、この発明の主旨を逸脱しない範囲で自由に変更できることは勿論である。
例えば、本実施形態では、単眼カメラ(カメラ14)により得られた撮像画像Imに対して上記した画像処理を実行しているが、複眼カメラ(ステレオカメラ)でも同様の作用効果が得られることは言うまでもない。
Claims (4)
- 車両(12)に搭載され、前記車両(12)の走行中に撮像することで前記車両(12)の周辺における撮像画像(Im)を取得する撮像部(14)と、
前記撮像部(14)により取得された前記撮像画像(Im)における画像領域(60)の中から識別対象領域(95−99、105−107、112、113)を決定する識別対象領域決定部(40)と、
前記識別対象領域決定部(40)により決定された前記識別対象領域(95−99、105−107、112、113)内に対象物(66、68)が存在するか否かを識別する対象物識別部(42)と
を備え、
前記対象物識別部(42)は、前記対象物(66、68)の識別処理に要する演算量が相対的に少ない第1識別器(50)と、前記対象物(66、68)の識別処理に要する演算量が相対的に多い第2識別器(52)とを有し、
前記識別対象領域決定部(40)は、前記第1識別器(50)により前記対象物(66、68)が存在するとして抽出した複数の領域候補(74)に対し、位置及び/又はスケールに関するクラスタリング処理を施すことで、前記第2識別器(52)による識別処理に供される前記識別対象領域(95−99、105−107、112、113)を少なくとも1つ決定する
ことを特徴とする車両周辺監視装置(10)。 - 請求項1記載の装置(10)において、
前記識別対象領域決定部(40)は、前記画像領域(60)を複数のサブ領域(80)に分割し、該サブ領域(80)毎に算出した前記領域候補(74)の各代表位置に対し、位置に関する前記クラスタリング処理を施すことで前記識別対象領域(95−98)を決定することを特徴とする車両周辺監視装置(10)。 - 請求項1又は2に記載の装置(10)において、
前記識別対象領域決定部(40)は、スケールに応じて、前記複数の領域候補(74)を2つ以上のグループ(101−103)に分類し、該グループ(101−103)毎に前記クラスタリング処理を施すことで前記識別対象領域(95−98)をそれぞれ決定することを特徴とする車両周辺監視装置(10)。 - 請求項3記載の装置(10)において、
前記識別対象領域決定部(40)は、少なくとも位置に関する前段のクラスタリング処理を施すことで前記複数の領域候補(74)を少なくとも1つの位置グループに分類した後に、スケールに応じて、前記少なくとも1つの位置グループに属する各領域候補(74)を前記2つ以上のグループ(110、111)にそれぞれ分類し、前記識別対象領域(112、113)をそれぞれ決定することを特徴とする車両周辺監視装置(10)。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012280938 | 2012-12-25 | ||
JP2012280938 | 2012-12-25 | ||
PCT/JP2013/073830 WO2014103433A1 (ja) | 2012-12-25 | 2013-09-04 | 車両周辺監視装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP5922257B2 true JP5922257B2 (ja) | 2016-05-24 |
JPWO2014103433A1 JPWO2014103433A1 (ja) | 2017-01-12 |
Family
ID=51020537
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014554183A Expired - Fee Related JP5922257B2 (ja) | 2012-12-25 | 2013-09-04 | 車両周辺監視装置 |
Country Status (6)
Country | Link |
---|---|
US (1) | US9776564B2 (ja) |
EP (1) | EP2940656B1 (ja) |
JP (1) | JP5922257B2 (ja) |
CN (1) | CN104885122B (ja) |
CA (1) | CA2896291A1 (ja) |
WO (1) | WO2014103433A1 (ja) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101543105B1 (ko) * | 2013-12-09 | 2015-08-07 | 현대자동차주식회사 | 보행자 인식 장치 및 그의 처리 방법과 이를 지원하는 차량 |
JP6474396B2 (ja) * | 2014-06-03 | 2019-02-27 | 住友重機械工業株式会社 | 人検知システム及びショベル |
DE102016205339A1 (de) * | 2016-03-31 | 2017-10-05 | Siemens Aktiengesellschaft | Verfahren und System zum Erkennen von Hindernissen in einem Gefahrraum vor einem Schienenfahrzeug |
TWI592883B (zh) | 2016-04-22 | 2017-07-21 | 財團法人車輛研究測試中心 | Image recognition system and its adaptive learning method |
JP6786264B2 (ja) * | 2016-05-27 | 2020-11-18 | 株式会社東芝 | 情報処理装置、情報処理方法、および車両 |
JP2018036937A (ja) * | 2016-09-01 | 2018-03-08 | 住友電気工業株式会社 | 画像処理装置、画像処理システム、画像処理プログラムおよびラベル |
WO2018173846A1 (ja) | 2017-03-22 | 2018-09-27 | 日本電気株式会社 | 物体検出装置、物体検出方法および物体検出プログラム |
US10108867B1 (en) * | 2017-04-25 | 2018-10-23 | Uber Technologies, Inc. | Image-based pedestrian detection |
DE102017208718A1 (de) * | 2017-05-23 | 2018-11-29 | Conti Temic Microelectronic Gmbh | Verfahren zur Erkennung von Objekten in einem Bild einer Kamera |
DE102018209388A1 (de) * | 2018-06-13 | 2019-12-19 | Robert Bosch Gmbh | Erkennung fahrtrelevanter Situationen auf größere Entfernung |
WO2020054260A1 (ja) * | 2018-09-12 | 2020-03-19 | 日立オートモティブシステムズ株式会社 | 画像認識装置 |
CN111242117A (zh) * | 2018-11-28 | 2020-06-05 | 佳能株式会社 | 检测装置和方法及图像处理装置和系统 |
CN113075648B (zh) * | 2021-03-19 | 2024-05-17 | 中国舰船研究设计中心 | 一种无人集群目标定位信息的聚类与滤波方法 |
CN113240670A (zh) * | 2021-06-16 | 2021-08-10 | 亿嘉和科技股份有限公司 | 带电作业场景下针对待作业物体的图像分割方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004280194A (ja) * | 2003-03-12 | 2004-10-07 | Toshiba Corp | 前方監視装置及びその方法 |
JP2005235089A (ja) * | 2004-02-23 | 2005-09-02 | Japan Science & Technology Agency | 画像認識装置、画像認識方法及びプログラム |
JP2010039968A (ja) * | 2008-08-08 | 2010-02-18 | Hitachi Ltd | オブジェクト検出装置及び検出方法 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7783403B2 (en) * | 1994-05-23 | 2010-08-24 | Automotive Technologies International, Inc. | System and method for preventing vehicular accidents |
US9052386B2 (en) * | 2002-02-06 | 2015-06-09 | Nice Systems, Ltd | Method and apparatus for video frame sequence-based object tracking |
AU2003225228A1 (en) * | 2002-05-03 | 2003-11-17 | Donnelly Corporation | Object detection system for vehicle |
US8184159B2 (en) * | 2007-03-26 | 2012-05-22 | Trw Automotive U.S. Llc | Forward looking sensor system |
JP4359710B2 (ja) * | 2008-02-04 | 2009-11-04 | 本田技研工業株式会社 | 車両周辺監視装置、車両、車両周辺監視用プログラム、車両周辺監視方法 |
JP4521642B2 (ja) * | 2008-02-13 | 2010-08-11 | 本田技研工業株式会社 | 車両周辺監視装置、車両、車両周辺監視プログラム |
JP5083658B2 (ja) * | 2008-03-26 | 2012-11-28 | 本田技研工業株式会社 | 車両用車線認識装置、車両、及び車両用車線認識プログラム |
US8260539B2 (en) * | 2010-05-12 | 2012-09-04 | GM Global Technology Operations LLC | Object and vehicle detection and tracking using 3-D laser rangefinder |
US8548256B2 (en) * | 2010-07-01 | 2013-10-01 | Intellectual Ventures Fund 83 Llc | Method for fast scene matching |
US8724910B1 (en) * | 2010-08-31 | 2014-05-13 | Google Inc. | Selection of representative images |
JP5580233B2 (ja) * | 2011-03-22 | 2014-08-27 | 富士重工業株式会社 | 車外監視装置および車外監視方法 |
CN102985945B (zh) * | 2011-06-02 | 2016-09-07 | 松下知识产权经营株式会社 | 物体检测装置、物体检测方法 |
CN103597514B (zh) | 2011-06-10 | 2016-04-06 | 松下电器产业株式会社 | 物体检测框显示装置和物体检测框显示方法 |
JP5612621B2 (ja) * | 2012-02-28 | 2014-10-22 | 富士重工業株式会社 | 車外環境認識装置 |
-
2013
- 2013-09-04 JP JP2014554183A patent/JP5922257B2/ja not_active Expired - Fee Related
- 2013-09-04 CA CA2896291A patent/CA2896291A1/en not_active Abandoned
- 2013-09-04 CN CN201380067434.7A patent/CN104885122B/zh active Active
- 2013-09-04 WO PCT/JP2013/073830 patent/WO2014103433A1/ja active Application Filing
- 2013-09-04 US US14/654,591 patent/US9776564B2/en active Active
- 2013-09-04 EP EP13867122.7A patent/EP2940656B1/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004280194A (ja) * | 2003-03-12 | 2004-10-07 | Toshiba Corp | 前方監視装置及びその方法 |
JP2005235089A (ja) * | 2004-02-23 | 2005-09-02 | Japan Science & Technology Agency | 画像認識装置、画像認識方法及びプログラム |
JP2010039968A (ja) * | 2008-08-08 | 2010-02-18 | Hitachi Ltd | オブジェクト検出装置及び検出方法 |
Also Published As
Publication number | Publication date |
---|---|
US9776564B2 (en) | 2017-10-03 |
EP2940656A4 (en) | 2016-10-12 |
CA2896291A1 (en) | 2014-07-03 |
EP2940656A1 (en) | 2015-11-04 |
CN104885122B (zh) | 2017-06-23 |
US20150343948A1 (en) | 2015-12-03 |
CN104885122A (zh) | 2015-09-02 |
EP2940656B1 (en) | 2024-01-31 |
WO2014103433A1 (ja) | 2014-07-03 |
JPWO2014103433A1 (ja) | 2017-01-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5922257B2 (ja) | 車両周辺監視装置 | |
CN110163904B (zh) | 对象标注方法、移动控制方法、装置、设备及存储介质 | |
KR102109941B1 (ko) | 라이다 센서 및 카메라를 이용한 객체 검출 방법 및 그를 위한 장치 | |
WO2019223582A1 (en) | Target detection method and system | |
JP5856682B2 (ja) | 対象物識別装置 | |
CN112287860B (zh) | 物体识别模型的训练方法及装置、物体识别方法及系统 | |
JP5822255B2 (ja) | 対象物識別装置及びプログラム | |
WO2014084218A1 (ja) | 対象物検知装置 | |
CN105006175B (zh) | 主动识别交通参与者的动作的方法和系统及相应的机动车 | |
JP4171501B2 (ja) | 車両の周辺監視装置 | |
CN110765922A (zh) | 一种agv用双目视觉物体检测障碍物系统 | |
JP7091686B2 (ja) | 立体物認識装置、撮像装置および車両 | |
CN109426802A (zh) | 雷达和视觉传感器系统的融合 | |
CN111967396A (zh) | 障碍物检测的处理方法、装置、设备及存储介质 | |
CN113408324A (zh) | 目标检测方法、装置及系统、高级驾驶辅助系统 | |
Wu et al. | Fast pedestrian detection with laser and image data fusion | |
Han et al. | A real-time lidar and vision based pedestrian detection system for unmanned ground vehicles | |
JP6171608B2 (ja) | 物体検出装置 | |
CN115588187A (zh) | 基于三维点云的行人检测方法、装置、设备以及存储介质 | |
WO2018143277A1 (ja) | 画像特徴量出力装置、画像認識装置、画像特徴量出力プログラム、及び画像認識プログラム | |
JP2011150626A (ja) | 画像分類方法、装置、及びプログラム | |
Mori et al. | Classification of pole-like objects using point clouds and images captured by mobile mapping systems | |
Palmer et al. | Scale proportionate histograms of oriented gradients for object detection in co-registered visual and range data | |
CN112990049A (zh) | 用于车辆自动驾驶的aeb紧急制动方法、装置 | |
US20230267749A1 (en) | System and method of segmenting free space based on electromagnetic waves |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160329 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160413 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5922257 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |