JP7117169B2 - 物体検出方法及び物体検出装置 - Google Patents

物体検出方法及び物体検出装置 Download PDF

Info

Publication number
JP7117169B2
JP7117169B2 JP2018115918A JP2018115918A JP7117169B2 JP 7117169 B2 JP7117169 B2 JP 7117169B2 JP 2018115918 A JP2018115918 A JP 2018115918A JP 2018115918 A JP2018115918 A JP 2018115918A JP 7117169 B2 JP7117169 B2 JP 7117169B2
Authority
JP
Japan
Prior art keywords
candidate
threshold
moving object
vehicle
feature points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018115918A
Other languages
English (en)
Other versions
JP2019219838A (ja
Inventor
健夫 宮阪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Renault SAS
Original Assignee
Renault SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Renault SAS filed Critical Renault SAS
Priority to JP2018115918A priority Critical patent/JP7117169B2/ja
Publication of JP2019219838A publication Critical patent/JP2019219838A/ja
Application granted granted Critical
Publication of JP7117169B2 publication Critical patent/JP7117169B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、物体検出方法及び物体検出装置に関する。
従来より、カメラで撮像した画像から移動物体を検出する方法が知られている(特許文献1)。特許文献1に記載された発明は、異なる時刻に撮像された複数の画像にオプティカルフローモデルを適用することにより対応点を求め、この対応点に基づいて移動物体を検出する。
特開2017-68700号公報
特許文献1に記載された発明は、車両に対し比較的近い移動物体を検出対象としている。車両に対し比較的近い移動物体であれば、対応点が十分検出される可能性がある。しかしながら、車両に対し遠方の移動物体においては、検出される対応点は相対的に少ない。したがって、特許文献1に記載された発明は、車両に対し遠方の移動物体を検出できないおそれがある。
本発明は、上記問題に鑑みて成されたものであり、その目的は、車両に対し遠方の移動物体を検出できる物体検出方法及び物体検出装置を提供することである。
本発明の一態様に係る物体検出方法は、車両の周囲の画像から移動物体の候補を構成する複数の特徴点を抽出する。物体検出方法は、移動物体の候補が、車両に対し第1閾値よりも遠方に居るか否かを判定する。物体検出方法は、移動物体の候補が車両に対し第1閾値よりも遠方に居ると判定し、かつ、動きベクトルの分散が第2閾値以下である場合、移動物体の候補は遠方の移動物体であると判定する。
本発明によれば、車両に対し遠方の移動物体を検出できる。
図1は、本発明の実施形態に係る物体検出装置の概略構成図である。 図2は、本発明の実施形態に係る物体検出装置の一動作例を説明するフローチャートである。 図3は、本発明の実施形態に係る物体検出装置の一動作例を説明するフローチャートである。 図4は、本発明の実施形態に係る遠方領域を説明する図である。 図5は、本発明の実施形態に係る動きベクトルの一例を説明する図である。 図6は、本発明の実施形態に係る動きベクトルの他の例を説明する図である。
以下、本発明の実施形態について、図面を参照して説明する。図面の記載において同一部分には同一符号を付して説明を省略する。
(物体検出装置の構成)
図1を参照して、物体検出装置100の構成を説明する。図1に示すように、物体検出装置100は、ステレオカメラ10と、ステレオカメラ11と、コントローラ20とを備える。物体検出装置100は、自動運転機能を有する車両に適用されてもよく、自動運転機能を有しない車両に適用されてもよい。また、物体検出装置100は、自動運転と手動運転とを切り替えることが可能な車両に適用されてもよい。なお、本実施形態における自動運転とは、例えば、ブレーキ、アクセル、ステアリングなどのアクチュエータの内、少なくとも何れかのアクチュエータが乗員の操作なしに制御されている状態のことを指す。そのため、その他のアクチュエータが乗員の操作により作動していたとしても構わない。また、自動運転とは、加減速制御、横位置制御などのいずれかの制御が実行されている状態であればよい。また、本実施形態における手動運転とは、例えば、ブレーキ、アクセル、ステアリングを乗員が操作している状態のことを指す。
ステレオカメラ10、11は、自車両の周囲のステレオ画像を取得する。ステレオカメラ10、11の搭載場所は限定されないが、例えばステレオカメラ10は、自車両の前方左側に搭載される。また、ステレオカメラ11は、自車両の前方右側に搭載される。また、ステレオカメラ10、11は、互いの視野が撮像方向と直交する方向に沿って重なるように配置されてもよい。ステレオカメラ10、11は、自車両の周囲にある物体を複数の異なる方向から同時に撮像する。
コントローラ20(制御部)は、ステレオカメラ10、11により取得されたステレオ画像に基づいて、自車両の周囲の物体を検出する。ここで、本実施形態における物体とは、他車両、バイク、自転車、歩行者を含む移動物体でもよく、駐車車両を含む静止物体でもよい。コントローラ20は、CPU(中央処理装置)、メモリ(記憶部)、及び入出力部を備える汎用のマイクロコンピュータである。マイクロコンピュータには、物体検出装置100として機能させるためのコンピュータプログラムがインストールされている。コンピュータプログラムを実行することにより、マイクロコンピュータは、物体検出装置100が備える複数の情報処理回路として機能する。なお、ここでは、ソフトウェアによって物体検出装置100が備える複数の情報処理回路を実現する例を示すが、もちろん、以下に示す各情報処理を実行するための専用のハードウェアを用意して、情報処理回路を構成することも可能である。また、複数の情報処理回路を個別のハードウェアにより構成してもよい。コントローラ20は、複数の情報処理回路として、特徴点検出部21と、オプティカルフロー算出部22と、距離算出部23と、センサ運動推定部24と、絶対運動推定部25と、移動物体候補抽出部26と、移動物体判定部27と、遠方物体判定部28と、遠方物体追跡部29と、遠方移動物体判定部30と、出力部31と、を備える。
特徴点検出部21は、ステレオカメラ10、11により取得されたそれぞれのステレオ画像から、それぞれ周囲の画素と区別可能な特徴を持つ画素である複数の特徴点を抽出する。特徴点の抽出には、例えば非特許文献「Jianbo Shi and Carlo Tomasi, "Good Features to Track," 1994 IEEE Conference on Computer Vision and Pattern Recognition (CVPR'94), 1994, pp.593 - 600.」に記載の方法が用いられる。特徴点検出部21は、抽出した特徴点をオプティカルフロー算出部22と、距離算出部23に出力する。なお、以下では、特に断らない限り、特徴点は、複数あることを前提とする。
オプティカルフロー算出部22は、過去の画像の特徴点と現在の画像の特徴点から、オプティカルフローを算出する。オプティカルフローとは、ステレオ画像中における物体の動きをベクトルで表すものである。オプティカルフロー算出部22は、過去の特徴点に対応する実空間中の対象と同一の対象に対応する現在の特徴点を、関連する特徴点として検出する。オプティカルフロー算出部22は、互いに関連する、過去の特徴点と現在の特徴点との組み合わせをオプティカルフローとして算出する。オプティカルフローの算出には、例えば非特許文献「Bruce D. Lucasand Takeo Kanade. An Iterative Image Registration Technique with an Application to Stereo Vision. International Joint Conference on Artificial Intelligence, pages 674-679, 1981」に記載の方法が用いられる。オプティカルフロー算出部22は、算出したオプティカルフローをセンサ運動推定部24と、絶対運動推定部25に出力する。
距離算出部23は、互いに関連する第1画像(後述)の特徴点と、第2画像(後述)の特徴点との視差(ずれ量)から、ステレオカメラ10、11から特徴点に対応する対象までの距離を算出する。換言すれば、距離算出部23は、自車両から特徴点に対応する対象までの距離を算出する。また、距離算出部23は、互いに関連する第1画像の特徴点と第2画像の特徴点との視差から、これらの特徴点に対応する実空間中の3次元座標を算出する。ここで、上述の第1画像とは、ステレオカメラ10により取得されたステレオ画像である。上述の第2画像とは、ステレオカメラ11により取得されたステレオ画像である。距離算出部23は、算出した距離及び3次元座標をセンサ運動推定部24と、絶対運動推定部25と、移動物体候補抽出部26に出力する。
センサ運動推定部24は、ステレオカメラ10、11の運動、すなわち、3軸並進運動及び3軸回転運動を推定する。以下では、ステレオカメラ10、11の運動を、センサ運動と表現する場合がある。3軸並進運動は、自車両の前後方向、車幅方向、上下方向の運動である。3軸回転運動は、ロール軸、ピッチ軸及びヨー軸を含む3軸回りの回転運動である。
センサ運動推定部24は、例えば、時系列の画像に基づいてセンサ運動を推定してもよい。センサ運動推定部24は、過去の画像の特徴点における3次元座標と、現在の画像の特徴点とから、センサ運動を推定してもよい。センサ運動推定部24は、過去の画像の特徴点における3次元座標と、それぞれ関連する現在の画像の特徴点を、オプティカルフロー算出部22が算出したオプティカルフローに基づいて選択する。センサ運動推定部24は、過去の画像の特徴点における3次元座標とそれぞれ関連する現在の特徴点の画像上の位置を求める。センサ運動推定部24は、過去の画像の特徴点における3次元座標のそれぞれが、現在の画像上のそれぞれの位置に投影された場合に、画像上の位置誤差が最小になるステレオカメラ10、11の3軸並進運動及び3軸回転運動を推定する。センサ運動推定部24は、過去の画像の特徴点における3次元座標と、現在の画像の特徴点の3次元座標とからステレオカメラ10、11の3軸並進運動及び3軸回転運動を推定するようにしてもよい。また、センサ運動の推定方法として、非特許文献「Geiger, Andreas, Julius Ziegler, and Christoph Stiller. "Stereoscan: Dense 3d reconstruction in real-time." Intelligent Vehicles Symposium (IV), 2011 IEEE. Ieee, 2011.」に記載の方法が用いられてもよい。センサ運動推定部24は、推定したセンサ運動を絶対運動推定部25に出力する。
上記の処理により、単位時刻前における特徴点の3次元座標と、現在の3次元座標との差分が、単位時刻前から現在までのその特徴点の3次元運動ベクトルとなる。自車両が移動している場合、3次元運動ベクトルには、単位時刻前から現在までの自車両の移動量が加算される。このため、自車両の移動量(センサ運動)を取り除くことにより、対象(特徴点)の絶対移動量が推定される。絶対運動推定部25は、センサ運動推定部24によって推定されたセンサ運動を用いて、単位時刻前における特徴点の3次元座標を、現在のセンサ座標系に変換する。これにより、絶対運動推定部25は、センサ運動の影響を取り除くことができる。絶対運動推定部25は、センサ座標系において、単位時刻前における特徴点の3次元座標と、現在の特徴点における3次元座標との差分をとることで、現在の特徴点における絶対3次元運動を推定する。絶対運動推定部25は、推定した絶対3次元運動を移動物体候補抽出部26に出力する。絶対3次元運動とは、センサ運動の影響が取り除かれた特徴点の運動をいう。
移動物体候補抽出部26は、絶対運動推定部25によって推定された現在の画像の特徴点における絶対3次元運動と、距離算出部23によって算出された3次元座標とに基づいて、移動物体候補を抽出する。具体的には、移動物体候補抽出部26は、現在の画像の特徴点における絶対3次元運動ベクトルの長さを第1閾値と比較する。絶対3次元運動ベクトルの長さが第1閾値以上である場合、移動物体候補抽出部26は、この絶対3次元運動ベクトルにかかる特徴点を移動物体候補点として抽出する。次に、移動物体候補抽出部26は、抽出した移動物体候補点と、その近傍の移動物体候補点にかかる3次元座標及び絶対3次元運動と、を合わせたベクトルの重み付ユークリッド距離を算出する。次に、移動物体候補抽出部26は、重み付ユークリッド距離を第2閾値と比較する。重み付ユークリッド距離が第2閾値以下である場合、移動物体候補抽出部26は、2つの特徴点を一つのクラスタとして、クラスタリングする。移動物体候補抽出部26は、この処理を再帰的にすべての移動物体候補点について繰り返すことにより、移動物体候補(クラスタ)を抽出する。移動物体候補抽出部26は、抽出した移動物体候補を移動物体判定部27に出力する。なお、第1~2閾値(後述する第3~13閾値を含む)は、予め実験やシミュレーションによって設定され、記憶部に記憶される。また、これらの閾値は、適宜変更され得る。
移動物体判定部27は、移動物体候補抽出部26によって抽出された移動物体候補を構成する特徴点の絶対3次元運動ベクトルの長さの平均値を算出する。移動物体判定部27は、絶対3次元運動ベクトルの長さの平均値を第3閾値と比較する。また、移動物体判定部27は、移動物体候補を構成する特徴点の数を第4閾値と比較する。絶対3次元運動ベクトルの長さの平均値が第3閾値以上であり、かつ移動物体候補を構成する特徴点の数が第4閾値以上である場合、移動物体判定部27は、移動物体候補は移動物体であると判定する。一方、上記条件が満たされない場合、すなわち絶対3次元運動ベクトルの長さの平均値が第3閾値より小さい、または、移動物体候補を構成する特徴点の数が第4閾値より小さい場合、移動物体判定部27は、移動物体候補は移動物体ではないと判定する。移動物体判定部27は、判定結果を遠方物体判定部28と、出力部31に出力する。なお、後述するように、移動物体判定部27は、移動物体候補を構成する特徴点の速度、または特徴点の数に基づいて、移動物体候補が移動物体か否かを判定してもよい。
遠方物体判定部28は、移動物体判定部27によって移動物体と判定されなかった移動物体候補(クラスタ)が、自車両に対し第5閾値よりも遠方に居るか否かを判定する。以下では、移動物体判定部27によって移動物体と判定されなかった移動物体候補を、移動物体候補Aと表現する場合がある。遠方物体判定部28は、移動物体候補Aを構成するそれぞれ特徴点から自車両までの距離の平均値を第5閾値と比較してもよい。この距離の平均値が、第5閾値より大きい場合、遠方物体判定部28は、移動物体候補Aは自車両に対し遠方に居ると判定する。遠方物体判定部28は、移動物体候補Aを遠方物体追跡部29に出力する。なお、不等号は、適宜変更されてもよい。つまり、遠方物体判定部28は、距離の平均値が、第5閾値以上の場合、移動物体候補Aは自車両に対し遠方に居ると判定してもよい。
遠方物体追跡部29は、移動物体候補Aを追跡する。具体的には、遠方物体追跡部29は、オプティカルフローを用いて、単位時刻前の移動物体候補Aに係る特徴点と現在の移動物体候補Aに係る特徴点との対応付けを行う。遠方物体追跡部29は、対応付けられた各時刻の特徴点を軌跡として蓄積する。そして、遠方物体追跡部29は、今までに蓄積した各時刻の移動物体候補Aに係る特徴点に現在のセンサ運動の逆運動を適用することで、過去のすべての特徴点を現在のセンサ座標系に変換する。このように遠方物体追跡部29は、特徴点に係る動きベクトルを算出する。遠方物体追跡部29は、移動物体候補Aを追跡した時間(追跡に成功した時間)と、動きベクトルとを遠方移動物体判定部30に出力する。
遠方移動物体判定部30は、移動物体候補Aの追跡時間が第6閾値以上であり、かつ動きベクトルの分散が第7閾値以下である場合、移動物体候補Aは、自車両に対し遠方に居る移動物体であると判定する。動きベクトルの分散は、分散共分散行列などの周知の方法によって算出されてもよく、動きベクトルの長さ、向きなどに基づいて算出されてもよい。
次に、図2~3に示すフローチャート及び図4~6を参照して、物体検出装置100の一動作例を説明する。
図2に示すステップS101において、ステレオカメラ10、11は、自車両の周囲を撮像する。処理はステップS103に進み、特徴点検出部21は、ステレオカメラ10、11により取得されたそれぞれのステレオ画像から、複数の特徴点を抽出する。なお、図2~3に示すフローチャートは、図4に示す遠方領域50に含まれる移動物体(他車両)を検出するための処理である。なお、図4に示す遠方領域50は、自車両から見た遠方の領域である。
処理はステップS105に進み、オプティカルフロー算出部22は、ステップS103で抽出された複数の特徴点のオプティカルフローを算出する。具体的には、オプティカルフロー算出部22は、物体検出装置100の起動後の初回のステップS105ではオプティカルフローを算出せず、2回目以降のステップS105において、前回、即ち1周期前のステップS103において抽出された過去の特徴点と、今回のステップS103において抽出された現在の特徴点とを関連付け、互いに関連する特徴点の動きベクトルの分布をオプティカルフローとして算出する。動きベクトルとは、物体の移動方向や移動量を表すものである。動きベクトルの向きは物体の移動方向を表し、動きベクトルの長さは、物体の移動量を表す。
処理はステップS107に進み、距離算出部23は、互いに関連する第1画像の特徴点と第2画像の特徴点との視差を算出する。距離算出部23は、算出した視差に基づいて、複数の特徴点に対応する実空間中の3次元座標を算出する。また、距離算出部23は、互いに関連する第1画像の特徴点と、第2画像の特徴点との視差から、ステレオカメラ10、11から特徴点に対応する対象までの距離を算出する。
処理はステップS109に進み、センサ運動推定部24は、ステレオカメラ10、11の3軸並進運動及び3軸回転運動を推定する。センサ運動推定部24は、初回のステップS109では、センサ運動を推定しない。センサ運動推定部24は、2回目以降のステップS109において、前回のステップS103において抽出された過去の画像の特徴点の3次元座標と、今回のステップS103において抽出された現在の画像の特徴点とから、センサ運動を推定する。
処理はステップS110に進み、絶対運動推定部25は、ステップS109で推定されたセンサ運動を用いて、単位時刻前における特徴点の3次元座標を、現在のセンサ座標系に変換する。これにより、絶対運動推定部25は、センサ運動の影響を取り除くことができる。絶対運動推定部25は、センサ座標系において、単位時刻前における特徴点の3次元座標と、現在の特徴点における3次元座標との差分をとることで、現在の特徴点における絶対3次元運動を推定する。
処理はステップS111に進み、移動物体候補抽出部26は、特徴点をクラスタリングし、移動物体候補を抽出する。移動物体判定部27は、所定条件を満たす移動物体候補は移動物体であると判定する。一方、移動物体判定部27は、所定条件を満たさない移動物体候補は移動物体ではないと判定する。所定条件とは、上述したように、絶対3次元運動ベクトルの長さの平均値、移動物体候補を構成する特徴点の数などである。ただし、所定条件は、これに限定されない。例えば、ステップS113において、移動物体判定部27は、ステップS111で抽出された移動物体候補の速度が第8閾値以上か否かを判定してもよい。移動物体判定部27は、移動物体候補の速度が第8閾値以上である場合、移動物体候補は移動物体であると判定してもよい(ステップS113でYes)。一方、移動物体候補の速度が第8閾値より小さい場合、移動物体判定部27は、移動物体候補は移動物体でないと判定してもよい(ステップS113でNo)。速度が同じであっても、自車両に対し遠方に居る移動物体候補の速度は、自車両に対し近傍に居る移動物体候補の速度より、相対的に遅いと観測される。このため、移動物体判定部27は、移動物体候補の速度を用いて移動物体候補が移動物体か否かを判定しうる。
さらに移動物体判定部27は、ステップS115に示すように、移動物体候補を構成する特徴点の数も考慮して、移動物体候補が移動物体か否かを判定してもよい。画像上において、自車両から離れるほど、抽出される特徴点は少なくなる傾向がある。よって、移動物体候補の速度が第8閾値以上であっても、特徴点の数が第9閾値より少なければ、移動物体判定部27は、移動物体候補は移動物体でないと判定してもよい(ステップS115でNo)。一方、移動物体候補の速度が第8閾値以上であり、かつ、特徴点の数が第9閾値以上である場合、移動物体判定部27は、移動物体候補は移動物体であると判定してもよい(ステップS115でYes)。
ステップS113、S115において、移動物体判定部27によって移動物体ではないと判定された移動物体候補であっても、移動物体候補が自車両に対し遠方に居るためにこのように判定された場合がある。そのため、本実施形態では処理はステップS119に進み、遠方物体判定部28は、移動物体候補Aが自車両に対し遠方に居るか否かを判定する。移動物体候補Aは、ステップS113、S115において移動物体判定部27によって移動物体ではないと判定された移動物体候補である。移動物体ではないと判定された移動物体候補であっても、後述の処理を行うことにより、自車両に対し遠方に居る移動物体であると判定されうる場合がある。
遠方物体判定部28は、移動物体候補Aを構成するそれぞれの特徴点から自車両までの距離の平均値を算出し、この平均距離と第5閾値とを比較する。この距離の平均値が第5閾値以上である場合(ステップS119でYes)、遠方物体判定部28は、移動物体候補Aは自車両に対し遠方に居ると判定する。一方、この距離の平均値が第5閾値より小さい場合(ステップS119でNo)、処理はステップS123に進み、遠方物体判定部28は、移動物体候補Aはノイズであると判定する。なお、ステップS119において、遠方物体判定部28は、画像上における移動物体候補Aを構成する複数の特徴点の位置に基づいて、移動物体候補Aが自車両に対し遠方に居るか否かを判定してもよい。例えば、画像上において、複数の特徴点の上下方向における座標点が、第10閾値以上である場合、遠方物体判定部28は、移動物体候補Aは自車両に対し遠方に居ると判定してもよい。第10閾値は、特に限定されないが、例えば画像の上下方向における中心の座標である。また、遠方物体判定部28は、レーダ、ライダ、またはソナーなどの距離計測器を用いて移動物体候補Aが自車両に対し遠方に居るか否かを判定してもよい。距離計測器によって計測された移動物体候補Aから自車両までの距離が第5閾値以上である場合、遠方物体判定部28は、移動物体候補Aは自車両に対し遠方に居ると判定してもよい。
処理はステップS121に進み、遠方物体判定部28は、移動物体候補Aを構成する特徴点の数が第11閾値以上であるか否かを判定する。第11閾値は、ステップS115における第9閾値より小さい。図5に示すように移動物体候補Aを構成する特徴点の数が第11閾値以上である場合(ステップS121でYes)、処理はステップS127に進む。一方、図6に示すように移動物体候補Aを構成する特徴点の数が第11閾値より少ない場合(ステップS121でNo)、処理はステップS125に進む。ステップS127において、遠方移動物体判定部30は、移動物体候補Aを構成する特徴点にかかる動きベクトルの分散が第7閾値以下か否かを判定する。図5に示すように、移動物体候補Aを構成する特徴点にかかる動きベクトルの分散が第7閾値以下である場合(ステップS127でYes)、遠方移動物体判定部30は、移動物体候補Aは、自車両に対し遠方に居る移動物体であると判定する(ステップS133)。なお、図5及び図6に示す矢印は動きベクトルである。一方、移動物体候補Aを構成する特徴点にかかる動きベクトルの分散が第7閾値より大きい場合(ステップS127でNo)、処理はステップS125に進む。
ステップS125において、遠方物体追跡部29は、オプティカルフローを用いて、単位時刻前の移動物体候補Aに係る特徴点と現在の移動物体候補Aに係る特徴点との対応付けを行い、移動物体候補Aを追跡する。遠方物体追跡部29は、追跡した結果に基づいて移動物体候補Aに係る特徴点の動きベクトルを算出する。追跡時間(追跡に成功した時間)が第6閾値以上である場合(ステップS129でYes)、処理はステップS131に進む。追跡時間が第6閾値より小さい場合(ステップS129でNo)、処理はステップS125に戻る。なお、遠方物体追跡部29は、移動物体候補Aを追跡する際に、カルマンフィルタ、拡張カルマンフィルタ、パーティクルフィルタなどの時系列フィルタを用いて、移動物体候補Aの位置、速度などの状態を推定してもよい。また、遠方物体追跡部29は、移動物体候補Aを追跡する際に、画像上における移動物体候補Aの領域内で新たな特徴点が検出された場合、新しい特徴点を加えて追跡を継続してもよい。また、遠方物体追跡部29は、移動物体候補Aを構成する特徴点の追跡に失敗した場合、失敗に係る特徴点を取り除いて追跡を継続してもよい。また、遠方物体追跡部29は、追跡に成功している特徴点の数が第12閾値以下になった場合、追跡処理を中止してもよい。また、遠方物体追跡部29は、移動物体候補Aを構成する特徴点の数に応じて第6閾値を変更してもよい。例えば、遠方物体追跡部29は、移動物体候補Aを構成する特徴点の数が多いほど、第6閾値を小さくしてもよい。
ステップS131において、遠方移動物体判定部30は、図6に示すように、動きベクトルの分散が第7閾値以下である場合(ステップS131でYes)、移動物体候補Aは、自車両に対し遠方に居る移動物体であると判定する。一方、動きベクトルの分散が第7閾値より大きい場合(ステップS131でNo)、処理はステップS125に戻る。なお、遠方移動物体判定部30は、動きベクトルの移動方向に係る変化量(例えばカーブ)に基づいて、移動物体候補Aは自車両に対し遠方に居る移動物体であると判定してもよい。例えば、遠方移動物体判定部30は、動きベクトルの移動方向に係る変化量が第13閾値以下である場合、移動物体候補Aは自車両に対し遠方に居る移動物体であると判定してもよい。
以上説明したように、本実施形態に係る物体検出装置100によれば、以下の作用効果が得られる。
物体検出装置100は、車両の周囲の画像を取得し、取得した画像から移動物体候補を構成する複数の特徴点を抽出する。物体検出装置100は、異なる時刻に取得した複数の画像から複数の特徴点の動きベクトルの分散を算出する。物体検出装置100は、移動物体候補が、車両に対し第5閾値よりも遠方に居るか否かを判定する。物体検出装置100は、移動物体候補が車両に対し第5閾値よりも遠方に居ると判定し、かつ、動きベクトルの分散が第7閾値以下である場合、移動物体候補は自車両に対し遠方に居る移動物体と判定する。これにより、物体検出装置100は、上述した従来技術では検出できない遠方の移動物体を検出することができる。
また、物体検出装置100は、移動物体候補が遠方に居ると判定した場合、移動物体候補を追跡する。そして、移動物体候補を追跡した時間が第6閾値以上である場合、物体検出装置100は、移動物体候補は自車両に対し遠方に居る移動物体と判定する。これにより、遠方の移動物体の検出精度が向上する。
また、物体検出装置100は、自車両と複数の特徴点との間の距離の平均値を取得し、この距離の平均値が第5閾値以上である場合、移動物体候補が遠方に居ると判定する。これにより、判定精度が向上する。
また、物体検出装置100は、画像上において、複数の特徴点の上下方向における座標点が、第10閾値以上である場合、移動物体候補は自車両に対し遠方に居ると判定してもよい。これにより、判定精度が向上する。
また、物体検出装置100は、レーダ、ライダ、またはソナーなどの距離計測器を用いて移動物体候補が自車両に対し遠方に居るか否かを判定してもよい。これにより、判定精度が向上する。
また、物体検出装置100は、移動物体候補を追跡する際に、カルマンフィルタ、拡張カルマンフィルタ、またはパーティクルフィルタを用いて、移動物体候補の状態を推定してもよい。これにより、物体検出装置100は、移動物体候補の位置、速度などを精度よく推定でき、移動物体候補の追跡精度が向上する。
また、物体検出装置100は、移動物体候補を追跡する際に、画像上における移動物体候補の領域内で新たな特徴点が検出された場合、新しい特徴点を加えて追跡を継続してもよい。これにより、移動物体候補の追跡精度が向上する。
また、物体検出装置100は、移動物体候補を追跡する際に、追跡に成功している特徴点の数が第12閾値以下になった場合、追跡処理を中止してもよい。これにより、物体検出装置100は、移動物体候補の追跡を早期に中止することができる。
また、物体検出装置100は、移動物体候補を構成する特徴点の数に応じて第6閾値を変更してもよい。例えば、物体検出装置100は、移動物体候補を構成する特徴点の数が多いほど、第6閾値を小さくしてもよい。これにより、物体検出装置100は、早期に移動物体か否かを判定することができ、判定までに要する時間は短縮される。
また、物体検出装置100は、動きベクトルの移動方向に係る変化量(例えばカーブ)に基づいて、移動物体候補は自車両に対し遠方に居る移動物体であると判定してもよい。これにより、物体検出装置100は、回転などの複雑な運動を行う物体についても移動物体であると判定しうる。
上述の実施形態に記載される各機能は、1または複数の処理回路により実装され得る。処理回路は、電気回路を含む処理装置等のプログラムされた処理装置を含む。処理回路は、また、記載された機能を実行するようにアレンジされた特定用途向け集積回路(ASIC)や回路部品等の装置を含む。また、物体検出装置100は、コンピュータの機能を改善しうる。
上記のように、本発明の実施形態を記載したが、この開示の一部をなす論述及び図面はこの発明を限定するものであると理解すべきではない。この開示から当業者には様々な代替実施の形態、実施例及び運用技術が明らかとなろう。
10、11 ステレオカメラ
20 コントローラ
21 特徴点検出部
22 オプティカルフロー算出部
23 距離算出部
24 センサ運動推定部
25 絶対運動推定部
26 移動物体候補抽出部
27 移動物体判定部
28 遠方物体判定部
29 遠方物体追跡部
30 遠方移動物体判定部
31 出力部
100 物体検出装置

Claims (14)

  1. 車両の周囲の画像を取得し、
    前記画像から移動物体の候補を構成する複数の特徴点を抽出し、
    異なる時刻に取得された複数の画像から前記複数の特徴点の動きベクトルの分散を算出し、
    前記候補が、前記車両に対し第1閾値よりも遠方に居るか否かを判定し、
    前記候補が前記遠方に居ると判定した場合、前記候補を追跡し、
    記候補が前記車両に対し前記第1閾値よりも遠方に居ると判定し、かつ、前記動きベクトルの分散が第2閾値以下であり、かつ、前記候補を追跡した時間が第3閾値以上である場合、前記候補は前記遠方の移動物体であると判定する
    ことを特徴とする物体検出方法。
  2. 車両の周囲の画像を取得し、
    前記画像から移動物体の候補を構成する複数の特徴点を抽出し、
    異なる時刻に取得された複数の画像から前記複数の特徴点の動きベクトルの分散を算出し、
    前記候補が、前記車両に対し第1閾値よりも遠方に居るか否かを判定し、
    前記画像の上下方向において、前記複数の特徴点における座標点が、第5閾値以上である場合、前記候補が前記遠方に居ると判定し、
    前記候補が前記車両に対し前記第1閾値よりも遠方に居ると判定し、かつ、前記動きベクトルの分散が第2閾値以下である場合、前記候補は前記遠方の移動物体であると判定する
    ことを特徴とする物体検出方法。
  3. 車両の周囲の画像を取得し、
    前記画像から移動物体の候補を構成する複数の特徴点を抽出し、
    異なる時刻に取得された複数の画像から前記複数の特徴点の動きベクトルの分散を算出し、
    前記候補が、前記車両に対し第1閾値よりも遠方に居るか否かを判定し、
    前記候補が前記車両に対し前記第1閾値よりも遠方に居ると判定し、かつ、前記動きベクトルの分散が第2閾値以下である場合、前記候補は前記遠方の移動物体であると判定し、
    前記動きベクトルの変化量が第8閾値以下である場合、前記候補は前記遠方の移動物体であると判定する
    ことを特徴とする物体検出方法。
  4. 前記車両と前記複数の特徴点との間の距離の平均値を取得し、
    前記距離の平均値が第4閾値以上である場合、前記候補が前記遠方に居ると判定する
    ことを特徴とする請求項1に記載の物体検出方法。
  5. 前記画像の上下方向において、前記複数の特徴点における座標点が、第5閾値以上である場合、前記候補が前記遠方に居ると判定する
    ことを特徴とする請求項1に記載の物体検出方法。
  6. 前記車両に搭載されたレーダ、ライダ、またはソナーを用いて前記車両と前記候補との間の距離を取得し、
    前記距離が第6閾値以上である場合、前記候補が前記車両の遠方に居ると判定する
    ことを特徴とする請求項1に記載の物体検出方法。
  7. 前記候補を追跡する際に、カルマンフィルタ、拡張カルマンフィルタ、またはパーティクルフィルタを用いて、前記候補の状態を推定する
    ことを特徴とする請求項1に記載の物体検出方法。
  8. 前記候補を追跡する際に、前記画像上における前記候補の領域内で新しい特徴点を検出した場合、前記新しい特徴点を加えて前記候補を追跡する
    ことを特徴とする請求項1または7に記載の物体検出方法。
  9. 前記候補を追跡する際に、追跡に成功している特徴点の数が第7閾値以下になった場合、前記候補の追跡を中止する
    ことを特徴とする請求項1、7、8のいずれか1項に記載の物体検出方法。
  10. 前記候補を追跡する際に、前記複数の特徴点の数に応じて前記第3閾値を変更する
    ことを特徴とする請求項1に記載の物体検出方法。
  11. 前記動きベクトルの変化量が第8閾値以下である場合、前記候補は前記遠方の移動物体であると判定する
    ことを特徴とする請求項1、2、4~10のいずれか1項に記載の物体検出方法。
  12. 車両に搭載され、前記車両の周囲の画像を取得するカメラと、
    制御部と、
    第1閾値及び第2閾値を記憶する記憶部と、を備え、
    前記制御部は、
    前記画像から移動物体の候補を構成する複数の特徴点として抽出し、
    異なる時刻に取得された複数の画像から前記複数の特徴点の動きベクトルの分散を算出し、
    前記候補が、前記車両に対し第1閾値よりも遠方に居るか否かを判定し、
    前記候補が前記遠方に居ると判定した場合、前記候補を追跡し、
    前記候補が前記車両に対し前記第1閾値よりも遠方に居ると判定し、かつ、前記動きベクトルの分散が第2閾値以下であり、かつ、前記候補を追跡した時間が第3閾値以上である場合、前記候補は前記遠方の移動物体であると判定する
    ことを特徴とする物体検出装置。
  13. 車両に搭載され、前記車両の周囲の画像を取得するカメラと、
    制御部と、
    第1閾値及び第2閾値を記憶する記憶部と、を備え、
    前記制御部は、
    前記画像から移動物体の候補を構成する複数の特徴点を抽出し、
    異なる時刻に取得された複数の画像から前記複数の特徴点の動きベクトルの分散を算出し、
    前記候補が、前記車両に対し第1閾値よりも遠方に居るか否かを判定し、
    前記画像の上下方向において、前記複数の特徴点における座標点が、第5閾値以上である場合、前記候補が前記遠方に居ると判定し、
    前記候補が前記車両に対し前記第1閾値よりも遠方に居ると判定し、かつ、前記動きベクトルの分散が第2閾値以下である場合、前記候補は前記遠方の移動物体であると判定する
    ことを特徴とする物体検出装置。
  14. 車両に搭載され、前記車両の周囲の画像を取得するカメラと、
    制御部と、
    第1閾値及び第2閾値を記憶する記憶部と、を備え、
    前記制御部は、
    前記画像から移動物体の候補を構成する複数の特徴点を抽出し、
    異なる時刻に取得された複数の画像から前記複数の特徴点の動きベクトルの分散を算出し、
    前記候補が、前記車両に対し第1閾値よりも遠方に居るか否かを判定し、
    前記候補が前記車両に対し前記第1閾値よりも遠方に居ると判定し、かつ、前記動きベクトルの分散が第2閾値以下である場合、前記候補は前記遠方の移動物体であると判定し、
    前記動きベクトルの変化量が第8閾値以下である場合、前記候補は前記遠方の移動物体であると判定する
    ことを特徴とする物体検出装置。
JP2018115918A 2018-06-19 2018-06-19 物体検出方法及び物体検出装置 Active JP7117169B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018115918A JP7117169B2 (ja) 2018-06-19 2018-06-19 物体検出方法及び物体検出装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018115918A JP7117169B2 (ja) 2018-06-19 2018-06-19 物体検出方法及び物体検出装置

Publications (2)

Publication Number Publication Date
JP2019219838A JP2019219838A (ja) 2019-12-26
JP7117169B2 true JP7117169B2 (ja) 2022-08-12

Family

ID=69096658

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018115918A Active JP7117169B2 (ja) 2018-06-19 2018-06-19 物体検出方法及び物体検出装置

Country Status (1)

Country Link
JP (1) JP7117169B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102237131B1 (ko) * 2020-05-13 2021-04-09 주식회사 파이리코 객체를 포함하는 이미지를 처리하는 장치 및 방법

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011123548A (ja) 2009-12-08 2011-06-23 Toyota Motor Corp 車両前方監視装置
JP2011180835A (ja) 2010-03-01 2011-09-15 Honda Motor Co Ltd 対象物の位置を算出するための装置
JP2014135039A (ja) 2012-12-13 2014-07-24 Denso Corp 移動体検出装置
JP2016142647A (ja) 2015-02-03 2016-08-08 クラリオン株式会社 画像処理装置、および車両システム
WO2017094140A1 (ja) 2015-12-02 2017-06-08 三菱電機株式会社 物体検出装置及び物体検出方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011123548A (ja) 2009-12-08 2011-06-23 Toyota Motor Corp 車両前方監視装置
JP2011180835A (ja) 2010-03-01 2011-09-15 Honda Motor Co Ltd 対象物の位置を算出するための装置
JP2014135039A (ja) 2012-12-13 2014-07-24 Denso Corp 移動体検出装置
JP2016142647A (ja) 2015-02-03 2016-08-08 クラリオン株式会社 画像処理装置、および車両システム
WO2017094140A1 (ja) 2015-12-02 2017-06-08 三菱電機株式会社 物体検出装置及び物体検出方法

Also Published As

Publication number Publication date
JP2019219838A (ja) 2019-12-26

Similar Documents

Publication Publication Date Title
US10242576B2 (en) Obstacle detection device
US10762643B2 (en) Method for evaluating image data of a vehicle camera
Barth et al. Where will the oncoming vehicle be the next second?
JP4751429B2 (ja) 物体追跡の方法
JP3719095B2 (ja) 挙動検出装置および勾配検出方法
Barth et al. Estimating the driving state of oncoming vehicles from a moving platform using stereo vision
KR101961001B1 (ko) 단일-카메라 거리 추정
Barth et al. Tracking oncoming and turning vehicles at intersections
JP3915746B2 (ja) 車両用外界認識装置
JP5023186B2 (ja) 3dワーピング手法と固有対象物運動(pom)の検出の組み合わせに基づく対象物の動き検出システム
JP7075833B2 (ja) 物体検出方法及び物体検出装置
JP4536674B2 (ja) 歩行者認識装置
KR102507248B1 (ko) 에고모션 추정 시스템 및 방법
JP2011065338A (ja) 対象物追跡装置及びプログラム
CN105654031B (zh) 用于物体检测的系统和方法
JP6939198B2 (ja) 物体検出方法及び物体検出装置
JP6493000B2 (ja) 路面標示検出装置及び路面標示検出方法
US8213684B2 (en) Motion estimating device
JP7117169B2 (ja) 物体検出方法及び物体検出装置
JP2018205950A (ja) 自車位置推定用環境地図生成装置、自車位置推定装置、自車位置推定用環境地図生成プログラム、及び自車位置推定プログラム
JP7142468B2 (ja) 移動体追跡装置
JP7223587B2 (ja) 物体運動推定方法及び物体運動推定装置
JP2020076714A (ja) 位置姿勢推定装置
JP7406635B2 (ja) 運転支援装置
JP7205049B2 (ja) 移動ベクトル算出方法及び移動ベクトル算出装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210210

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220215

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220705

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220801

R150 Certificate of patent or registration of utility model

Ref document number: 7117169

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150