JP7075833B2 - 物体検出方法及び物体検出装置 - Google Patents

物体検出方法及び物体検出装置 Download PDF

Info

Publication number
JP7075833B2
JP7075833B2 JP2018121515A JP2018121515A JP7075833B2 JP 7075833 B2 JP7075833 B2 JP 7075833B2 JP 2018121515 A JP2018121515 A JP 2018121515A JP 2018121515 A JP2018121515 A JP 2018121515A JP 7075833 B2 JP7075833 B2 JP 7075833B2
Authority
JP
Japan
Prior art keywords
vehicle
feature points
object detection
lane
motion vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018121515A
Other languages
English (en)
Other versions
JP2020003971A (ja
Inventor
健夫 宮阪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Renault SAS
Original Assignee
Renault SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Renault SAS filed Critical Renault SAS
Priority to JP2018121515A priority Critical patent/JP7075833B2/ja
Publication of JP2020003971A publication Critical patent/JP2020003971A/ja
Application granted granted Critical
Publication of JP7075833B2 publication Critical patent/JP7075833B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、物体検出方法及び物体検出装置に関する。
従来より他車両が、自車両が走行する車線(以下、自車線という)に割り込むか否かを判定する方法が知られている(特許文献1)。特許文献1に記載された発明は、他車両と自車線との距離に基づいて、他車両が自車線に割り込むか否かを判定する。
特開2017-128178号公報
しかしながら、特許文献1に記載された発明は、他車両と自車線との距離が所定値以下になるまで割り込みを判定しないため、割り込みの直前にならないと判定できないおそれがある。先行車追従制御などで速度制御が行われる場合、割り込みの判定が遅れると急な減速が発生し、乗員が違和感を感じるおそれがある。
本発明は、上記問題に鑑みて成されたものであり、その目的は、割り込みを早期に判定する物体検出方法及び物体検出装置を提供することである。
本発明の一態様に係る物体検出方法は、取得された画像から複数の特徴点を抽出し、複数の特徴点の中から、移動物体を構成する複数の特徴点を抽出する。物体検出方法は、異なる時刻に取得された複数の画像から移動物体を構成する複数の特徴点の動きベクトルの分散を算出する。物体検出方法は、動きベクトルの道路幅方向における成分の分散が閾値以上である場合、移動物体は自車両が走行する車線に割り込む可能性が有ると判定する。
本発明によれば、割り込みを早期に判定できる。
図1は、本発明の実施形態に係る物体検出装置の概略構成図である。 図2は、本発明の実施形態に係る物体検出装置の一動作例を説明するフローチャートである。 図3は、本発明の実施形態に係る動きベクトルの一例を説明する図である。 図4は、本発明の実施形態に係る動きベクトルの他の例を説明する図である。 図5は、本発明の実施形態に係る動きベクトルのさらに他の例を説明する図である。
以下、本発明の実施形態について、図面を参照して説明する。図面の記載において同一部分には同一符号を付して説明を省略する。
(物体検出装置の構成)
図1を参照して、物体検出装置100の構成を説明する。図1に示すように、物体検出装置100は、ステレオカメラ10と、ステレオカメラ11と、コントローラ20と、車両制御部30とを備える。物体検出装置100は、自動運転機能を有する車両に適用されてもよく、自動運転機能を有しない車両に適用されてもよい。また、物体検出装置100は、自動運転と手動運転とを切り替えることが可能な車両に適用されてもよい。なお、本実施形態における自動運転とは、例えば、ブレーキ、アクセル、ステアリングなどのアクチュエータの内、少なくとも何れかのアクチュエータが乗員の操作なしに制御されている状態のことを指す。そのため、その他のアクチュエータが乗員の操作により作動していたとしても構わない。また、自動運転とは、加減速制御、横位置制御などのいずれかの制御が実行されている状態であればよい。また、本実施形態における手動運転とは、例えば、ブレーキ、アクセル、ステアリングを乗員が操作している状態のことを指す。
ステレオカメラ10、11は、自車両の周囲のステレオ画像を取得する。ステレオカメラ10、11の搭載場所は限定されないが、例えばステレオカメラ10は、自車両の前方左側に搭載される。また、ステレオカメラ11は、自車両の前方右側に搭載される。また、ステレオカメラ10、11は、互いの視野が撮像方向と直交する方向に沿って重なるように配置されてもよい。ステレオカメラ10、11は、自車両の周囲にある物体を複数の異なる方向から同時に撮像する。
コントローラ20(制御部)は、ステレオカメラ10、11により取得されたステレオ画像に基づいて、自車両の周囲の物体を検出する。ここで、本実施形態における物体とは、他車両、バイク、自転車、歩行者を含む移動物体でもよく、駐車車両を含む静止物体でもよい。コントローラ20は、CPU(中央処理装置)、メモリ(記憶部)、及び入出力部を備える汎用のマイクロコンピュータである。マイクロコンピュータには、物体検出装置100として機能させるためのコンピュータプログラムがインストールされている。コンピュータプログラムを実行することにより、マイクロコンピュータは、物体検出装置100が備える複数の情報処理回路として機能する。なお、ここでは、ソフトウェアによって物体検出装置100が備える複数の情報処理回路を実現する例を示すが、もちろん、以下に示す各情報処理を実行するための専用のハードウェアを用意して、情報処理回路を構成することも可能である。また、複数の情報処理回路を個別のハードウェアにより構成してもよい。コントローラ20は、複数の情報処理回路として、特徴点検出部21と、オプティカルフロー算出部22と、距離算出部23と、センサ運動推定部24と、絶対運動推定部25と、物体検出部26と、物体追跡部27と、割込み判定部28と、を備える。
特徴点検出部21は、ステレオカメラ10、11により取得されたそれぞれのステレオ画像から、それぞれ周囲の画素と区別可能な特徴を持つ画素である複数の特徴点を抽出する。特徴点の抽出には、例えば非特許文献「Jianbo Shi and Carlo Tomasi, "Good Features to Track," 1994 IEEE Conference on Computer Vision and Pattern Recognition (CVPR'94), 1994, pp.593 - 600.」に記載の方法が用いられる。特徴点検出部21は、抽出した特徴点をオプティカルフロー算出部22と、距離算出部23に出力する。なお、以下では、特に断らない限り、特徴点は、複数あることを前提とする。
オプティカルフロー算出部22は、過去の画像の特徴点と現在の画像の特徴点から、オプティカルフローを算出する。オプティカルフローとは、ステレオ画像中における物体の動きをベクトルで表すものである。オプティカルフロー算出部22は、過去の特徴点に対応する実空間中の対象と同一の対象に対応する現在の特徴点を、関連する特徴点として検出する。オプティカルフロー算出部22は、互いに関連する、過去の特徴点と現在の特徴点との組み合わせをオプティカルフローとして算出する。オプティカルフローの算出には、例えば非特許文献「Bruce D. Lucasand Takeo Kanade. An Iterative Image Registration Technique with an Application to Stereo Vision. International Joint Conference on Artificial Intelligence, pages 674-679, 1981」に記載の方法が用いられる。オプティカルフロー算出部22は、算出したオプティカルフローをセンサ運動推定部24と、絶対運動推定部25に出力する。
距離算出部23は、互いに関連する第1画像(後述)の特徴点と、第2画像(後述)の特徴点との視差(ずれ量)から、ステレオカメラ10、11から特徴点に対応する対象までの距離を算出する。換言すれば、距離算出部23は、自車両から特徴点に対応する対象までの距離を算出する。また、距離算出部23は、互いに関連する第1画像の特徴点と第2画像の特徴点との視差から、これらの特徴点に対応する実空間中の3次元座標を算出する。ここで、上述の第1画像とは、ステレオカメラ10により取得されたステレオ画像である。上述の第2画像とは、ステレオカメラ11により取得されたステレオ画像である。距離算出部23は、算出した距離及び3次元座標をセンサ運動推定部24と、絶対運動推定部25と、物体検出部26に出力する。
センサ運動推定部24は、ステレオカメラ10、11の運動、すなわち、3軸並進運動及び3軸回転運動を推定する。以下では、ステレオカメラ10、11の運動を、センサ運動と表現する場合がある。3軸並進運動は、自車両の前後方向、車幅方向、上下方向の運動である。3軸回転運動は、ロール軸、ピッチ軸及びヨー軸を含む3軸回りの回転運動である。
センサ運動推定部24は、例えば、時系列の画像に基づいてセンサ運動を推定してもよい。センサ運動推定部24は、過去の画像の特徴点における3次元座標と、現在の画像の特徴点とから、センサ運動を推定してもよい。センサ運動推定部24は、過去の画像の特徴点における3次元座標と、それぞれ関連する現在の画像の特徴点を、オプティカルフロー算出部22が算出したオプティカルフローに基づいて選択する。センサ運動推定部24は、過去の画像の特徴点における3次元座標とそれぞれ関連する現在の特徴点の画像上の位置を求める。センサ運動推定部24は、過去の画像の特徴点における3次元座標のそれぞれが、現在の画像上のそれぞれの位置に投影された場合に、画像上の位置誤差が最小になるステレオカメラ10、11の3軸並進運動及び3軸回転運動を推定する。センサ運動推定部24は、過去の画像の特徴点における3次元座標と、現在の画像の特徴点の3次元座標とからステレオカメラ10、11の3軸並進運動及び3軸回転運動を推定するようにしてもよい。また、センサ運動の推定方法として、非特許文献「Geiger, Andreas, Julius Ziegler, and Christoph Stiller. "Stereoscan: Dense 3d reconstruction in real-time." Intelligent Vehicles Symposium (IV), 2011 IEEE. Ieee, 2011.」に記載の方法が用いられてもよい。センサ運動推定部24は、推定したセンサ運動を絶対運動推定部25に出力する。
上記の処理により、単位時刻前における特徴点の3次元座標と、現在の3次元座標との差分が、単位時刻前から現在までのその特徴点の3次元運動ベクトルとなる。自車両が移動している場合、3次元運動ベクトルには、単位時刻前から現在までの自車両の移動量が加算される。このため、自車両の移動量(センサ運動)を取り除くことにより、対象(特徴点)の絶対移動量が推定される。絶対運動推定部25は、センサ運動推定部24によって推定されたセンサ運動を用いて、単位時刻前における特徴点の3次元座標を、現在のセンサ座標系に変換する。これにより、絶対運動推定部25は、センサ運動の影響を取り除くことができる。絶対運動推定部25は、センサ座標系において、単位時刻前における特徴点の3次元座標と、現在の特徴点における3次元座標との差分をとることで、現在の特徴点における絶対3次元運動を推定する。絶対運動推定部25は、推定した絶対3次元運動を物体検出部26に出力する。絶対3次元運動とは、センサ運動の影響が取り除かれた特徴点の運動をいう。
物体検出部26は、絶対運動推定部25によって推定された現在の画像の特徴点における絶対3次元運動と、距離算出部23によって算出された3次元座標とに基づいて、移動物体候補を抽出する。物体検出部26は、自車両の周囲において、路面から所定の高さ以上、かつ所定の速度以上の特徴点を抽出する。換言すれば、物体検出部26は、路面からの高さが所定値以上である特徴点を移動物体を構成する複数の特徴点として抽出する(第1所定値)。特徴点が路面から所定の高さ以上である理由は、路面の特徴点と区別するためである。所定の高さは、路面の特徴点と区別可能な高さであれば、特に限定されない。このように、路面から所定の高さ以上の特徴点を用いることにより、物体検出部26が路面を移動物体候補として誤検出することが抑制される。
物体検出部26は、抽出した特徴点と、その近傍の特徴点との速度差が所定値以内の特徴点を同一物体上の特徴点としてクラスタリングする。物体検出部26は、同じ処理を再帰的に行い、それぞれの特徴点についてクラスタリングする。これにより、物体検出部26は、移動物体候補を抽出する。
次に、物体検出部26は、移動物体候補を構成する複数の特徴点の重心が、自車両から所定領域内にあるか否かを判定する。移動物体候補を構成する複数の特徴点の重心が、自車両から所定領域内にある場合、物体検出部26は、移動物体候補は自車両の周囲を走行する物体であると判定する。なお、自車両の周囲を走行する物体には、他車両、バイクなどが含まれるが、以下では特に断らない限り、自車両の周囲を走行する物体は他車両として説明する。物体検出部26は、検出した他車両を物体追跡部27に出力する。
物体追跡部27は、物体検出部26によって検出された他車両を追跡する。具体的には、物体追跡部27は、オプティカルフローを用いて、単位時刻前の他車両に係る特徴点と現在の他車両に係る特徴点との対応付けを行う。物体追跡部27は、対応付けられた各時刻の特徴点を軌跡として蓄積する。そして、物体追跡部27は、今までに蓄積した各時刻の他車両に係る特徴点に現在のセンサ運動の逆運動を適用することで、過去のすべての特徴点を現在のセンサ座標系に変換する。このように物体追跡部27は、特徴点に係る動きベクトルを算出する。物体追跡部27は、算出した動きベクトルを割込み判定部28に出力する。
割込み判定部28は、物体追跡部27によって算出された動きベクトルの道路幅方向における成分の分散が閾値以上か否かを判定する。詳細については後述する。分散が閾値以上である場合、割込み判定部28は、他車両が自車両が走行する車線に割り込む可能性が有ると判定する。なお、以下では、自車両が走行する車線を自車線という。また、割込み判定部28は、自車線方向への横成分の分散が閾値以上である場合、他車両は自車線に割り込むと判定してもよい。割込み判定部28は、判定結果を車両制御部30に出力する。
車両制御部30は、割込み判定部28によって他車両が割り込む可能性が有ると判定された場合、例えば、乗員が違和感を感じないように自車両を制動させる。また、車両制御部30は、割込み判定部28によって他車両が割り込むと判定された場合にも、乗員が違和感を感じないように自車両を制動させてもよい。
次に、図2に示すフローチャート及び図3~4を参照して、物体検出装置100の一動作例を説明する。
図2に示すステップS101において、ステレオカメラ10、11は、自車両の周囲を撮像する。処理はステップS103に進み、特徴点検出部21は、ステレオカメラ10、11により取得されたそれぞれのステレオ画像から、複数の特徴点を抽出する。なお、図2に示すフローチャートは、図3~4に示す移動物体(他車両60)が自車線に割り込むか否かを判定するための処理である。
処理はステップS105に進み、オプティカルフロー算出部22は、ステップS103で抽出された複数の特徴点のオプティカルフローを算出する。具体的には、オプティカルフロー算出部22は、物体検出装置100の起動後の初回のステップS105ではオプティカルフローを算出しない。オプティカルフロー算出部22は、2回目以降のステップS105において、前回、即ち1周期前のステップS103において抽出された過去の特徴点と、今回のステップS103において抽出された現在の特徴点とを関連付け、互いに関連する特徴点の動きベクトルの分布をオプティカルフローとして算出する。動きベクトルとは、物体の移動方向や移動量を表すものである。動きベクトルの向きは物体の移動方向を表し、動きベクトルの長さは、物体の移動量を表す。
処理はステップS107に進み、距離算出部23は、互いに関連する第1画像の特徴点と第2画像の特徴点との視差を算出する。距離算出部23は、算出した視差に基づいて、複数の特徴点に対応する実空間中の3次元座標を算出する。また、距離算出部23は、互いに関連する第1画像の特徴点と、第2画像の特徴点との視差から、ステレオカメラ10、11から特徴点に対応する対象までの距離を算出する。
処理はステップS109に進み、センサ運動推定部24は、ステレオカメラ10、11の3軸並進運動及び3軸回転運動を推定する。センサ運動推定部24は、初回のステップS109では、センサ運動を推定しない。センサ運動推定部24は、2回目以降のステップS109において、前回のステップS103において抽出された過去の画像の特徴点の3次元座標と、今回のステップS103において抽出された現在の画像の特徴点とから、センサ運動を推定する。
処理はステップS110に進み、絶対運動推定部25は、ステップS109で推定されたセンサ運動を用いて、単位時刻前における特徴点の3次元座標を、現在のセンサ座標系に変換する。これにより、絶対運動推定部25は、センサ運動の影響を取り除くことができる。絶対運動推定部25は、センサ座標系において、単位時刻前における特徴点の3次元座標と、現在の特徴点における3次元座標との差分をとることで、現在の特徴点における絶対3次元運動を推定する。
処理はステップS111に進み、物体検出部26は、路面からの高さが所定値以上である特徴点を移動物体を構成する複数の特徴点として抽出する。物体検出部26は、抽出した特徴点と、その特徴点の近傍の特徴点との速度差が所定値以内の特徴点を同一物体上の特徴点としてクラスタリングする。これにより、物体検出部26は、自車両の周囲の移動物体候補を抽出する。
処理はステップS113に進み、物体検出部26は、移動物体候補を構成する特徴点の重心が、自車両から所定領域内にあるか否かを判定する。自車両の周囲の所定領域とは、特に限定されないが、例えば自車線に隣接する隣接車線を含む領域と定義されてもよい。移動物体候補を構成する特徴点の重心が、自車両から所定領域内にある場合、物体検出部26は、移動物体候補は自車両の周囲を走行する物体であると判定する。例えば、図3に示すように、物体検出部26は、移動物体候補は、隣接車線を走行する他車両60であると判定する。なお、図3に示すシーンにおいて、他車両60は、自車両50と同様の速度で走行しているものとする。つまり、他車両60は、自車両50と並んで走行する並走車両である。また、図3に示す先行車両70は、自車線において自車両50の前方を走行している。
処理はステップS115に進み、物体追跡部27は、オプティカルフローを用いて、単位時刻前の他車両60に係る特徴点と現在の他車両60に係る特徴点との対応付けを行い、他車両60を追跡する。物体追跡部27は、追跡した結果に基づいて他車両60に係る特徴点の動きベクトルを算出する。
処理はステップS117に進み、割込み判定部28は、ステップS115で算出された動きベクトルの自車線方向への道路幅方向における成分(横成分)の分散が閾値以上か否かを判定する。この点について以下詳細に説明する。ここでいう動きベクトルは、3次元絶対動きベクトルであるため、3軸の成分を有する。ここでは、3軸の成分のうち、2軸の成分に着目する。
図4に示すように、路面を平面として捉えた場合、動きベクトルの成分は、道路の進行方向の成分と、道路幅方向の成分に分けられる。これら2つの成分は、上記の2軸の成分に相当する。以下では、道路の進行方向の成分を縦成分と表現することがある。また、道路幅方向の成分を横成分と表現することがある。
図4に示すように、他車両60は、自車線に割り込むとき、ハンドルを左に切る。このとき、他車両60の前方部分の動きベクトルは後方部分の動きベクトルと比較して左に傾く。すなわち、他車両60の前方部分の動きベクトルは後方部分の動きベクトルと比較して、自車線方向への横成分が大きくなる。もちろん、後方部分の動きベクトルの自車線方向への横成分について、前方部分の動きベクトルの自車線方向への横成分より小さいものの、横成分はゼロではない。つまり、図4に示すシーンにおいて、他車両60に係るすべての動きベクトルの横成分は、ゼロより大きい。割込み判定部28は、他車両60に係るすべての動きベクトルの横成分の分散を算出し、算出した分散と閾値とを比較する。自車線方向への横成分の分散が閾値以上である場合、他車両60は左に傾いているため、自車線に割り込む可能性が高い。そこで、割込み判定部28は、自車線方向への横成分の分散が閾値以上である場合、他車両60は自車線に割り込むと判定する。これにより、割込み判定部28は、上述した従来技術のように他車両60が自車線に接近することを待つことなく、割り込みを早期に判定できる。
なお、図4に示すシーンにおいて、他車両60が直進走行している場合、動きベクトルの横成分の分散は、ゼロとなる。換言すれば、他車両60が直進走行している場合、動きベクトルの成分は縦成分のみとなる。なお、鉛直方向の成分は、ここでは考慮しない。つまり、動きベクトルの横成分の分散とは、道路の進行方向に対する動きベクトルの傾きと定義されてもよい。この場合の傾きは、特に限定されないが、例えば10度である。また、図4に示す状態において他車両60が右にハンドルを切った場合は、自車線方向とは逆方向への動きベクトルの横成分の分散が閾値以上となるため、割込み判定部28は、他車両60は自車線とは逆方向へ車線変更する、あるいは右折することを判定することができる。すなわち、割込み判定部28は、他車両60の動きベクトルの横成分の分散が閾値以上か否かによって、他車両60の車線変更を含めた進路変更を検出して、他車両60が自車線に割り込む可能性が有ることを検出できる。さらに、割込み判定部28は、動きベクトルの横成分の方向が自車線方向で有るか否かに基づいて、他車両60の進路変更の方向が自車線方向であるか否か、すなわち他車両60が自車線に割り込むか否かを判定することができる。
他車両60が自車線に割り込むためにハンドルを左に切る場合、他車両60の車体の動きベクトルは先頭から後方に向かって順番に左に傾いていく。このため、割込み判定部28は、他車両60の先頭部分のみの動きベクトルの、自車線方向への横成分の分散に基づいて、割り込みを判定してもよい。また、割込み判定部28は、他車両60の中心から先頭部分にかかる動きベクトルの分散に基づいて、割り込みを判定してもよい。他車両60に係るすべての動きベクトルが抽出されるためには、画像に他車両60の全体が写る必要がある。これには時間を要する場合がある。そこで他車両60の一部分の動きベクトルの分散が用いられることにより、画像に他車両60の全体が写るまで待つ必要がなくなる。すなわち、割込み判定部28は、他車両60の一部分の動きベクトルの横成分の分散を用いることにより、より早く割り込みを判定しうる。
図2に示すフローチャートにおいて、ステップS117でYesの場合、処理はステップS119に進むが、これに限定されない。ステップS117でYesの場合、処理はステップS123に進んでもよい。すなわち、本実施形態において、割込み判定部28は、他車両60の動きベクトルの横成分の分散のみに基づいて、割り込みを判定してもよい。ステップS119において、割込み判定部28は、3次元絶対動きベクトルに基づいて他車両60の横移動量及び速度を推定する。処理はステップS121に進み、割込み判定部28は、ステップS119で推定した他車両60の横移動量及び速度に基づいて、他車両60の軌道を予測する。具体的には、割込み判定部28は、他車両60の軌道が所定時間内に自車線に進入する軌道か否か予測する。割込み判定部28がステップS117の後にステップS119、121の処理を行う理由は、精度よく割り込みを判定するためである。ステップS121でYesの場合、処理はステップS123に進み、割込み判定部28は、他車両60は自車線に割り込むと判定する。このように、割込み判定部28は、動きベクトルの横成分の分散と他車両60の軌道を用いることにより、精度よく割り込みを判定できる。
ステップS117で用いられる閾値は、予め実験やシミュレーションによって設定され、記憶部に記憶される。また、この閾値は、適宜変更され得る。本実施形態において、割込み判定部28が他車両60の割り込みを判定する際、他車両60は、自車両50から所定領域内に居ると想定される。あるいは、他車両60は、自車線から所定領域内に居ると想定される。そのため、ステップS113において、物体検出部26は、特徴点の重心が、自車両50から所定領域内にあるか否かを判定する。ただし、物体検出部26は、このような判定を行わなくてもよい場合がある。自車両50と他車両60との間の距離に応じて、他車両60の動きベクトルの横成分は、変化しうる。ここで、他車両60が自車両50の近くに居る場合と、他車両60が自車両50の遠くに居る場合とに分けて考える。この2つのケースにおいて、他車両60がハンドルを左に切った場合を考える。このとき、ハンドルの傾きは、2つのケースにおいて同じである。しかし、ハンドルの傾きが同じであるにも関わらず、観測される動きベクトルの横成分は、異なる。他車両60が自車両50の近くに居る場合は、他車両60が自車両50の遠くに居る場合と比較して、観測される動きベクトルの横成分は、大きくなる。換言すれば、他車両60が自車両50の遠くに居る場合は、他車両60が自車両50の近くに居る場合と比較して、観測される動きベクトルの横成分は、小さくなる。要するに、ステップS117で用いられる閾値が適宜変更されることにより、他車両60が自車両50の近くに居るか否かは、動きベクトルの横成分の分散の大きさによって判定され得る。したがってこのような場合、物体検出部26は、上記の判定を行わなくてもよい。また、上述の通りステップS117においては、他車両60の動きベクトルの自車線方向への道路幅方向における成分(横成分)の分散が閾値以上である場合に、割込み判定部28は他車両60が自車線に割り込むことを判定すると述べたが、これに限定されない。例えばステップS117においては、他車両60の動きベクトルの道路幅方向における成分(横成分)が自車線方向か否かに関係なく、横成分の分散が閾値以上か否かによって割込み判定部28は他車両60の車線変更を含めた進路変更を検出して他車両60が自車線に割り込む可能性が有ると判定してもよい。この場合において、さらにステップS121で他車両60の軌道が自車線に侵入する軌道と判定された場合に、割込み判定部28は他車両60が自車線に割り込むと判定してもよい。
以上説明したように、本実施形態に係る物体検出装置100によれば、以下の作用効果が得られる。
物体検出装置100は、自車両50の周囲の画像を取得し、取得された画像から複数の特徴点を抽出する。また、物体検出装置100は、複数の特徴点の中から、移動物体(他車両60)を構成する複数の特徴点を抽出する。物体検出装置100は、異なる時刻に取得された複数の画像から移動物体を構成する複数の特徴点の動きベクトルの分散を算出する。物体検出装置100は、動きベクトルの道路幅方向における成分の分散が閾値以上である場合、移動物体が自車線に割り込む可能性が有ると判定する。さらに、移動物体が自車線に割り込む可能性が有ると判定された場合に、移動物体の動きベクトルの横成分の方向が自車線方向で有るか否かに基づいて、物体検出装置100は、移動物体が自車線に割り込むか否かを判定することができる。つまり、物体検出装置100は、動きベクトルの道路幅方向における成分が閾値以上である場合であって、且つ動きベクトルの道路幅方向における成分が自車両が走行する車線方向である場合に、移動物体は自車両が走行する車線に割り込むと判定する。これにより、物体検出装置100は、上述した従来技術のように移動物体が自車線に接近することを待つことなく、割り込みを早期に判定できる。
物体検出装置100は、路面からの高さが所定値以上である特徴点を移動物体を構成する複数の特徴点として抽出する。これにより、移動物体の特徴点と、路面の特徴点とが区別され、物体検出装置100が路面を移動物体候補として誤検出することが抑制される。
上述の実施形態に記載される各機能は、1または複数の処理回路により実装され得る。処理回路は、電気回路を含む処理装置等のプログラムされた処理装置を含む。処理回路は、また、記載された機能を実行するようにアレンジされた特定用途向け集積回路(ASIC)や回路部品等の装置を含む。また、物体検出装置100は、コンピュータの機能を改善しうる。
上記のように、本発明の実施形態を記載したが、この開示の一部をなす論述及び図面はこの発明を限定するものであると理解すべきではない。この開示から当業者には様々な代替実施の形態、実施例及び運用技術が明らかとなろう。
特徴点を抽出する方法は上記の方法に限定されない。例えば、パターン認識によって特徴点が抽出されてもよい。パターン認識とは、画像から得られる輝度、反射率などのパターンを機械学習させ、機械学習させたパターン画像を用いる方法である。具体的には、物体検出装置100は、予め設定されたパターン画像を用いたパターン認識により物体を検出し、検出された物体が占める画像上の領域の中から抽出された複数の特徴点が、自車両50から一定範囲内に有るとき、複数の特徴点を移動物体を構成する複数の特徴点として抽出してもよい。このようなパターン認識によっても、特徴点は抽出される。
また、移動物体を検出する方法は上記の方法に限定されない。例えば、自車両50に搭載されたレーダ、ライダ、またはソナーが移動物体を検出してもよい。これにより、移動物体の検出精度が向上する。
また、図3に示すように、物体検出装置100は、自車両50と先行車両70との間の距離に応じて、割り込み判定に使用する閾値を変更してもよい。例えば、物体検出装置100は、自車両50と先行車両70との間の距離が大きい場合は小さい場合と比較して、閾値を小さくしてもよい。自車両50と先行車両70との間の距離が大きい場合、他車両60は、比較的容易に割り込みできる。よって、物体検出装置100は、閾値を小さくして割り込みを判定することにより、より早く割り込みを判定できる。一方、自車両50と先行車両70との間の距離が小さい場合、他車両60の割り込みは困難である。よって、物体検出装置100は、閾値を大きくして割り込みを判定することにより、割り込みの誤判定が抑制される。
また、物体検出装置100は、自車両50と、複数の特徴点とのそれぞれの距離のうち、もっとも短い距離が所定値以下の場合、移動物体は自車両50が走行する車線に割り込むと判定してもよい(第2所定値)。もっとも短い距離が所定値以下ということは、移動物体は自車線によっていると考えられる。この判定により、物体検出装置100は、精度よく割り込みを判定できる。
また、物体検出装置100は、走行道路の形状に応じて割り込み判定に使用する閾値を変更してもよい。例えば、図5に示すように、物体検出装置100は、走行道路がカーブである場合、走行道路が直線である場合と比較して、閾値を大きくしてもよい。カーブでは、動きベクトルの横成分が大きくなる傾向がある。そこで、物体検出装置100は、閾値を大きくして割り込みを判定することにより、割り込みの誤判定が抑制される。なお、走行道路の形状がカーブか否かについて、物体検出装置100は、道路区分線の形状から判定してもよく、地図データベースを用いて判定してもよい。
また、物体検出装置100は、他車両60の速度に応じて割り込み判定に使用する閾値を変更してもよい。例えば、物体検出装置100は、他車両60の速度が速い場合は、遅い場合と比較して閾値を小さくしてもよい。
また、物体検出装置100は、道路幅方向における他車両60の位置に応じて割り込み判定に使用する閾値を変更してもよい。例えば、物体検出装置100は、他車両60が自車線から近い位置に居る場合は、自車線から遠い位置に居る場合と比較して閾値を小さくしてもよい。これにより、他車両60が自車線から近い位置に居る場合、物体検出装置100は、素早く割り込みを判定できる。また、物体検出装置100は、他車両60が自車線から遠い位置に居る場合は、自車線から近い位置に居る場合と比較して閾値を大きくしてもよい。他車両60が自車線から遠い位置に居る場合、他車両60のハンドル操作は他車両60の位置を車線の中央に戻すことを意図している可能性がある。そこで、物体検出装置100は、閾値を大きくして割り込みを判定することにより、割り込みの誤判定が抑制される。
10、11 ステレオカメラ
20 コントローラ
21 特徴点検出部
22 オプティカルフロー算出部
23 距離算出部
24 センサ運動推定部
25 絶対運動推定部
26 物体検出部
27 物体追跡部
28 割込み判定部
30 車両制御部
100 物体検出装置

Claims (9)

  1. 自車両の周囲の画像を取得し、
    前記画像から複数の特徴点を抽出し、
    前記複数の特徴点の中から、移動物体を構成する複数の特徴点を抽出し、
    異なる時刻に取得された複数の画像から前記移動物体を構成する複数の特徴点の動きベクトルの分散を算出し、
    前記動きベクトルの道路幅方向における成分の分散が閾値以上である場合、前記移動物体は前記自車両が走行する車線に割り込む可能性が有ると判定する
    ことを特徴とする物体検出方法。
  2. 路面からの高さが第1所定値以上である特徴点を前記移動物体を構成する複数の特徴点として抽出する
    ことを特徴とする請求項1に記載の物体検出方法。
  3. 予め設定されたパターン画像を用いたパターン認識により物体を検出し、検出された物体が占める画像上の領域の中から抽出された複数の特徴点が前記自車両から一定範囲内に有るとき、前記複数の特徴点を前記移動物体を構成する複数の特徴点として抽出する
    ことを特徴とする請求項1または2に記載の物体検出方法。
  4. 前記自車両に搭載されたレーダ、ライダ、またはソナーを用いて前記移動物体を検出する
    ことを特徴とする請求項1~3のいずれか1項に記載の物体検出方法。
  5. 前記自車両と、前記自車両が走行する車線の前方を走行する先行車両との間の距離に応じて、前記閾値を変更する
    ことを特徴とする請求項1~4のいずれか1項に記載の物体検出方法。
  6. 前記自車両と、前記複数の特徴点とのそれぞれの距離のうち、もっとも短い距離が第2所定値以下の場合、前記移動物体は前記自車両が走行する車線に割り込むと判定する
    ことを特徴とする請求項1~5のいずれか1項に記載の物体検出方法。
  7. 前記自車両がカーブを走行している場合、前記閾値を大きくする
    ことを特徴とする請求項1~6のいずれか1項に記載の物体検出方法。
  8. 前記動きベクトルの道路幅方向における成分が閾値以上である場合であって、且つ前記動きベクトルの道路幅方向における成分が前記自車両が走行する車線方向である場合に、前記移動物体は前記自車両が走行する車線に割り込むと判定する
    ことを特徴とする請求項1~7のいずれか1項に記載の物体検出方法。
  9. 自車両に搭載され、前記自車両の周囲の画像を取得するカメラと、
    制御部と、
    を備え、
    前記制御部は、
    前記画像から複数の特徴点を抽出し、
    前記複数の特徴点の中から、移動物体を構成する複数の特徴点を抽出し、
    異なる時刻に取得された複数の画像から前記移動物体を構成する複数の特徴点の動きベクトルの分散を算出し、
    前記動きベクトルの道路幅方向における成分の分散が閾値以上である場合、前記移動物体は前記自車両が走行する車線に割り込む可能性が有ると判定する
    ことを特徴とする物体検出装置。
JP2018121515A 2018-06-27 2018-06-27 物体検出方法及び物体検出装置 Active JP7075833B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018121515A JP7075833B2 (ja) 2018-06-27 2018-06-27 物体検出方法及び物体検出装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018121515A JP7075833B2 (ja) 2018-06-27 2018-06-27 物体検出方法及び物体検出装置

Publications (2)

Publication Number Publication Date
JP2020003971A JP2020003971A (ja) 2020-01-09
JP7075833B2 true JP7075833B2 (ja) 2022-05-26

Family

ID=69100148

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018121515A Active JP7075833B2 (ja) 2018-06-27 2018-06-27 物体検出方法及び物体検出装置

Country Status (1)

Country Link
JP (1) JP7075833B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111047908B (zh) * 2018-10-12 2021-11-02 富士通株式会社 跨线车辆的检测装置、方法及视频监控设备
JP7191143B2 (ja) * 2021-03-11 2022-12-16 三菱電機株式会社 他車両行動予測装置、他車両行動予測方法、及び自動運転システム
WO2022269980A1 (ja) 2021-06-24 2022-12-29 日立Astemo株式会社 外界認識装置、および、外界認識方法
WO2023170912A1 (ja) * 2022-03-11 2023-09-14 日本電気株式会社 情報処理装置、生成方法、情報処理方法、及びコンピュータ可読媒体

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000242900A (ja) 1999-02-24 2000-09-08 Mitsubishi Motors Corp 割り込み車両検出装置
JP2009509085A (ja) 2005-09-21 2009-03-05 ローベルト ボッシュ ゲゼルシャフト ミット ベシュレンクテル ハフツング センサに基づく車両の始動制御方法及び運転者支援システム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000242900A (ja) 1999-02-24 2000-09-08 Mitsubishi Motors Corp 割り込み車両検出装置
JP2009509085A (ja) 2005-09-21 2009-03-05 ローベルト ボッシュ ゲゼルシャフト ミット ベシュレンクテル ハフツング センサに基づく車両の始動制御方法及び運転者支援システム

Also Published As

Publication number Publication date
JP2020003971A (ja) 2020-01-09

Similar Documents

Publication Publication Date Title
JP7075833B2 (ja) 物体検出方法及び物体検出装置
JP6935813B2 (ja) 運転支援方法及び運転支援装置
JP5210233B2 (ja) 車両用外界認識装置及びそれを用いた車両システム
US9235767B2 (en) Detection region modification for driving assistance apparatus and driving assistance method
JP7005978B2 (ja) 軌跡推定方法及び軌跡推定装置
JP6350374B2 (ja) 路面検出装置
JP4536674B2 (ja) 歩行者認識装置
KR20190135042A (ko) 주행 지원 방법 및 주행 지원 장치
JP2008276308A (ja) 動画像処理装置、動画像処理システムおよびナビゲーション装置
JP6139465B2 (ja) 物体検出装置、運転支援装置、物体検出方法、および物体検出プログラム
JP2020160914A (ja) 物体検出装置
JP6939198B2 (ja) 物体検出方法及び物体検出装置
EP3650287A1 (en) Parking assistance method and parking assistance device
JP7117169B2 (ja) 物体検出方法及び物体検出装置
JP6595647B2 (ja) 走行制御装置、車両および走行制御方法
JP2008276307A (ja) 動画像処理装置、動画像処理システムおよびナビゲーション装置
JP7223587B2 (ja) 物体運動推定方法及び物体運動推定装置
JP2019028528A (ja) 車外環境認識装置
CN112606839A (zh) 车外环境识别装置
JP7406635B2 (ja) 運転支援装置
JP7149171B2 (ja) 物体認識方法及び物体認識装置
TWI723657B (zh) 車輛控制方法與車用控制系統
WO2022112810A1 (ja) 車両支援方法及び車両支援装置
JP2021059322A (ja) 車外環境認識装置
JP7180521B2 (ja) 物標検出装置、物標検出方法、及び運転支援システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220111

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220421

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220516

R150 Certificate of patent or registration of utility model

Ref document number: 7075833

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150