JP7205049B2 - 移動ベクトル算出方法及び移動ベクトル算出装置 - Google Patents
移動ベクトル算出方法及び移動ベクトル算出装置 Download PDFInfo
- Publication number
- JP7205049B2 JP7205049B2 JP2017139887A JP2017139887A JP7205049B2 JP 7205049 B2 JP7205049 B2 JP 7205049B2 JP 2017139887 A JP2017139887 A JP 2017139887A JP 2017139887 A JP2017139887 A JP 2017139887A JP 7205049 B2 JP7205049 B2 JP 7205049B2
- Authority
- JP
- Japan
- Prior art keywords
- time
- vehicle
- image
- motion
- feature point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
Description
この移動物体検出装置は、自機の速度と、自機のヨーレートと、立体物の距離データと、立体物の画像上の位置とから、見かけ成分フローを算出し、オプティカルフローと見かけ成分フローの差から三次元移動成分フローを算出する。
本発明は、撮像画像から算出される物体の移動ベクトルに与える自車両の運動成分の影響を抑制することを目的とする。
図1を参照する。運転支援装置1は、運転支援装置1を搭載する車両(以下、「自車両」と表記する)の周囲の走行環境に基づいて自車両を自動的に操舵したり停止させる走行支援制御、又は運転者が関与せずに自車両を自動で運転する自動運転制御を行う。運転支援装置1は、移動ベクトル算出装置10と、車両挙動センサ群20と、車両走行コントローラ30と、車両制御アクチュエータ群40を備える。
周囲環境センサ群11は、自車両の周囲環境、例えば自車両の周囲の物体を検出するセンサ群である。
ステレオカメラ50は、自車両周囲のステレオ画像を自車両の周囲環境の情報として生成する。ステレオカメラ50は、ステレオカメラ50の撮影方向と直交する方向に沿って互いの視野が重なるように配置された第1画像センサ52と、第2画像センサ53を備える。例えば、第1画像センサ52はステレオカメラ50の撮影方向を向いたときに左側に配置され、第2画像センサ53は右側に配置されてよい。このステレオカメラ50によって、自車両周囲に存在する物体の有無、自車両と物体との相対位置及び相対距離を、自車両の周囲環境として検出する。また、このステレオカメラ50では、物体の相対位置や相対距離を連続的に検出し、加えて、自車両の挙動(移動距離、移動速度等)を用いることで、物体が移動物体であるか否かを検出することができる。
周囲環境センサ群11は、検出した周囲環境の情報である周囲環境情報をコントローラ12と車両走行コントローラ30へ出力する。
コントローラ12は、ステレオカメラ50が生成したステレオ画像から移動物体を検出する処理を実行する電子制御ユニットである。コントローラ12は、プロセッサ55と、記憶装置56等の周辺部品を含む。プロセッサ55は、例えばCPU(Central Processing Unit)、やMPU(Micro-Processing Unit)であってよい。
記憶装置56は、半導体記憶装置、磁気記憶装置及び光学記憶装置のいずれかを備えてよい。記憶装置56は、レジスタ、キャッシュメモリ、主記憶装置として使用されるROM(Read Only Memory)及びRAM(Random Access Memory)等のメモリを含んでよい。
コントローラ12は、ステレオカメラ50が生成したステレオ画像から抽出された特徴点の移動ベクトルを検出し、閾値以上の長さの移動ベクトルを有する特徴点を移動物体と判定する。コントローラ12は、移動物体の位置及び移動ベクトルの少なくとも一方に応じて警報信号を生成する。
コントローラ12は、警報信号をユーザインタフェース装置13と車両走行コントローラ30へ出力する。
また、ユーザインタフェース装置13は、自車両のステアリングホイールへ振動を付与するバイブレータや、アクセルペダルに反力を与えるアクチュエータであってもよく、これら振動や反力を警報信号として与えてもよい。
車速センサ21は、自車両の車輪速を検出し、車輪速に基づいて自車両の速度を算出する。加速度センサ22は、自車両の前後方向の加速度、車幅方向の加速度及び上下方向の加速度を検出する。すなわち加速度センサ22は、自車両の3軸並進運動方向(すなわちステレオカメラ50の3軸並進運動方向)の加速度を検出する。
ジャイロセンサ23は、ロール軸、ピッチ軸及びヨー軸を含む3軸回りの自車両の回転角度の角速度を検出する。すなわち、ジャイロセンサ23は、自車両の3軸回転運動(すなわちステレオカメラ50の3軸回転運動)の角速度を検出する。
これら車速、加速度、回転角速度、及び操舵角の情報を、総称して「車両挙動情報」と表記することがある。車両挙動センサ群20は、車両挙動情報を車両走行コントローラ30へ出力する。
車両走行コントローラ30は、自車両の自動運転制御又は運転支援制御を行う電子制御ユニットである。車両走行コントローラ30は、プロセッサと、記憶装置等の周辺部品とを含む。車両走行コントローラ30のプロセッサは例えばCPUやMPUであってよい。
車両走行コントローラ30の記憶装置は、記憶媒体として半導体記憶装置、磁気記憶装置及び光学記憶装置のいずれかを備えてよい。車両走行コントローラ30の記憶装置は、レジスタ、キャッシュメモリ、主記憶装置として使用されるROM及びRAM等のメモリを含んでよい。
車両制御アクチュエータ群40は、車両走行コントローラ30からの制御信号に応じて、自車両のステアリングホイール、アクセル開度、ブレーキ装置、トランスミッションのギアを操作して、自車両の走行を制御する。車両制御アクチュエータ群40は、ステアリングアクチュエータ41と、アクセル開度アクチュエータ42と、ブレーキ制御アクチュエータ43と、シフトアクチュエータ44を備える。
さらに車両走行コントローラ30は、コントローラ12から出力される警報信号に応じて、コントローラ12が検出した移動物体との衝突を防止するための走行支援制御又は自動運転制御を行う。
尚、本実施形態においては、ステアリングアクチュエータ41、アクセル開度アクチュエータ42は、ブレーキ制御アクチュエータ43、のうち少なくとも一つが自動で制御されている状態を自動運転とし、これらすべてのアクチュエータが手動で制御されている状態を手動運転とする。また、本実施形態においては、自動運転及び手動運転の両方にも適用することが可能である。
ステレオカメラ50を構成する第1画像センサ52と第2画像センサ53は、自車両の周囲のステレオ画像を所定周期で連続して撮影する。以下、第1画像センサ52の撮像画像を「第1画像」と表記し、第2画像センサ53の撮像画像を「第2画像」と表記することがある。
画像補正部61及び62は、それぞれ第1画像及び第2画像の補正処理を行う。例えば画像補正部61及び62は、第1画像及び第2画像のレンズ歪みを補正してよい。画像補正部61及び62は、第1画像センサ52及び第2画像センサ53の視野にある空間の同一点の像が、第1画像及び第2画像の同一走査線上に位置するように変換する平行化を行ってよい。
第1画像で検出された特徴点は、特徴点記録部65に一時的に記録されて、所定期間経過後に撮像される第1画像で検出される特徴点と間のオプティカルフローの算出に使用される。例えば所定期間は、コントローラ12による移動ベクトルの算出処理の処理周期であってよい。
オプティカルフロー算出部66は、特徴点記録部65に記憶された現時点より所定期間前の第1画像で検出された特徴点を読み出す。
以下、現時点より所定期間前の第1画像で検出された特徴点を「所定期間前の特徴点」と表記し、現時点の第1画像で検出された特徴点を「現在の特徴点」と表記することがある。なお、現時点は第2時刻の一例であり、現時点より所定期間前の時刻は第1時刻の一例である。
オプティカルフローの抽出には、例えば非特許文献「Bruce D. Lucas and Takeo Kanade. An Iterative Image Registration Technique with an Application to Stereo Vision. International Joint Conference on Artificial Intelligence, pages 674-679, 1981」に記載の手法を用いてよい。
3次元座標算出部67は、対応する特徴点間の視差を算出し、算出した視差と、第1画像センサ52と第2画像センサ53の画角、取り付け位置、光軸方向等のパラメータとに基づいて、特徴点が表す空間中の点の3次元座標を算出する。以下、特徴点が表す空間中の点を単に「特徴点」と表記する。
以上の処理により、第1画像の特徴点ごとに、特徴点の3次元座標と、所定期間前の特徴点に対応する現在の特徴点、すなわち所定期間前の特徴点と現在の特徴点との対応関係を求めることができる。対応する所定期間前の特徴点と現在の特徴点の3次元座標の差を算出すれば、この特徴点の3次元移動ベクトルを算出することができる。
そこでセンサ運動検出部69は、自車両の3軸並進運動及び3軸回転運動(すなわちステレオカメラ50の3軸並進運動及び3軸回転運動)を検出する。3軸並進運動は、自車両の前後方向、車幅方向、上下方向の運動である。3軸回転運動は、ロール軸、ピッチ軸及びヨー軸を含む3軸回りの回転運動である。
例えばセンサ運動検出部69は、第1画像及び第2画像に基づいて自車両の3軸並進運動及び3軸回転運動を検出してよい。
具体的には、センサ運動検出部69は、3次元座標記録部68に記録された所定期間前の複数の特徴点の3次元座標にそれぞれ対応する現時点の第1画像中の特徴点を、オプティカルフロー算出部66が算出したオプティカルフローに基づいて選択する。センサ運動検出部69は、所定期間前の複数の特徴点の3次元座標にそれぞれ対応する現時点の画像上の位置を求める。
このように画像からセンサ運動を求めることの利点は、第1に、車速やヨーレートなどの車両センサから得られる情報だけでなく、ロール、ピッチ、横滑りを含む6軸運動の情報が得られることである。
第3に、遠方の移動物体を検出しやすくなる。自車両が回転運動すると遠方の特徴点が大きく動く。このため、従来、遠方の移動物体自体の移動と自車両の回転運動に伴う遠方の特徴点の移動との区別が難しかった。画像からセンサ運動を求めると、自車両の回転時に遠方の特徴点が大きく動くので、自車両の回転運動に対する分解能が高くなり、検出精度が高くなる。このため、自車両の回転運動に伴う遠方の特徴点の移動を精度よく取り除くことができるので、遠方の移動物体を検出しやすくなる。例えば右折時や左折時において移動物体を検出しやすくなる。
具体的には、座標系変換部70は、センサ運動検出部69が検出した運動量に基づいて、3次元座標記録部68に記録された所定期間前の特徴点の3次元座標を、現時点の第1画像センサ52の位置を基準とするセンサ座標系上の3次元座標へ変換する。センサ座標系は、例えば第1画像センサ52の所定の画素を座標原点とする座標系であってよい。
図3は、3次元空間中の自車両80と、右前方から左へ移動する他車両84を表す鳥瞰図である。参照符号81は自車両80の現時点の位置を示し、参照符号82は所定期間前の自車両80の位置を示し、矢印83は所定期間前から現時点までの自車両80の移動量を示す。
座標系変換部70は、センサ運動検出部69が検出した自車両の3軸並進運動及び3軸回転運動と逆方向に、所定期間前の他車両84の位置を移動させる。例えば、矢印87のように自車両80の移動量83と逆方向に移動させる。
これにより、所定期間前の他車両84の3次元座標を現在のセンサ座標系上の3次元座標88へ変換できる。
この3次元座標88と現在の他車両84の位置85との差分を求めることで、他車両84の絶対的な移動ベクトル89を求めることができる。
移動ベクトル算出部72は、所定期間前の特徴点を現在の第1画像上の2次元座標系へ投影した点と、この特徴点に対応する現在の特徴点の位置との差分を求めることで、第1画像上における移動ベクトルを算出する。このように算出される移動ベクトルは、自車両の運動(すなわちステレオカメラ50の運動)の影響を除いた移動物体の絶対的な移動量を画像に投影したベクトルである。尚、本実施形態における2次元座標系は、画像上の座標であり、画素の座標を用いてもよい。画像上の座標では、画像の縦方向を一軸とし、画像の横方向をもう一方の一軸としてもよい。
図4Aを参照する。参照符号90は、ステレオ法における距離方向の誤差範囲を示す。ステレオ法による3次元位置推定では距離方向の誤差が大きくなる傾向がある。特に測定対象との距離が遠い場合に、推定した位置と本来の位置のズレが大きくなることがある。
ここで、図4Bの矢印87に示すように自車両の移動ベクトルと反対方向に位置91を移動させて、現時点の自車両80の位置81から所定期間前の他車両84を観測した位置93を求め、他車両84の移動ベクトル94を算出すると、算出した移動ベクトル94と真の移動ベクトル89とが大きく異なることがある。また、本当は動いていない対象物に対して大きな移動ベクトルが算出されることがある。
図5を参照する。位置93は、所定期間前の他車両84の先端位置をステレオ法で推定した位置91を現時点の自車両80の位置81から観測した位置へ移動させた位置であり、位置96は真の先端位置を現時点の自車両80の位置81から観測した位置へ移動させた位置である。
平面100は、第1画像の2次元平面を模式的に示す。ステレオ法で推定した所定期間前の他車両84の先端位置93は位置101に投影され、所定期間前の真の先端位置96は位置102に投影され、ステレオ法で推定した現時点の他車両84の先端位置92及び真の先端位置は位置103に投影される。
所定期間前の他車両84の推定位置93は、自車両80の移動に伴う視線のズレに起因して、真の先端位置の投影位置102と異なる位置101に投影されるがその差は非常に小さくなる。
このため、3次元空間中ではステレオ誤差の影響で誤った3次元移動ベクトルが算出されるケースについても、画像上で求めた移動ベクトル104は、真の座標から求まる移動ベクトルとほぼ同じになる。
図2を参照する。移動物体検出部73は、移動ベクトル算出部72が算出した移動ベクトルに基づいて、第1画像中の移動物候補を判定する。
例えば移動物体検出部73は、閾値Lt以上の長さの移動ベクトルを有する特徴点を移動物候補と判定して、この特徴点に移動物候補フラグを付加する。
さらに移動物体検出部73は、複数の移動物候補の特徴点間の離間距離が閾値Dt以下であるとき、これら複数の移動物候補の特徴点を同一の移動物体としてラベリングすることにより、移動物体を検出する。
図7Aを参照する。例えば、移動物体検出部73は、同一の移動物体としてラベリングされた特徴点群の平均移動ベクトル120を算出する。移動物体検出部73は、平均移動ベクトル120が自車両80の進行経路121上へ向かっている場合、すなわち平均移動ベクトル120の延長線が自車両80の進行経路121と交差する場合に、警報信号を発生させる。
例えば、警戒範囲131の大きさは自車両80の車速に応じて変化してよい。例えば自車両80の車速が高いほど警戒範囲131は大きくてよい。
例えば、自車両80から警戒範囲131の先端までの長さLが自車両80の車速に応じて変化してよい。自車両80の車速が高いほど長さLは長くてよい。
例えば、警戒範囲131の方位角範囲θ(または警戒範囲131の幅)は自車両80の車速に応じて変化してよい。自車両80の車速が高いほど方位角範囲θ(又は幅)は大きくてよい。
次に、移動ベクトル算出装置10の動作を説明する。図8を参照する。
ステップS1においてステレオカメラ50は、自車両周囲のステレオ画像を所定の周期で取得する。画像補正部61及び62は、ステレオ画像に含まれる第1画像及び第2画像の補正処理をそれぞれ行う。
ステップS2において特徴点抽出部63及び64は、第1画像及び第2画像それぞれにおいて特徴点を抽出する。
ステップS3において特徴点抽出部63及び64は、検出した特徴点を特徴点記録部65に記録する。
ステップS4においてオプティカルフロー算出部66は、第1画像で検出された特徴点のオプティカルフローを算出する。
ステップS6において3次元座標算出部67は、算出した3次元座標を3次元座標記録部68に記録する。
なお、ステップS4のオプティカルフローの算出より先にステップS5及びS6の3次元座標の算出及び記録を行ってもよく、ステップS4のオプティカルフローの算出と並列に(同時に)ステップS5及びS6の3次元座標の算出及び記録を行ってもよい。
ステップS8において座標系変換部70は、3次元座標記録部68に記録された所定期間前の特徴点の3次元座標を、現在のセンサ座標系上の3次元座標へ変換する。
ステップS9において投影部71は、現在のセンサ座標系上の3次元座標に変換された所定期間前の特徴点の3次元座標を、現在の第1画像上の2次元座標系へ投影する。
ステップS11において移動物体検出部73は、移動ベクトル算出部72が算出した移動ベクトルに基づいて、第1画像中の移動物候補を判定する。
移動物体検出部73は、複数の移動物候補の特徴点間の離間距離が閾値Dt以下であるとき、これら複数の移動物候補の特徴点を同一の移動物体としてラベリングすることにより、移動物体を検出する。
(1)自車両に搭載されたステレオカメラ50は、第1時刻及び第2時刻において自車両周囲の第1画像及び第2画像を取得する。特徴点抽出部63は第1時刻の画像中の特徴点と第2時刻の画像中の特徴点とを抽出する。
3次元座標算出部67は、第1時刻の特徴点の3次元座標を取得する。センサ運動検出部69は、ステレオカメラ50の3軸並進運動及び3軸回転運動を検出する。
座標系変換部70は、3軸並進運動及び3軸回転運動の検出結果に基づいて、第1時刻の特徴点の3次元座標を、第2時刻の第1画像センサ52の位置を基準とするセンサ座標系上の3次元座標へ変換する。投影部71は、センサ座標系上の第1時刻の特徴点の3次元座標を第1画像センサ52の撮像画像の2次元座標系へ投影する。
これにより、移動体の移動ベクトルの算出における誤差を抑制することができる。このため移動体検出精度が向上する。特に、移動体検出結果を自車両の自動運転制御又は走行支援制御に利用する場合、移動体に合わせて正確に制御を実行できる。
加えて、本実施例においては、画像上で絶対オプティカルフローを算出する。これにより、本実施形態では、画像上に投影することで、画像上で自車両から特徴点までの距離誤差を抑制するため、自車両から特徴点までの距離誤差の影響を抑えることができ、移動体の移動ベクトルの算出における誤差を抑制することができる。また、本実施形態においては、移動体の移動ベクトルの算出における誤差を抑制することができるため、少ないフレーム(例えば、2フレーム)で移動ベクトルを正確に抽出することができる。
これにより、車速やヨーレートなどの車両センサから得られる情報だけでなく、ロール、ピッチ、横滑りを含む6軸運動の情報が得られる。
また、外部の車両センサを用いずに自車両の運動を検出できるので、画像センサと外部の車両センサとの間の同期が不要になる。
さらに、従来、遠方の移動物体自体の移動と、自車両の回転運動に伴う遠方の特徴点の移動との区別が難しかったところ、画像からセンサ運動を求めると自車両の回転時に遠方の特徴点が大きく動くので、自車両の回転運動の検出精度がよい。このため、自車両の回転運動に伴う遠方の特徴点の移動を精度よく取り除くことができるので、遠方の移動物体を検出しやすくなる。例えば右折時や左折時において移動物体を検出しやすくなる。
(4)移動物体検出部73は、互いの離間距離が閾値以下の移動物候補の特徴点同士を同一の移動物体としてラベリングする。これにより正確に求めた移動ベクトルを用いて移動物候補を特定し、それを用いて移動物体を検出できる。
(6)移動物体検出部73は、同一の移動物体としてラベリングされた特徴点群の重心が、自車両の車速に応じた警戒範囲内に存在する場合に警報信号を発生させる。これにより正確に求めた移動ベクトルを用いて検出した移動物体に基づいて警報信号を発生できる。このため警報信号の精度を向上できる。
(8)車両走行コントローラ30は、警報信号に基づき自車両の自動運転制御又は走行支援制御を行う。これにより高い精度で検出した移動体に合わせて制御を行うことが可能になり、正確に制御を実行できる。
(1)自車両の車速信号と、自車両に搭載された加速度センサ22及びジャイロセンサ23の出力信号とに基づいて、ステレオカメラ50の3軸並進運動及び3軸回転運動を算出してもよい。
これにより、特徴点が検出しにくい場面でも自車両の運動(すなわちステレオカメラ50の運動)を検出できるため、移動ベクトル算出装置10の利用シーンを拡大できる。
(2)また、特徴点までの距離をレーダ51で検出して特徴点の3次元座標を取得してもよい。この場合、ステレオカメラ50に代えて単眼カメラで自車両周囲の画像を取得してもよい。
Claims (10)
- 自車両に搭載された画像センサにより第1時刻及び前記第1時刻より後の第2時刻において自車両周囲の画像を取得し、
前記第1時刻の画像中の特徴点と、前記第1時刻の特徴点に対応する前記第2時刻の画像中の特徴点とを抽出し、
前記第1時刻の特徴点の3次元座標を取得し、
前記画像センサの3軸並進運動及び3軸回転運動を検出し、
検出した前記3軸並進運動及び前記3軸回転運動に基づいて、前記第1時刻の特徴点の3次元座標を、前記第2時刻において前記画像センサが取得した画像の縦方向を一方の座標軸とし横方向を他方の座標軸とする2次元座標系へ投影し、
前記第1時刻の特徴点を前記2次元座標系へ投影した点から前記第2時刻の特徴点までの移動ベクトルを算出する、
ことを特徴とする移動ベクトル算出方法。 - 複数の前記第1時刻の画像中の特徴点の3次元座標と、前記複数の第1時刻の画像中の特徴点にそれぞれ対応する前記第2時刻の特徴点の座標と、に基づいて、前記3軸並進運動及び前記3軸回転運動を算出することを特徴とする請求項1に記載の移動ベクトル算出方法。
- 前記自車両の車速信号と、前記自車両に搭載された加速度センサ及びジャイロセンサの出力信号と、に基づいて、前記3軸並進運動及び前記3軸回転運動を算出することを特徴とする請求項1に記載の移動ベクトル算出方法。
- 前記第1時刻と前記第2時刻との差が予め決められた間隔に設定され、
閾値以上の長さの移動ベクトルを有する特徴点を移動物候補と判定することを特徴とする請求項1~3のいずれか一項に記載の移動ベクトル算出方法。 - 互いの離間距離が閾値以下の移動物候補の特徴点同士を同一の移動物体としてラベリングすることを特徴とする請求項4に記載の移動ベクトル算出方法。
- 同一の移動物体としてラベリングされた特徴点群の平均移動ベクトルを算出し、
前記平均移動ベクトルが前記自車両の進行経路上へ向かっている場合に警報信号を発生させる、
ことを特徴とする請求項5に記載の移動ベクトル算出方法。 - 同一の移動物体としてラベリングされた特徴点群の重心が、前記自車両の車速に応じた警戒範囲内に存在する場合に警報信号を発生させる、ことを特徴とする請求項5に記載の移動ベクトル算出方法。
- 前記警報信号は、音信号、光信号、ステアリングホイールに付与する振動、及びアクセルペダルに付与する反力の少なくともいずれか1つを含むことを特徴とする請求項6又は7に記載の移動ベクトル算出方法。
- 前記警報信号に基づき前記自車両の自動運転又は走行支援を行うことを特徴とする請求項6又は7に記載の移動ベクトル算出方法。
- 第1時刻及び前記第1時刻より後の第2時刻において自車両周囲の画像を取得する画像センサと、
前記第1時刻の画像中の特徴点と、前記第1時刻の特徴点に対応する前記第2時刻の画像中の特徴点とを抽出する特徴点抽出部と、
前記第1時刻の特徴点の3次元座標を取得し、前記画像センサの3軸並進運動及び3軸回転運動を検出するセンサ運動検出部と、
検出した前記3軸並進運動及び前記3軸回転運動に基づいて、前記第1時刻の特徴点の3次元座標を、前記第2時刻において前記画像センサが取得した画像の縦方向を一方の座標軸とし横方向を他方の座標軸とする2次元座標系へ投影する投影部と、
前記第1時刻の特徴点を前記2次元座標系へ投影した点から前記第2時刻の特徴点までの移動ベクトルを算出する移動ベクトル算出部と、
を備えることを特徴とする移動ベクトル算出装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017139887A JP7205049B2 (ja) | 2017-07-19 | 2017-07-19 | 移動ベクトル算出方法及び移動ベクトル算出装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017139887A JP7205049B2 (ja) | 2017-07-19 | 2017-07-19 | 移動ベクトル算出方法及び移動ベクトル算出装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019020289A JP2019020289A (ja) | 2019-02-07 |
JP7205049B2 true JP7205049B2 (ja) | 2023-01-17 |
Family
ID=65353030
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017139887A Active JP7205049B2 (ja) | 2017-07-19 | 2017-07-19 | 移動ベクトル算出方法及び移動ベクトル算出装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7205049B2 (ja) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006134035A (ja) | 2004-11-05 | 2006-05-25 | Fuji Heavy Ind Ltd | 移動物体検出装置および移動物体検出方法 |
JP2006318062A (ja) | 2005-05-10 | 2006-11-24 | Olympus Corp | 画像処理装置、画像処理方法、および画像処理用プログラム |
JP2008009843A (ja) | 2006-06-30 | 2008-01-17 | Honda Motor Co Ltd | 障害物判別装置 |
JP2008065088A (ja) | 2006-09-07 | 2008-03-21 | Toyota Central R&D Labs Inc | 静止物地図生成装置 |
JP2010277262A (ja) | 2009-05-27 | 2010-12-09 | Konica Minolta Holdings Inc | 画像処理装置および方法 |
JP2014006776A (ja) | 2012-06-26 | 2014-01-16 | Honda Motor Co Ltd | 車両周辺監視装置 |
-
2017
- 2017-07-19 JP JP2017139887A patent/JP7205049B2/ja active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006134035A (ja) | 2004-11-05 | 2006-05-25 | Fuji Heavy Ind Ltd | 移動物体検出装置および移動物体検出方法 |
JP2006318062A (ja) | 2005-05-10 | 2006-11-24 | Olympus Corp | 画像処理装置、画像処理方法、および画像処理用プログラム |
JP2008009843A (ja) | 2006-06-30 | 2008-01-17 | Honda Motor Co Ltd | 障害物判別装置 |
JP2008065088A (ja) | 2006-09-07 | 2008-03-21 | Toyota Central R&D Labs Inc | 静止物地図生成装置 |
JP2010277262A (ja) | 2009-05-27 | 2010-12-09 | Konica Minolta Holdings Inc | 画像処理装置および方法 |
JP2014006776A (ja) | 2012-06-26 | 2014-01-16 | Honda Motor Co Ltd | 車両周辺監視装置 |
Also Published As
Publication number | Publication date |
---|---|
JP2019020289A (ja) | 2019-02-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112292711B (zh) | 关联lidar数据和图像数据 | |
US8744169B2 (en) | Voting strategy for visual ego-motion from stereo | |
JP7005978B2 (ja) | 軌跡推定方法及び軌跡推定装置 | |
JP2018523865A (ja) | 情報処理方法、デバイス、および端末 | |
JP5023186B2 (ja) | 3dワーピング手法と固有対象物運動(pom)の検出の組み合わせに基づく対象物の動き検出システム | |
JP2004198211A (ja) | 移動体周辺監視装置 | |
JP2010198552A (ja) | 運転状況監視装置 | |
JP6003673B2 (ja) | 3次元位置推定装置、車両制御装置、および3次元位置推定方法 | |
CN109300143B (zh) | 运动向量场的确定方法、装置、设备、存储介质和车辆 | |
JP2017139600A (ja) | カメラキャリブレーション装置 | |
JP2010072807A (ja) | 道路境界検出判断装置 | |
US20180075609A1 (en) | Method of Estimating Relative Motion Using a Visual-Inertial Sensor | |
JP6939198B2 (ja) | 物体検出方法及び物体検出装置 | |
JP6901386B2 (ja) | 勾配推定装置、勾配推定方法、プログラムおよび制御システム | |
JP2004120661A (ja) | 移動体周辺監視装置 | |
JP6493000B2 (ja) | 路面標示検出装置及び路面標示検出方法 | |
JP6813057B2 (ja) | ビジュアルオドメトリ方法、装置及びコンピュータ読み取り可能な記憶媒体 | |
JP7205049B2 (ja) | 移動ベクトル算出方法及び移動ベクトル算出装置 | |
KR102003387B1 (ko) | 조감도 이미지를 이용한 교통 장애물의 검출 및 거리 측정 방법, 교통 장애물을 검출하고 거리를 측정하는 프로그램을 저장한 컴퓨터 판독가능 기록매체 | |
JP2023116424A (ja) | 歩行者の位置を決定する方法及び装置 | |
JP7179687B2 (ja) | 障害物検知装置 | |
CN111989541A (zh) | 立体摄像机装置 | |
JP5395373B2 (ja) | 周辺監視装置 | |
JP7117169B2 (ja) | 物体検出方法及び物体検出装置 | |
JP2004120662A (ja) | 移動体周辺監視装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20190401 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200512 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210318 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210330 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210519 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211207 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220621 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221129 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221212 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7205049 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |