JP3719095B2 - 挙動検出装置および勾配検出方法 - Google Patents

挙動検出装置および勾配検出方法 Download PDF

Info

Publication number
JP3719095B2
JP3719095B2 JP2000102102A JP2000102102A JP3719095B2 JP 3719095 B2 JP3719095 B2 JP 3719095B2 JP 2000102102 A JP2000102102 A JP 2000102102A JP 2000102102 A JP2000102102 A JP 2000102102A JP 3719095 B2 JP3719095 B2 JP 3719095B2
Authority
JP
Japan
Prior art keywords
camera
behavior
image
vehicle
obstacle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000102102A
Other languages
English (en)
Other versions
JP2001266160A (ja
Inventor
敏彦 鈴木
武雄 金出
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Publication of JP2001266160A publication Critical patent/JP2001266160A/ja
Application granted granted Critical
Publication of JP3719095B2 publication Critical patent/JP3719095B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Description

【0001】
【発明の属する技術分野】
本発明は、挙動検出装置および勾配検出方法に関し、特に、1台のカメラが移動しながら撮影した画像を用いて3次元的に物体を認識して、移動体の挙動を検出またはカメラの移動する面の勾配を検出する技術に関する
【0002】
【従来の技術】
従来、道路表面上の障害物を検出するために用いられる車両用のセンサとしては、3つのタイプのセンサが知られている。ミリ波レーダと、レーザレーダと、撮影画像を用いるビジョンシステムである。
【0003】
ミリ波レーダおよびレーザレーダは、悪条件下で高い信頼性を有し、オートクルーズコントロールシステムにおいて実用化されている。しかしながら、タイヤおよび木製の箱のような非金属の小さな障害物を検出する能力が低い。
【0004】
またビジョンシステムとしては、種々のステレオシステムが提案されている。例えば、“A High-Performance Stereo Vision System for Obstacle Detection,” T.Williamson, Ph. D Thesis, The Robotics Institute, Carnegie Mellon University, Pittsburgh, Pennsylvania, October 1998である。しかしながら、ステレオシステムは、複数のカメラを必要とし、スペースおよびコストの面から不利である。
【0005】
またステレオシステムでは、通常、レンジ解像度を上げるために1m以上のベースラインを設ける必要がある。さらに、高い空間解像度を得るためには焦点距離が長いレンズを用いる必要がある。信頼性を得るために3つ以上のカメラが設けられることもある。これらの要求によりカメラ搭載位置が制限され、その結果、カメラ視野として使える範囲が狭められることもある。
【0006】
これに対し、1つのカメラだけを物体認識に用いることも提案されている。元々、人間の両眼の間のベースラインは十分に長くはない。したがって運転者は、遠くの障害物をステレオ視(立体視)によって認識しているわけではない。運転者は、ある種の移動による立体情報または強度情報を手掛かりに用いている。このような手法を応用することにより、一つのカメラだけを使って障害物を認識可能であり、これによりコストを低減できる。
【0007】
移動情報による認識技術としては、オプティカルフローを用いることが提案されている。障害物と背景から得られるオプティカルフローの相違に基づいて障害物が検出される。
【0008】
すなわち、平坦な路面の画像から得られるオプティカルフローベクトルは、ある特定の式に従う。オプティカルフローベクトルは、連続する複数の画像上の同一ポイントを結ぶベクトルである。画像中のあるポイントが路面上に無ければ、そのポイントのオプティカルフローベクトルは規則に当てはまらない。したがって路面と異なる高さの物体を認識可能である。
【0009】
オプティカルフローを用いた画像処理の一般的な技術は、例えば“画像理解“金谷、森北出版、1990年(“Gazo Rikai”K.Kanatani, Morikita Publishing,Tokyo,1990)に説明されている。また国際公開WO97/35161号に記載されている。これらの文献はここに参照として本明細書に組み込む。
【0010】
【発明が解決しようとする課題】
しかしながら、単にオプティカルフローだけを用いて画像から障害物を認識しようとした場合、小さい障害物に対して信頼できる高精度の検出を行うことが困難である。障害物と路面のオプティカルフローベクトルの差が非常に小さいからである。オプティカルフロー計算の時間差が小さい場合、またはカメラの動きが遅い場合も、同様の理由で信頼できる高精度の検出が困難である。
【0011】
図1の例では、カメラ高さは1.5mであり、90m先には高さ15cmの物体がある。画像上においては、物体の頂点は、100m先の路面と同一位置にある。カメラから両点を見下ろす角度は0.853度である。
【0012】
車両が100km/hで1m進んだときに2枚目の画像が取得されるとする。このとき、物体頂点を見下ろす角度は0.868度である。一方、路面上の点を見下ろす角度は0.869度である。両者の相違は非常に小さい。したがってこのような状況では、オプティカルフローベクトルを比較しても障害物を見つけることは困難である。
【0013】
ここでは、車載カメラによる障害物検出について説明したが、他の任意の認識技術においても同様の問題がある。また本発明の他の関連技術は、“A Specialized Multi-baseline Stereo Technique for Obstacle Detection,” T.Williamson and C.Thorpe, Proceedings of the International Conference on Computer Vision and Pattern Recognition (CVPR '98), Santa Barbara, California, June 1998であり、また“Detection of Small Obstacles at Long Range Using Multibaseline Stereo,” T.Williamson and C.Thorpe, Proceedings of the 1998 IEEE International Conference on Intelligent Vehicles, Stuttgart, Germany, October 1998である。
【0014】
本発明は上記に説明した課題に鑑みてなされたものであり、本発明の主な目的は、小さい対象物などに対する認識能力を向上可能な方法および装置を提供することにある。
【0015】
【課題を解決するための手段】
上記目的を達成するため、本発明は、カメラで周辺領域を撮影した画像に映った物体を画像処理により認識する方法に関する。本発明によれば、一台のカメラにより移動しながら撮影された一連の画像列が取得される。カメラ移動は、物体に対する相対的な移動であればよい。取得した画像に映った物体候補が特定され、特定した物体候補が一連の画像列中で追跡される。そして追跡により得られる物体候補画像の変化情報から物体に関する3次元情報が求められる。
【0016】
物体に関する3次元情報は、例えば物体の高さ、位置、幅または形状などである。この3次元情報は、背景からの物体の突出の有無のような単純な情報を含む。好ましくは、物体の突出の高さなど寸法が求められる。
【0017】
本発明によれば、物体候補が追跡されるので、物体候補とそれ以外の部分との間で、物体画像の移動量の相違が大きく現れる。したがって物体の認識能力が向上する。物体が小さいとき、画像の取得間隔が小さいとき(フレームレートが大きいとき)、およびカメラ移動速度が小さいときでも物体を正確に認識可能となる。
【0018】
また本発明の方法は、認識対象物と背景の色(強度)が近いときに有利である。周囲と近い色をもつ部分は、物体候補に仮決定し、追跡する。そして、その追跡結果から、物体候補が本当に物体であったか否か、例えば路面より突出しているか否かを判定する。したがって、本発明は撮影条件に関連する認識能力も向上できる。
【0019】
好ましくは、追跡中のカメラ挙動を検出し、カメラ挙動に基づいて追跡情報を処理する。カメラ挙動は、カメラを搭載した移動体の挙動と同じである。挙動を用いることで物体の位置やサイズなどを好適に認識できる。さらに好ましくは、カメラ挙動とともにカメラ姿勢を検出し、挙動および姿勢に基づいて追跡情報を処理する。姿勢(pose)は向き(orientation)と配置(location)を含む。挙動と姿勢を用いることでカメラに対する物体の位置などの好適な認識ができる。
【0020】
さらに好ましくは、挙動および姿勢は画像列を用いて検出される。一台のカメラにより撮影された画像列が、物体認識だけでなく、物体認識の基礎となるカメラ挙動および姿勢の検出に利用される。挙動および姿勢の各種パラメータを直接検出する専用センサを削減でき、コストなどの面でも有利である。
【0021】
また挙動および姿勢を検出するとき、画像列に加えてカメラ挙動センサの検出信号を利用してもよく、信頼性を向上できる。
【0022】
また好ましくは、挙動および姿勢を検出するとき、画像列の画像座標上でのフローパラメータを、3次元座標での物理的パラメータへと変換して、挙動と姿勢を求める。画像座標上でのオプティカルフローパラメータは蓄積(積分)処理に向かない。これとは対称的に、3次元座標での物理パラメータは容易に蓄積可能であり、追跡中の挙動および姿勢検出に容易に利用できる。
【0023】
さらに、仮にオプティカルフローパラメータを蓄積したとして、物体と背景を判別可能な程度の蓄積結果の相違は得られるかもしれない。しかしながら、フローパラメータの蓄積からは物理的な値が求められない。すなわち物体の高さ、サイズ、距離、幅などの寸法を求めることは不可能である。一方、本発明によれば、3次元座標での物理パラメータを蓄積して、追跡中にカメラがどのように動いたかを知ることができる。この蓄積情報と、画像内の物体候補の動きから、物体の3次元形状を物理的に把握でき、所望の寸法等の物理的値を計算可能である。このように本発明によれば物体情報を正確に認識でき、この点は本発明の大きな利点の一つである。
【0024】
また好ましくは、挙動および姿勢の検出処理に非線形処理対応のカルマンフィルタを用いる。非線形データの処理を好適に行うことができ、かつ画像ノイズの影響を低減できる。
【0025】
また好ましくは、さらに、カメラが移動する面の勾配を検出する。そして、カメラ挙動および勾配を追跡情報に関連づけて認識処理を行い、より正確に物体を認識する。
【0026】
好ましくは、勾配を検出するとき、画像列からカメラ挙動として推定した推定ピッチ角と、センサで検出した検出ピッチ角との相違に基づいて勾配情報を求める。ここでも非線形処理対応のカルマンフィルタを用いることが好適である。
【0027】
さらに、認識処理ステップにおいても、非線形処理対応のカルマンフィルタを用いることが好適である。好ましくは、新しい物体候補が検出されたときに、その新しい物体候補のためにカルマンフィルタを割り当てる。そして、複数のカルマンフィルタを用いて複数の物体候補の認識処理を並行して行う。これにより、画像に次々と現れる複数の物体を好適に検出できる。
【0028】
また好ましくは、各画像を複数の領域に分割し、分割領域の各々についての認識処理結果から、領域間の凹凸情報を求める。ここでは、各分割領域を物体候補として認識処理を行うことにより、カメラが移動する面の凹凸が求められる。
【0029】
本発明の一態様は、画像に映った被撮影物を画像処理により認識する方法または装置に関する。本発明によれば、一台のカメラにより移動しながら撮影された一連の画像列が取得される。画像に映った被撮影物が前記一連の画像列中で追跡され、追跡により得られた画像中の被撮影物位置の変化情報から被撮影物に関する3次元情報が求められる。
【0030】
本発明の認識技術は、車両における障害物検出に好適に利用される。しかしながら、本発明はそのような用途に限定されない。例えば、本発明は任意の車両制御に利用でき、また3次元地図の作成に利用できる。また車両以外の用途、例えば監視カメラなどにも本発明を適用可能である。
【0031】
ここまでは、本発明の一つの目的である周辺認識技術の向上に関連して、周辺認識方法または装置の態様について説明した。しかし、本発明の態様はこれに限定されない。
【0032】
本発明の別の目的の一つは、好適な挙動検出方法および装置を提供することにある。本発明の一態様によれば、一台のカメラが移動しながら撮影した画像を用いて挙動が検出される。検出処理では、オプティカルフローから3次元座標の物理的パラメータへの変換が好適に行われる。検出処理にはカルマンフィルターが好適に用いられる。これにより、カメラ自体またはカメラが搭載された移動体の挙動が検出される。挙動とともに姿勢が検出され、あるいは姿勢のみが検出されてもよいことはもちろんである。検出結果の用途は、上述の周辺認識に限定されない。カメラを車両に搭載すれば、検出結果は車両制御、例えば各種アクチュエータ(エンジン、ブレーキ、変速機またはステアリング装置など)の制御に利用できる。
【0033】
本発明のさらに別の態様は、撮影画像を用いてカメラが移動する面の勾配を検出する勾配検出方法または装置である。勾配は、画像処理による推定ピッチ角とセンサによる検出ピッチ角に基づいて検出される。検出された勾配は物体認識に利用する他、車両制御などにも利用できる。
【0034】
【発明の実施の形態】
以下、本発明の好適な実施の形態(以下、実施形態という)について、図面を参照し説明する。
【0035】
本実施形態では、例として、カメラが車両に搭載され、路面上の障害物が検出される。ここでは路面上にない物体部分、路面から突出した物体を障害物と定義する。またカメラは車両に固定されているので、基本的にカメラ挙動は車両挙動に等しい。
【0036】
図2は、障害物検出装置の全体構成を示すブロック図である。車両には一台のCCDカメラ1が搭載されており、CCDカメラ1は車両前方を撮影する。カメラ1は車両の屋根などに搭載される。車両センサ3は、車速センサ、ヨーレートセンサおよびピッチセンサを含む。
【0037】
車両の移動中にCCDカメラ1が撮影する一連の画像列(動画像)は、認識処理装置5に送られる。認識処理装置5はコンピュータ装置であり、画像処理により路面上の障害物を検出する。検出結果は、ディスプレイ7およびスピーカ8から出力される。例えば、障害物の存在を示す警報が出力される。また障害物情報は、アクチュエータ9の制御に用いられる。アクチュエータ9は、例えばエンジン、ブレーキ、変速機またはハンドルである。例えば適切な障害物回避制御が行われる。
【0038】
図3は、認識処理装置5の構成を示している。認識処理装置5は、概略的には挙動・姿勢検出部11と、認識処理部13とを含む。挙動・姿勢検出処理部11は、車両挙動(カメラ挙動)およびカメラ姿勢を求め、さらに道路勾配も求める。認識処理部13は、画像から障害物候補を見い出し、その障害物候補を画像列中で追跡し、追跡により得られた軌跡情報(trajectory)から障害物を検出する。追跡および認識処理は、挙動および姿勢情報、さらには勾配情報を用いることにより精度よく行われる。本実施形態では例えば障害物の高さ、距離、横方向配置が求められる。以下、各処理を詳細に説明する。
【0039】
「車両挙動およびカメラ姿勢の検出」
図4は、挙動・姿勢検出部11による処理の全体的な概念を示している。左側の2次元撮影画像からは、オプティカルフローモデルが得られる。このモデルは、周知の2次フローモデルの8つのフローパラメータで表され、それらパラメータは画像中の位置と組み合わされる。ここでは路面が平坦であると仮定し、2枚の画像間の同一点を結ぶベクトルを求める。
【0040】
一方、図4の右側に示すように、3次元空間では車両挙動とカメラ姿勢(向きと配置)が9つの物理的次元のパラメータで表される。9つの物理的パラメータは、車両の3方向の速度a,b,c、3軸回りの角速度W1,W2,W3、カメラのピッチθ、ロールφ、カメラ高さHである。
【0041】
これら9つの物理パラメータの一つ(例えばカメラ高さ)を与えることにより、他の8つの物理パラメータがオプティカルフローパラメータから求まり、挙動および姿勢が求められる。本発明では、この検出処理を拡張カルマンフィルタを用いて行うことによりノイズ低減効果を得る。
【0042】
以下、本実施形態で好適に適用できる技術として、本発明者が発明した、オプティカルフローに基づく車両挙動および向きの検出方法について説明する。
【0043】
後段の障害物認識では、画像中の候補物体を動画像中で追跡する。正確な認識の基礎として用いるべく、追跡中に撮影側がどのように動いたかを正確に求めることが望まれる。ここでは2つの手法が考えられる。一つは、画像座標上での2次元的な挙動パラメータを蓄積する方法である。もう一つは、3次元ワールド座標上での3次元挙動パラメータを蓄積する方法である。
【0044】
両パラメータを計算するための数学的フレームワークは、“Hierarchical Model-Based Motion Estimation,” J.Bergen, P.Anandan, K.Hanna and R.Hingorani, Proceedings 2nd European Conference on Computer Vision-92,Santa Margherita Ligure, Italy, May 1992に提案されている。この文献はここに参照として本明細書に組み込まれる。この文献では、現在の画像と以前の画像(挙動パラメータで変形)の強度差が最小になるように最適計算が行われる。
【0045】
しかし、画像座標上での2次元挙動パラメータは、本来、積分処理には向かないデータであり、このパラメータの蓄積処理は実際問題として困難である。物理的な次元も適当に設定できないので、パラメータの蓄積結果から得られる形状情報は曖昧であり、物理的な形状認識(寸法等)は困難である。
【0046】
この点に鑑み、本発明者は、検討の結果、3次元座標での挙動パラメータ(変化率)を蓄積することが最も実用的であり、効果的であることを見い出した。道路表面に対する車両挙動と向きが明確に求められる。これら情報は、カメラの挙動と姿勢による画像変化を計算するための基礎となり、そして、道路平面で定義されるような3次元世界での障害物認識のための情報蓄積が可能になる。なお、これら情報は車両制御および道路形状(geography)のモデリングにも利用できる。
【0047】
以上の検討に基づき、本実施形態では、オプティカルフローベクトルから、3次元空間での挙動および向きを推定する。オプティカルフローベクトルは、前述のように、複数画像の同一点を結んだベクトルである。
【0048】
ここで問題となるのは、フローベクトルとパラメータの間の関係が非線形なことである。また正確で安定した推定処理のためには、CCDカメラの個体差からくる画像強度(intensity)および色彩(effect)の測定ノイズを取り除くべきである。本実施形態では、このような要求を満たすために拡張カルマンフィルタを用いる。
【0049】
拡張カルマンフィルタについては、例えば、“Recursive 3-D Road and Relative Ego-State Recognition,” E.Dickmanns and B.Mysliwetz, IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol.14, No.2, February 1992に記載されており、また、“Robust car tracking using Kalman filtering and Bayesian templates,” F.Dellaert and C.Thorpe, Proceedings of SPIE: Intelligent Transportation Systems, Vol.3207, October 1997に記載されている。これらの文献は、ここに参照として本明細書に組み込まれる。
【0050】
図5の概略図は、図3の上半部に相当する。センサ情報としては、1台のCCDカメラにより撮影された複数の画像(例えば時間t−1およびt)が入力される。また車両センサから車速、ヨーレートおよびピッチレートが入力される。なお、ヨーレートセンサおよびピッチセンサは、近年のラグジュアリークラスの乗用車に通常備えられているセンサでよい。またCCDカメラは、例えば車両のルーフラックの中央に取り付けられる。
【0051】
図5の構成において、画像情報からは画像処理によりオプティカルフローおよび2次元フローモデルの8つのパラメータが算出される。オプティカルフローが、データ演算部としてのカルマンフィルタで処理され、車両挙動とカメラ向きおよび配置(姿勢)とが算出される。車速およびヨーレートを画像情報とともに用いることにより推定精度が向上される。また、第2のカルマンフィルタが設けられており、第1のカルマンフィルタから挙動情報が入力され、また車両センサからピッチレート情報が入力される。この第2のカルマンフィルタは、道路勾配検出用のデータ演算部として設けられている。
【0052】
以下、挙動検出処理の原理を詳細に説明する。
【0053】
(1)座標システムとパラメータの定義
図6および図7には、本実施形態で用いる3つの座標システム、すなわち画像座標システム、カメラ座標システムおよび車両座標システムが示されている。画像座標は、CCDカメラの画像面に設定されている。カメラ座標では、画像面とカメラ軸の交点が原点である。車両座標はカメラ座標を回転したものである。これらの座標システムはカメラの移動に伴って動く。
【0054】
基本的に、画像に現れる道路表面は平坦であると仮定する。しかしながら、実際には小さな凹凸および勾配が存在する。この点に関連する好適な処理は、後述にて述べる。
【0055】
(2)平坦表面フロー
路面を走る車両に搭載されたカメラの動きは、6つの自由度を有する。垂直方向速度acamera、横方向速度bcamera、縦(前後)方向速度ccamera、ヨーレートω1、ピッチレートω2およびロールレートω3である。これらの挙動パラメータはカメラ座標にて測定される。
【0056】
路面が平坦であると見なすと、平面の方程式はカメラ座標において下式で記述される:
【数1】
Figure 0003719095
ここでp、qおよびrは平面パラメータである。
【0057】
そして画像面上で平坦な表面の画像から得られるオプティカルフローベクトルは、下式で表される:
【数2】
Figure 0003719095
【数3】
Figure 0003719095
ここで、u、vは、それぞれ、画像座標(x,y)でのフローベクトルの水平成分および垂直成分である。fは焦点距離である。U,V,A,B,C,D,EおよびFは、路面に対するカメラの挙動と向きにより決定されるフローパラメータである。フローパラメータは下式で与えられる:
【数4】
Figure 0003719095
ここでtdは、画像サンプリングタイムである。
【0058】
ところで、平面パラメータは、路面に対するカメラ向き角度と位置を用いて記述できる。すなわち、ピッチ角θ、ロール角φおよびカメラ高さHである。通常、ほとんどの車両において、θ、φおよびΔH(Hの変化)は、ほぼゼロである。したがって:
【数5】
Figure 0003719095
この近似式を用いることにより、カメラと路面の間の幾何学的関係から下式が得られる。
【0059】
【数6】
Figure 0003719095
図7に示すように、カメラ座標は、車両座標に対してθおよびφだけ回転されている。したがって、カメラの移動速度acamera、bcamera、ccameraは、車両移動速度a、b、cを用いて以下のように書ける。
【0060】
【数7】
Figure 0003719095
カメラを搭載するとき、ニュートラルステアリング位置での車両移動方向にカメラ軸を正確に一致させることは容易でない。そこで、ここではカメラと車両の縦方向速度を測定するための水平方向の差を考慮に入れるためにパラメータγを導入している。
【0061】
以上より、フローベクトルは車両座標では下式のようになる。
【数8】
Figure 0003719095
【0062】
(3)車両ダイナミクスモデル
前述したように、本実施形態では、拡張カルマンフィルタを用いて測定ノイズが低減され、かつ非線形式が容易に扱われる。拡張カルマンフィルタは、周知のように、非線形処理に対応できるように構成されたカルマンフィルタである。本実施形態では、対象である車両の物理的な数学モデルがフィルタ内に備えられる。ここでは、拡張カルマンフィルタで用いる車両ダイナミクスモデルの例を説明する。
【0063】
車両ダイナミクス(上下、ピッチ、ロール移動)は、二次振動によりモデル化される。モデルは10の式で表される。すなわち、車両座標での重心回りの3つの移動速度および3つの回転速度、カメラ視での路面に対するカメラ姿勢の3つの式、およびカメラ軸と車両軸の角度差である。
【0064】
垂直方向挙動は、
【数9】
Figure 0003719095
ここでpaは減衰係数、qaはバネ定数、kaは加速と高さ変化の関係要因、αは運転者または道路勾配による車両加速度、Waは道路の凹凸(バンプ)に起因する処理ノイズ、haは道路凹凸である(以下の式で同様の文字は同様の意味をもつ)。
【0065】
またピッチング挙動は、
【数10】
Figure 0003719095
ここでIθはピッチングの慣性モーメント、θ0は初期ピッチ角、Pθは減衰係数、qθはバネ定数、kθはαとω2の変化率との関係要因、W2は道路凹凸の処理ノイズ、hθは2次ダイナミクスでのW2による等価ピッチ変化である。
【0066】
またロール挙動は、
【数11】
Figure 0003719095
ここでVは車両速度であり、Iφはロールの慣性モーメント、φ0は初期ロール角、Pφは減衰係数、qφはバネ定数、kφは移動加速度とω3の変化率との関係要因、W3は道路凹凸の処理ノイズ、hφは2次ダイナミクスでのW3による等価ロール変化である。
【0067】
車両のスリップ角は無視できると仮定すると、横方向挙動は、
【数12】
Figure 0003719095
ここでWbはヘッド(車頭)角差、ワインド(wind)および道路凹凸による処理ノイズである。
【0068】
さらに縦方向挙動は、
【数13】
Figure 0003719095
ここでWcは道路勾配による処理ノイズである。
【0069】
さらにヨー挙動は、
【数14】
Figure 0003719095
ここでW1は道路凹凸による処理ノイズである。
【0070】
さらに、カメラ視での路面に対するカメラ軸のピッチ角θとロール角φ、および、路面に対する初期時点でのカメラ位置高さは、
【数15】
Figure 0003719095
さらに、カメラの角度に関して、カメラの向きと車体の向きの角度、および、車体の向きと車体が動く方向との角度が考えられる。前者の角度は前述のγに相当する。後者には適当な推定値が好適に適用可能である。車速が大きくない状況、あるいは、急カーブ等以外の状況を想定し、b=0と仮定してこうした角度を処理することができる。
【0071】
以上、車両ダイナミックスモデルに関して各種の条件を説明した。拡張カルマンフィルタには、これらの条件(6つの挙動パラメータと4つの向きパラメータ)が線形マトリックス表現で書かれる。
【0072】
(4)オプティカルフローおよびフローパラメータの計算
まず、ラプラシアン・ガウシアン・フィルタ(Laplacian Gaussian Filter)を用いて画像の特徴が強調される。それからテンプレートマッチング法を用いてオプティカルフローパラメータが算出される。テンプレートマッチング法では、絶対値差の合計をマッチング指標として利用できる。
【0073】
前段階のオプティカルフローパラメータを用いることにより、テンプレートマッチングのスタート位置を適切に設定できる。また初期化では、路面領域には障害物が一つもないと仮定する。これにより、大きな計算負荷を使わないでも、オプティカルフローの計算をリアルタイム作業で行える。
【0074】
そして前出の式(2)(3)が、道路面のフローパラメータU,V,A,B,C,D,EおよびFの算出に用いられる。最小二乗法を用いて、フローパラメータおよびその画像中の位置(u(x,y),v(x,y),x,y)が計算される。この処理は、アウトライアー(outliers)を取り除くため、数回の反復処理にわたって繰り返される。
【0075】
(5)拡張カルマンフィルタの構成
本実施形態では、車両センサによって得られた車速およびヨーレートが、オプティカルフローパターンから計算される8つのパラメータとともに用いられる。したがって、車両挙動の観察ベクトルyvは以下にように定義される:
【数16】
Figure 0003719095
ここで、cおよびω1は車両センサ(それぞれ速度センサおよびヨーレートセンサ)で測定される。
【0076】
一方、本実施形態で推定により求めるべき状態ベクトルzvは、以下のように、車両挙動の6つのパラメータと、車両方向の3つのパラメータと、カメラ軸と車両軸の間のオフセット角とで構成される。
【0077】
【数17】
Figure 0003719095
観察ベクトルは、式(6)で示されるような可変状態では非線形である。拡張カルマンフィルタによれば、前回の推定に基づいてシステムの式を線形化することで、最小分散推定ができる。共分散マトリクスおよび拡張カルマンフィルタのカルマンゲインが現在の測定に依存するので、それらは反復計算の度に、最新のセンサデータと推定結果を用いて更新される。
【0078】
(6)実験結果
ここでは、車両挙動と向きを推定するアルゴリズムを、SGI O2ワークステーションにてMATLABバージョン5のSIMULINKモジュールを用いて作成した(それぞれ商標)。入力データは、1台のCCDカメラにより得られた画像列と車両センサデータとであり、これらは、駐車場を走る乗用車から同時に取得された。
【0079】
使用した画像サイズは、256×240ピクセルであり、画像取得レートは15Hz(15枚/秒)である。画像列は、時速約24km/hで走行中に取得された。
【0080】
図8のグラフは、拡張カルマンフィルタにより推定されたピッチ角(点線)と、センサで測定したピッチ角(実線)とを比較して示している。縦軸の単位は約0.25度であり、横軸の単位は1秒である。図8の画像は、画像列から得たLOGフィルター処理後のフレームである。推定および測定による2つのラインは良好に一致している。これは、推定処理が正確であり、安定していることを示す。
【0081】
図9に示すように、検出処理の対象領域を狭め、挙動推定に用いるオプティカルフローベクトルの数を減らすと、推定結果の安定性は変わらないが、推定および測定の一致度は少し低下する。この効果は、図8および図9中で円で囲んだ部分にて明らかである。
【0082】
この相違の原因は、各処理で選択した処理対象領域(大きい領域と小さい領域)における道路勾配の相違にある、と考えられる。実際、拡張カルマンフィルタは、路面に対するカメラ軸の向きを推定しており、一方、ピッチレートセンサは、カメラの絶対的なピッチ挙動を測定している。この点は、後述する道路勾配の推定に好適に利用される。
【0083】
図10は、他の車両挙動パラメータの推定結果を示している。これらの推定値も、他の方法で測定した結果と良く一致すると思われる。なお、“カメラアングル”と付されたグラフは、オフセット角(車両の前後方向軸とカメラ軸との角度)である。
【0084】
以上に、オプティカルフローから車両挙動と向きを推定するアルゴリズムを説明した。
【0085】
図3に戻り、本実施形態の障害物検出装置への上記アルゴリズムの適用について説明する。
【0086】
時間的に離れた複数の画像が入力されると、これらの画像から上記の方法でオプティカルフローが計算され、フローパラメータが求められる。フローパラメータと、車両センサから入力された車速およびヨーレートが、上述の原理に従い構成された第1のカルマンフィルタに入力される。そして上記のパラメータ変換が行われ、車両(カメラ)挙動とカメラ姿勢(向きおよび配置)が求められる。
【0087】
さらに、第1のカルマンフィルタで推定されたピッチ角が、第2のカルマンフィルタに入力される。また車両センサからピッチレートがピッチ角測定値情報として入力される。第2カルマンフィルタは、推定ピッチ角と測定ピッチ角を用いて道路勾配を検出する。
【0088】
勾配検出の原理を説明すると、画像を用いた推定ピッチ角は、実際のピッチ角に加えて、道路勾配情報を含んでいる。一方、測定ピッチ角は、実際のピッチ角のみを含んでいる。したがって、両ピッチ角の差から道路勾配が求められる。
【0089】
挙動・姿勢検出部11が推定したデータは、認識処理部13へ送られる。
【0090】
「障害物認識処理」
次に、本実施形態の障害物認識処理を説明する。
【0091】
これまでの処理で車両挙動およびカメラ姿勢が得られた。道路形状(geography)情報については、道路座標でもって道路の任意の点が記述できる。道路座標は、任意の初期時点にて車両が位置するところの道路に接するYZ平面として定義される。しかし、道路形状を正確に求めても、画像中の点が路面上にあるか否かは、1枚の画像によってはかなり曖昧にしか決定できない。画像上では、カメラに近い側で路面より上方にある点が、少し遠くにあって路面上にある点と同一画像位置に投影されるからである。そこで、本実施形態では、以下のように適当な期間、例えば数秒間にわたって障害物候補を追跡することにより、確実な認識処理を行う。
【0092】
概略的には、画像面上での対象ポイントの軌跡は、適当な初期位置から現在までの適当な道路座標での車両(カメラ)の移動(movement)とカメラ座標でのポイント位置により記述できる。車両の移動量(movement)は画像の全ポイントにて同様であり、既に説明した車両挙動(motion,変化率)の蓄積によって容易に計算できる。車両の3次元的な移動量と画像の軌跡が得られれば、カメラ座標での対象ポイントの3次元位置が記述できる。非線形で密接に関連するデータの処理のため、またノイズに対処するために、ここでも拡張カルマンフィルタが好適に用いられる。以下、認識処理をより詳細に説明する。
【0093】
この認識処理は、上記の挙動および姿勢を参照して、撮影画像に基づいて、図3の認識処理部13にて行われる。まず、図11を参照して認識処理の原理を説明する。ここでは障害物の高さを求める。路面より突出する物体があれば、その物体は障害物とみなされる。
【0094】
図11において、t0の画像中に障害物候補が検出されたとする。障害物候補は、例えば、画像強度が路面と異なる部分である。そのような部分のエッジなどの特徴点が候補ポイントとして求められる。
【0095】
t0から障害物候補の追跡が開始される。フレームレートは例えば15フレーム/秒である。適当な期間(t0〜t1)、例えば数秒の間に複数のフレームが取得され、それらフレーム中で障害物候補が追跡される。路面からの候補ポイントの高さに応じて、すなわち候補ポイントが実際に障害物の一部であるか否かによって、候補ポイントは異なる軌跡を描く。
【0096】
図11において、丸印は、候補ポイントが路面より上方にあるときの軌跡である。×印は、候補ポイントが路面上にあるとき(高さ0)の軌跡である。丸印の方が画像内で大きく移動する。
【0097】
そこで、本実施形態では、候補ポイントの軌跡の相違に基づいて障害物を検出する。すなわち候補ポイントが路面より高い位置にあるとき、その候補ポイントの位置に障害物があると判断する。ここでは、図11に示す2つの軌跡の違いが何らかのかたちで求められればよい。ポイント移動量から求めることが一般的である。また例えば、候補ポイントの移動の速さ(軌跡の傾きに相当)から求めることも可能である。本発明の範囲内で、物体の高さ情報を求める処理として、路面からの高さの有無だけを求めてもよい。好ましくは物体の高さ寸法などの具体的数値が求められる。適宜、物体までの距離および物体の横方向位置も求められる。
【0098】
なお、図11の例では、前提条件として、路面傾斜は変化してもよいが、局所的には平坦である。また、車両挙動に関しては、ピッチ、ヨーおよびロールは小さいがゼロではないことを想定している。
【0099】
次に、図12を参照し、認識処理において挙動および姿勢情報をどのように利用するかを説明する。図12の右上には、実際の画像に映る点の軌跡を示している。追跡の前後で、障害物の頂点と道路上のポイントでは、画像上の垂直方向の移動量が異なっていることが分かる。
【0100】
図12から明らかなように、実際の画像上では、コンスタントに一方向にポイントが移動する滑らかな軌跡は描かれない。追跡途中に高さ、ヨー、ロール、ピッチなどが変化するからである。
【0101】
さらに、図12を参照すると、障害物の頂点も路面上の点も同じように上下している。これは車両挙動の影響が画面全体に同様に現れるからである。
【0102】
そこで、本実施形態では、車両挙動とカメラ姿勢に基づいて、障害物認識処理を行う。原理的には、図12の右上の軌跡から、挙動と姿勢に関連する成分を取り除けばよい。この処理では、姿勢に応じて推定された挙動を積分して得られる移動量が参照される。このようにしてカメラ座標における対象ポイントの3次元位置を求めることが可能になる。
【0103】
さらに図12の左側に例示する認識処理では、車両挙動として走行距離、横方向移動およびヨー角度が求められる。またカメラ姿勢としてピッチ角、ロール角、高さが求められる。さらに路面からの高さ情報が取得され、道路勾配が取得される。これらの情報を利用して、画像中の障害物の位置情報が求められる。
【0104】
認識処理では測定ノイズの影響も受ける。認識処理の対象になる各パラメータは、互いに非線形的かつ密接に関連している。そのため、認識処理は測定ノイズに敏感であり、かつ複雑である。本実施形態では、障害物認識処理にもプロセッサとしての拡張カルマンフィルタが用いることにより、この問題を解決している。
【0105】
次に、図3に戻り、本実施形態の障害物検出装置に対する上記認識処理の適用について説明する。本実施形態では、認識処理部13に、障害物検出用に複数のカルマンフィルタが設けられている。そして、これらの複数のカルマンフィルタにより、複数の障害物候補が並行して認識処理にかけられる。
【0106】
障害物検出用の複数のカルマンフィルタは、図示しない制御部の下で、独立して任意の時点で起動し、かつ任意の時点でその機能を終了可能に構成されている。カルマンフィルタが任意の時点でプロセッサ上にソフトウエア的に生成されてもよい。
【0107】
認識処理部13に入力される画像は、障害物候補の追跡用と、新しい障害物候補の発見用に用いられる。追跡用の複数のカルマンフィルタには、複数の追跡対象の障害物候補がそれぞれ割り当てられている。現在はn個のカルマンフィルタが機能している。各カルマンフィルタには、挙動・姿勢検出部13から、逐次車両挙動と姿勢(変化率)が送られてくる。これらのデータが蓄積されて、追跡期間にカメラがどう動いたか(蓄積動き)が求められる。この蓄積データを用いて、障害物候補の認識処理が行われ、障害物候補が実際に路面から突出する高さを有するか否かが求められ、これにより障害物が検出される。
【0108】
n+1番目の新たな障害物候補が発見されたときは、その障害物候補のために新たなカルマンフィルタが形成(create)される。前述したように、例えば画像内で強度が路面と異なる部分が障害物候補に選定される。画像内のエッジ等の特徴点が好適に用いられる。そして、新たな候補の追跡が開始される。
【0109】
また、ある障害物候補が実際には障害物候補でないことが判明したとき、その障害物候補を処理していたカルマンフィルタは終了(terminate)される。
【0110】
図13は、本実施形態に従った認識結果の例である。上段から順に、高さ、距離、横方向配置の推定結果が示されている。各グラフでは、障害物候補の頂点と最下点(すなわち路面上の点)についての認識結果が示されている。また最も下のグラフには道路勾配の推定結果が示されている。
【0111】
グラフ中の1秒の時点から追跡が開始されている。図示のように、追跡開始直後は、障害物の頂点と路面上の点の判別がつかない。しかし、数秒の追跡の結果、障害物の頂点が路面より上方にあることが分かる。推定値が収束および安定して、物体高さが分かる。
【0112】
以上に説明したように、本実施形態では、適当な期間、複数の画像中で障害物候補を追跡している。したがって、障害物が小さいときでも、障害物上のポイントと路面上のポイントとの移動量に大きな差が現れる。また、追跡処理を行うので、複数の画像中で対応する候補ポイントを正確に求められる。この利点は、時間的に大きく離れて得られた2枚の画像のみを比較する場合と比べると顕著である。以上より、本実施形態では、小さい障害物も正確に検出できる。
【0113】
さらに本実施形態は、以下に説明するように、路面と障害物の色が近似しているとき、すなわち両者の画像強度差が小さいときに有利である(撮影条件の影響を低減できる)。
【0114】
画像中で、路面と異なる画像強度を有する領域Aが路面内にあるとする。本実施形態では、この領域Aを障害物候補に設定するか否かの基準値を低く設定する。より詳細には、領域Aが障害物であることが疑われる程度に(障害物である可能性が低いぐらいに)小さな強度差を基準値に設定する。
【0115】
路面と領域Aの強度差が基準値以上であれば、領域Aを障害物候補とし、領域Aのエッジ等の特徴点を追跡する。追跡の結果として、領域Aの高さが路面と同じであれば、領域Aは障害物でなかったと判断する。一方、領域Aが路面から突出していれば、領域Aは実際に障害物であると判断する。
【0116】
このように、本実施形態では、障害物候補の範囲が広く設定される。障害物か否かが疑わしい場合でも、とりあえず障害物候補に設定し、後からその設定が正しいか否かを判定する。これにより、障害物と路面の輝度差が小さい場合でも障害物を検出可能となり、認識能力を向上できる。
【0117】
次に、本実施形態において、高さ検出のさらなる精度向上を図るためには、物体候補の最上点と最下点の高さの差を求めることが好適である。また、簡略化のためには上下方向の画素位置のみを処理すればよいが、詳細処理のためには上下方向および横方向の画素位置を考慮すべきである。これらは、高さ以外の値の算出においても同様である。
【0118】
例えば、図13を再び参照すると、実際の障害物高さが60cmであるのに対して、測定値にはある程度の誤差が見られる。これは、車両と物体の間の道路勾配変化に起因すると考えられる。さらなる精度向上のために、物体上下の位置を測定し、両者の距離を求めてもよい。
【0119】
以上に本実施形態の障害物認識装置について説明した。本発明は本実施形態に限定されない。当業者は、本発明の範囲内で本実施形態を変形および応用可能であり、または他の態様でもって本発明を実施可能である。
【0120】
例えば、障害物検出装置は本発明の周辺認識装置の好適な一形態である。本発明は、障害物検出以外の用途に用いられる周辺認識装置にも適用可能である。あるいは、車両周辺の任意の物体を障害物とみなして、本実施形態を周辺認識に適用してもよい。
【0121】
また本実施形態は、物体の形状に関する情報の一例としての主に物体高さを検出している。しかし、前述したように、本発明により高さ以外の情報、すなわち3次元形状に関する任意の情報が求められてもよい。
【0122】
また本実施形態を応用することにより、道路の凹凸を検出することもできる。好適には、撮影画像が複数の領域に分割される。そして、各分割領域に対して本発明の認識処理に従って深さ情報が求められる。すなわち各分割領域が障害物候補と同様に扱われる。領域間に深さの差がある場合に、凹凸があると判断する。例えば、工事による凹凸などが検出される。凹凸情報は、障害物情報と同様に、スピーカまたはディスプレイから出力され、あるいはステアリング等のアクチュエータ制御に用いられる。このような凹凸を検出する周辺認識装置も本発明の好適な一形態である。
【0123】
また、本発明の周辺認識方法を利用して3次元地図を作成することもできる。上記の実施形態において、道路形状および道路脇の建物等を障害物とみなし、それらの形状を求める。得られた形状情報を地図作成に利用する。
【0124】
また本発明の別の態様は、車両以外で用いられる周辺認識装置である。カメラを任意の移動体に搭載し、撮影画像から物体を認識することができる。
【0125】
さらに、本発明では、カメラと物体が相対的に移動すればよい。カメラが固定されて、物体が移動してもよい。この点では、監視カメラなどにも本発明を適用できる。
【0126】
さらに、本発明では、カメラと物体が両方とも移動してもよい。例えば先行車両の検出に本発明を用いることができる。
【0127】
また、本実施形態では、周辺認識装置の一部構成要素として、撮影画像を利用するカメラ挙動および姿勢検出機能が設けられた。この検出機能は、方法または装置のかたちで、単独で本発明の一態様となり得る。
【0128】
すなわち、本発明の別の態様は、カメラ挙動および/または姿勢検出装置である。また本発明の別の態様は、カメラが搭載された移動体の挙動および/または姿勢検出装置である。これらの態様は、物体認識に好適に用いられるのはもちろんのこと、物体認識以外の用途に用いられてもよい。
【0129】
例えば、本発明により車両挙動(または姿勢)が認識される。この挙動を用いて車両制御が行われる。トラクションコントロールなどに好適に適応可能である。車両に搭載すべきセンサを削減できるという利点が得られる。また車両センサとの併用により信頼性を向上できる。
【0130】
さらに、本発明の別の態様は、道路勾配検出装置または方法でもよい。
【0131】
さらに、本発明の別の態様は、カメラ方向を検出する。好ましくは、検出結果に基づいてカメラ方向を調整する手段が設けられる。本発明では、上述したカメラ軸と車両軸の角度(カメラ角)を検出した機能が利用される(図10参照)。
【0132】
ここで、カメラ角の検出機能は、本発明の注目すべき利点の一つである。従来、ステアリングがニュートラル位置に保持されており、かつ、車両が真っ直ぐに走っている状態では、車両の移動方向を示す車両軸を測定することは困難であった。これに対し、本実施形態で推定されたカメラ角は、車両座標でのYZ面における車両軸とカメラ軸の角度を示している。そして、オプティカルフローを用いて得られたこのカメラ角を用いて搭載角を調整することができ、初期組付け後のシステム変化に対処できる。
【0133】
以上に本発明の各種変形例を説明した。なお、本発明は方法の態様で実施されてもよく、また装置の態様で実施されてもよいことはもちろんである。また本発明は記録媒体の態様で実施されてもよい。上述した認識方法、挙動検出方法等がプログラムの形で記録媒体に記録される。記録媒体は、電気的、磁気的または光学的手段によってデータを保持する。
【0134】
次に、本発明の主要な効果をまとめて説明する。
【0135】
本発明によれば、周辺認識処理において候補物体を追跡するので、小さい物体も正確に認識できる。カメラの移動速度が小さいときや画像取得間隔が小さいときも同様である。
【0136】
本発明によれば、上記追跡処理の効果として、撮影条件の影響を低減でき、背景色と近似した色をもつ物体の認識能力を向上できる。
【0137】
本発明によれば、カメラ挙動に基づいて認識処理を行うので、位置およびサイズなどの認識精度を向上できる。カメラ挙動(変化率)は蓄積され、カメラの移動量として有用に用いられる。さらにカメラ挙動とカメラ姿勢に基づいて認識処理を行うことで、認識精度を向上できる。もちろん、認識精度は限られるものの、カメラ挙動のみを用いてもよい。
【0138】
本発明によれば、撮影画像が認識処理に用いられるだけでなく、認識の基礎になるカメラ挙動および姿勢の検出に用いられ、これによりセンサコストを低減できる。
【0139】
本発明によれば、カメラ挙動および姿勢の検出に、撮影画像に加えてセンサを利用することにより、信頼性を向上できる。
【0140】
本発明によれば、カメラ挙動および姿勢を検出するときに、画面上のフローパラメータを、3次元座標での物理的パラメータへと変換するので、挙動データを容易に蓄積でき、そして正確な認識ができる。
【0141】
これは本発明の重要な効果の一つである。2枚の画像から得られるオプティカルフローでは、物体と背景のベクトルに差が現れず、物体検出が困難なことは既に述べた。オプティカルフローを蓄積することも考えられるが、オプティカルフローは元々蓄積に適さないデータである。また仮にオプティカルフローを蓄積したとしても、オプティカルフローは元々2次元画像上のデータなので、3次元的な形状把握できない。これに対して、本発明によれば、上述したように、3次元座標での物理パラメータを蓄積して、追跡中にカメラがどのように動いたかを知ることができる。この蓄積情報を用いて、画像に映った物体の3次元形状を物理的に把握できる。このように本発明によれば物体認識能力の大幅な向上を図ることができる。
【0142】
本発明によれば、カメラ挙動および姿勢の検出に拡張カルマンフィルタを用いることにより、非線形であるフローパラメータの処理を好適に行うことができ、かつ画像ノイズの影響を低減でき、実用面で好適な検出装置を構成できる。
【0143】
本発明によれば、カメラが移動する面の勾配に基づいて認識処理を行うことにより、さらに認識性能を向上できる。道路勾配は、センサで検出したピッチ角と、画像処理で推定したピッチ角とを比較することにより好適に求められる。勾配算出にもカルマンフィルタが好適に用いられる。
【0144】
本発明によれば、物体認識処理でも非線形処理対応のカルマンフィルタを用いることにより、ここでもノイズ条件下で非線形データを好適に処理できる。
【0145】
本発明によれば、認識処理用の複数のカルマンフィルタ処理部を用意して、複数の候補物体を並行して処理することにより、画像に次々と現れる複数の物体を好適に検出できる。
【0146】
本発明によれば、各画像を複数の領域に分割し、分割領域の各々について認識処理を行うことにより、路面等の凹凸情報を求めることもできる。
【0147】
本発明によれば、認識結果として得られる形状情報を利用して3次元地図を作成することができる。
【0148】
本発明によれば、周辺認識により車両前方の障害物を検出することにより、安全性を向上できる。
【0149】
本発明によれば、カメラ挙動情報および姿勢情報を各種の用途に利用できる。例えば車両制御に利用することもできる。
【図面の簡単な説明】
【図1】 従来技術の問題点を示す図である。
【図2】 本発明の実施形態の障害物検出装置の全体構成を示すブロック図である。
【図3】 図2中の認識処理装置の構成を示す図である。
【図4】 撮影画像を用いたカメラ挙動および姿勢検出処理を概略的に示す図である。
【図5】 図3の認識処理装置の挙動姿勢検出部を示す図である。
【図6】 座標システムの定義を示す図である。
【図7】 車両座標およびカメラ座標を示す図である。
【図8】 挙動情報としてのピッチ角の推定結果を示す図である。
【図9】 処理対象領域が図9と異なるときのピッチ角の推定結果を示す図である。
【図10】 各種の挙動および姿勢パラメータの推定結果を示す図である。
【図11】 本実施形態の追跡処理を用いた障害物認識処理の原理を示す図である。
【図12】 図11の処理へのカメラ挙動および姿勢情報の適用方法を示す図である。
【図13】 障害物の認識結果の例を示す図である。
【符号の説明】
1 CCDカメラ、3 車両挙動センサ、5 認識処理装置、7 ディスプレイ、8 スピーカ、9 アクチュエータ、11 挙動・姿勢検出部、13 認識処理部。

Claims (2)

  1. カメラまたはカメラが搭載された移動体の挙動を検出する挙動検出装置であって、
    移動体に搭載され、移動体が移動する間に移動体の周辺の少なくとも一部領域の画像を取得するカメラと、
    前記カメラが取得した複数の画像を用いて挙動を検出する検出処理手段と、
    を含み、
    前記検出処理手段は、前記複数の画像の画像座標上でのフローパラメータを、カメラ側の挙動情報を表す3次元座標での物理的パラメータへと変換するとともに、前記複数の画像に加えて挙動センサの検出信号を利用して挙動を検出することを特徴とする挙動検出装置。
  2. カメラによる撮影画像を用いて、カメラが移動する面の勾配を検出する方法であって、
    一台のカメラにより移動しながら撮影された複数の画像を取得するステップと、
    前記複数の画像から得られるフローパラメータを、3次元座標での物理的パラメータに変換することによって、カメラまたはカメラが搭載された移動体のピッチ角を推定するステップと、
    ピッチセンサを用いて、カメラまたはカメラが搭載された移動体のピッチ角情報を検出するステップと、
    推定ピッチ角と検出ピッチ角との相違に基づいて、カメラが移動する面の勾配を求めるステップと、
    を含むことを特徴とする勾配検出方法。
JP2000102102A 2000-03-22 2000-04-04 挙動検出装置および勾配検出方法 Expired - Fee Related JP3719095B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US09/533167 2000-03-22
US09/533,167 US6535114B1 (en) 2000-03-22 2000-03-22 Method and apparatus for environment recognition

Publications (2)

Publication Number Publication Date
JP2001266160A JP2001266160A (ja) 2001-09-28
JP3719095B2 true JP3719095B2 (ja) 2005-11-24

Family

ID=24124776

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000102102A Expired - Fee Related JP3719095B2 (ja) 2000-03-22 2000-04-04 挙動検出装置および勾配検出方法

Country Status (2)

Country Link
US (1) US6535114B1 (ja)
JP (1) JP3719095B2 (ja)

Families Citing this family (128)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100466458B1 (ko) * 1999-09-20 2005-01-14 마츠시타 덴끼 산교 가부시키가이샤 운전지원장치
JP2002248963A (ja) * 2001-02-23 2002-09-03 Tokai Rika Co Ltd 車両用変速機制御装置
TWI246665B (en) * 2001-07-12 2006-01-01 Ding-Jang Tzeng Method for aiding the driving safety of road vehicle by monocular computer vision
US20030033602A1 (en) * 2001-08-08 2003-02-13 Simon Gibbs Method and apparatus for automatic tagging and caching of highlights
US7091989B2 (en) * 2001-08-10 2006-08-15 Sony Corporation System and method for data assisted chroma-keying
US7202791B2 (en) * 2001-09-27 2007-04-10 Koninklijke Philips N.V. Method and apparatus for modeling behavior using a probability distrubution function
JP3797949B2 (ja) * 2002-03-28 2006-07-19 株式会社東芝 画像処理装置及びその方法
US20030187820A1 (en) 2002-03-29 2003-10-02 Michael Kohut Media management system and process
JP3776094B2 (ja) * 2002-05-09 2006-05-17 松下電器産業株式会社 監視装置、監視方法および監視用プログラム
US7266220B2 (en) * 2002-05-09 2007-09-04 Matsushita Electric Industrial Co., Ltd. Monitoring device, monitoring method and program for monitoring
JP3895238B2 (ja) * 2002-08-28 2007-03-22 株式会社東芝 障害物検出装置及びその方法
JP3941640B2 (ja) * 2002-09-18 2007-07-04 日産自動車株式会社 車両用運転操作補助装置、車両用運転操作補助方法、およびその方法を適用した車両
JP2004198211A (ja) 2002-12-18 2004-07-15 Aisin Seiki Co Ltd 移動体周辺監視装置
CA2451484C (en) * 2003-01-21 2013-02-05 Decoma International Inc. Roof article transporter assembly
US9063633B2 (en) * 2006-03-30 2015-06-23 Arjuna Indraeswaran Rajasingham Virtual navigation system for virtual and real spaces
DE10323915A1 (de) * 2003-05-23 2005-02-03 Daimlerchrysler Ag Kamerabasierte Positionserkennung für ein Straßenfahrzeug
JP4192680B2 (ja) * 2003-05-28 2008-12-10 アイシン精機株式会社 移動体周辺監視装置
JP3882797B2 (ja) 2003-08-08 2007-02-21 日産自動車株式会社 車両用運転操作補助装置および車両用運転操作補助装置を備える車両
US7117090B2 (en) * 2003-08-28 2006-10-03 Siemens Aktiengesellschaft Moving vehicle in cuboidal panorama
WO2005036371A2 (en) * 2003-10-09 2005-04-21 Honda Motor Co., Ltd. Moving object detection using low illumination depth capable computer vision
US7542834B2 (en) * 2003-10-17 2009-06-02 Panasonic Corporation Mobile unit motion calculating method, apparatus and navigation system
US7197388B2 (en) * 2003-11-06 2007-03-27 Ford Global Technologies, Llc Roll stability control system for an automotive vehicle using an external environmental sensing system
JP3882083B2 (ja) 2003-11-26 2007-02-14 国立大学法人岐阜大学 測距装置
JP4319928B2 (ja) 2004-03-09 2009-08-26 株式会社デンソー 車両状態検知システムおよび車両状態検知方法
US8031112B2 (en) * 2004-03-19 2011-10-04 Purdue Research Foundation, Office Of Technology Commercialization System and method for high dynamic acquisition and tracking of signals from the global positioning system
US7561720B2 (en) * 2004-04-30 2009-07-14 Visteon Global Technologies, Inc. Single camera system and method for range and lateral position measurement of a preceding vehicle
US7236235B2 (en) * 2004-07-06 2007-06-26 Dimsdale Engineering, Llc System and method for determining range in 3D imaging systems
US7697748B2 (en) * 2004-07-06 2010-04-13 Dimsdale Engineering, Llc Method and apparatus for high resolution 3D imaging as a function of camera position, camera trajectory and range
JP4502733B2 (ja) * 2004-07-15 2010-07-14 ダイハツ工業株式会社 障害物測定方法及び障害物測定装置
JP4002919B2 (ja) * 2004-09-02 2007-11-07 技研トラステム株式会社 移動体高さ判別装置
DE102004046101B4 (de) * 2004-09-23 2007-01-18 Daimlerchrysler Ag Verfahren, Sicherheitsvorrichtung und Verwendung der Sicherheitsvorrichtung zur Früherkennung von Kraftfahrzeugkollisionen
DE102004048400A1 (de) * 2004-10-01 2006-04-06 Robert Bosch Gmbh Verfahren für die Erfassung einer optischen Struktur
JP4026641B2 (ja) * 2004-12-03 2007-12-26 日産自動車株式会社 物体検出装置、および物体検出方法
KR100630088B1 (ko) * 2004-12-28 2006-09-27 삼성전자주식회사 옵티컬 플로우를 이용한 차량 감시 장치 및 방법
HUE049974T2 (hu) * 2005-01-07 2020-11-30 Qualcomm Inc Képeken lévõ objektumok észlelése és követése
JP2008537190A (ja) * 2005-01-07 2008-09-11 ジェスチャー テック,インコーポレイテッド 赤外線パターンを照射することによる対象物の三次元像の生成
CN101137996A (zh) 2005-01-07 2008-03-05 格斯图尔泰克股份有限公司 基于光流的倾斜传感器
JP4689684B2 (ja) 2005-01-21 2011-05-25 ジェスチャー テック,インコーポレイテッド 動作に基づくトラッキング
US7561721B2 (en) * 2005-02-02 2009-07-14 Visteon Global Technologies, Inc. System and method for range measurement of a preceding vehicle
JP4767578B2 (ja) * 2005-02-14 2011-09-07 株式会社岩根研究所 高精度cv演算装置と、この高精度cv演算装置を備えたcv方式三次元地図生成装置及びcv方式航法装置
JP4645292B2 (ja) 2005-05-06 2011-03-09 日産自動車株式会社 車載物体検出装置、および物体検出方法
KR101403172B1 (ko) * 2005-05-17 2014-06-03 퀄컴 인코포레이티드 방위-감응 신호 출력
US20070031008A1 (en) * 2005-08-02 2007-02-08 Visteon Global Technologies, Inc. System and method for range measurement of a preceding vehicle
US7623681B2 (en) * 2005-12-07 2009-11-24 Visteon Global Technologies, Inc. System and method for range measurement of a preceding vehicle
JP4684147B2 (ja) * 2006-03-28 2011-05-18 任天堂株式会社 傾き算出装置、傾き算出プログラム、ゲーム装置およびゲームプログラム
JP2007263657A (ja) * 2006-03-28 2007-10-11 Denso It Laboratory Inc 3次元座標取得装置
FR2899363B1 (fr) * 2006-03-31 2009-05-29 Imra Europ Sas Soc Par Actions Procede et dispositif de detection de mouvement d'objets sur des images d'une scene
JP4676373B2 (ja) 2006-04-27 2011-04-27 株式会社デンソー 周辺認識装置、周辺認識方法、プログラム
JP4231883B2 (ja) * 2006-08-25 2009-03-04 株式会社東芝 画像処理装置及びその方法
US7741962B2 (en) * 2006-10-09 2010-06-22 Toyota Motor Engineering & Manufacturing North America, Inc. Auditory display of vehicular environment
JP2010511931A (ja) * 2006-12-01 2010-04-15 トムソン ライセンシング 画像内のオブジェクトの位置推定
US8068207B2 (en) 2006-12-26 2011-11-29 Thomson Licensing Intermediate film identifier marking
CN101636745A (zh) * 2006-12-29 2010-01-27 格斯图尔泰克股份有限公司 使用增强型交互系统操纵虚拟对象
US7856120B2 (en) * 2007-03-30 2010-12-21 Mitsubishi Electric Research Laboratories, Inc. Jointly registering images while tracking moving objects with moving cameras
US20080262680A1 (en) * 2007-04-02 2008-10-23 Trw Automotive U.S. Llc Apparatus and method for detecting vehicle rollover using an enhanced algorithm having lane departure sensor inputs
US20090005948A1 (en) * 2007-06-28 2009-01-01 Faroog Abdel-Kareem Ibrahim Low speed follow operation and control strategy
US8077981B2 (en) * 2007-07-27 2011-12-13 Sportvision, Inc. Providing virtual inserts using image tracking with camera and position sensors
WO2009049887A1 (de) 2007-10-16 2009-04-23 I F M Electronic Gmbh Verfahren und vorrichtung zur abstandsbestimmung
WO2009099667A1 (en) * 2008-02-08 2009-08-13 Google Inc. Panoramic camera with multiple image sensors using timed shutters
JP5109074B2 (ja) * 2008-02-29 2012-12-26 クラリオン株式会社 車両速度判定装置および車両速度判定方法
DE102008060684B4 (de) * 2008-03-28 2019-05-23 Volkswagen Ag Verfahren und Vorrichtung zum automatischen Einparken eines Kraftfahrzeugs
US8373763B2 (en) * 2008-05-22 2013-02-12 GM Global Technology Operations LLC Self calibration of extrinsic camera parameters for a vehicle camera
EP2135498B1 (en) * 2008-06-20 2012-06-20 AGROCOM GmbH & Co. Agrarsystem KG A method of navigating an agricultural vehicle and an agricultural vehicle
US8614744B2 (en) * 2008-07-21 2013-12-24 International Business Machines Corporation Area monitoring using prototypical tracks
DE102008058279A1 (de) * 2008-11-20 2010-05-27 Hella Kgaa Hueck & Co. Verfahren und Vorrichtung zur Kompensation eines Rollwinkels
DE102008063328A1 (de) * 2008-12-30 2010-07-01 Hella Kgaa Hueck & Co. Verfahren und Vorrichtung zum Ermitteln einer Änderung des Nickwinkels einer Kamera eines Fahrzeugs
JP5617166B2 (ja) * 2009-02-09 2014-11-05 日本電気株式会社 回転推定装置、回転推定方法およびプログラム
ATE538592T1 (de) * 2009-02-16 2012-01-15 Research In Motion Ltd Verwendung von schwerkraft zur ausrichtung einer drehbaren kamera in einem mobilgerät
US8159363B2 (en) * 2009-02-16 2012-04-17 Research In Motion Limited Using gravity to direct a rotatable camera in a handheld electronic device
US8698875B2 (en) * 2009-02-20 2014-04-15 Google Inc. Estimation of panoramic camera orientation relative to a vehicle coordinate frame
JP5068779B2 (ja) * 2009-02-27 2012-11-07 現代自動車株式会社 車両周囲俯瞰画像表示装置及び方法
US20100246893A1 (en) * 2009-03-26 2010-09-30 Ashwin Dani Method and Apparatus for Nonlinear Dynamic Estimation of Feature Depth Using Calibrated Moving Cameras
JP4788798B2 (ja) * 2009-04-23 2011-10-05 トヨタ自動車株式会社 物体検出装置
WO2010139351A1 (en) * 2009-06-05 2010-12-09 Autoliv Development Ab Vision system and method for a motor vehicle
JP5039765B2 (ja) * 2009-09-17 2012-10-03 日立オートモティブシステムズ株式会社 車両制御装置
DE102010003850A1 (de) * 2010-04-12 2011-10-13 Robert Bosch Gmbh Verfahren und Vorrichtung zur Nachführung einer Position einer Objektmarkierung
FR2959852B1 (fr) 2010-05-07 2018-02-02 Imra Europe Sas Procece de detection d'un obstacle positionne sur un sol
WO2011158285A1 (ja) 2010-06-15 2011-12-22 三菱電機株式会社 車両周辺監視装置
US8676498B2 (en) 2010-09-24 2014-03-18 Honeywell International Inc. Camera and inertial measurement unit integration with navigation data feedback for feature tracking
US9875549B2 (en) * 2010-11-18 2018-01-23 Bae Systems Plc Change detection in video data
DE102011080720A1 (de) * 2011-08-10 2013-02-14 Robert Bosch Gmbh Visualisierung einer Rampenabfahrt
JP2013097675A (ja) * 2011-11-02 2013-05-20 Honda Elesys Co Ltd 勾配推定装置、勾配推定方法、及び勾配推定プログラム
DE102012200127A1 (de) * 2012-01-05 2013-07-11 Robert Bosch Gmbh Tiefenbildberechnung mit einer Monokamera durch eine definierte Trajektorie
JP2013173405A (ja) * 2012-02-23 2013-09-05 Toyota Motor Corp ピッチ挙動取得装置、ピッチ挙動抑制装置
DE102012203909A1 (de) * 2012-03-13 2013-09-19 Robert Bosch Gmbh Filterverfahren und Filtervorrichtung für Sensordaten
US8831290B2 (en) * 2012-08-01 2014-09-09 Mitsubishi Electric Research Laboratories, Inc. Method and system for determining poses of vehicle-mounted cameras for in-road obstacle detection
JP6044293B2 (ja) 2012-11-19 2016-12-14 株式会社Ihi 3次元物体認識装置および3次元物体認識方法
KR102030359B1 (ko) * 2012-12-06 2019-10-10 광주과학기술원 차선 변경 안내 방법 및 이를 실행하는 장치
US20140192205A1 (en) * 2013-01-08 2014-07-10 Samsung Electronics Co. Ltd. Apparatus and method for object tracking during image capture
DE102013012930A1 (de) * 2013-08-02 2015-02-05 Connaught Electronics Ltd. Verfahren zum Bestimmen eines aktuellen Abstands und/oder einer aktuellen Geschwindigkeit eines Zielobjekts anhand eines Referenzpunkts in einem Kamerabild, Kamerasystem und Kraftfahrzeug
JP6199693B2 (ja) * 2013-10-17 2017-09-20 株式会社デンソーアイティーラボラトリ 車間距離測定装置、車間距離測定方法、およびプログラム
US9189689B2 (en) * 2013-10-30 2015-11-17 Nec Laboratories America, Inc. Robust scale estimation in real-time monocular SFM for autonomous driving
US9335766B1 (en) * 2013-12-06 2016-05-10 Google Inc. Static obstacle detection
CA2891051C (en) * 2014-01-06 2016-05-10 Geodigital International Inc. Determining portions of a roadway model requiring updating
JP6330160B2 (ja) * 2014-05-09 2018-05-30 本田技研工業株式会社 物体認識装置
DE102014209137B4 (de) * 2014-05-14 2023-02-02 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zur Kalibrierung eines Kamerasystems eines Kraftfahrzeugs
US9720072B2 (en) * 2014-08-28 2017-08-01 Waymo Llc Methods and systems for vehicle radar coordination and interference reduction
DE102014114221A1 (de) * 2014-09-30 2016-03-31 Valeo Schalter Und Sensoren Gmbh Verfahren zum Detektieren von einem Objekt in einem Umgebungsbereich eines Kraftfahrzeugs, Fahrerassistenzsystem und Kraftfahrzeug
EP3007099B1 (en) * 2014-10-10 2022-12-07 Continental Autonomous Mobility Germany GmbH Image recognition system for a vehicle and corresponding method
EP3057061B1 (en) 2015-02-16 2017-08-30 Application Solutions (Electronics and Vision) Limited Method and device for the estimation of car egomotion from surround view images
US20160253891A1 (en) * 2015-02-27 2016-09-01 Elwha Llc Device that determines that a subject may contact a sensed object and that warns of the potential contact
JP6416712B2 (ja) 2015-08-06 2018-10-31 株式会社Soken ピッチ角推定装置
JP6499047B2 (ja) * 2015-09-17 2019-04-10 株式会社東芝 計測装置、方法及びプログラム
US10776636B2 (en) 2015-12-29 2020-09-15 Faraday&Future Inc. Stereo camera-based detection of objects proximate to a vehicle
EP3193306B8 (en) 2016-01-15 2019-01-23 Aptiv Technologies Limited A method and a device for estimating an orientation of a camera relative to a road surface
WO2017132278A1 (en) * 2016-01-29 2017-08-03 Faraday&Future Inc. System and method for camera-based detection of object heights proximate to a vehicle
DE102016207436A1 (de) * 2016-04-29 2017-11-02 Ford Global Technologies, Llc System und Verfahren zum Steuern- und/oder Regeln eines Lenksystems eines Fahrzeugs sowie Fahrzeug
WO2018000038A1 (en) * 2016-06-29 2018-01-04 Seeing Machines Limited System and method for identifying a camera pose of a forward facing camera in a vehicle
US10502574B2 (en) 2016-09-20 2019-12-10 Waymo Llc Devices and methods for a sensor platform of a vehicle
US10277084B1 (en) 2016-10-19 2019-04-30 Waymo Llc Planar rotary transformer
US10755419B2 (en) * 2017-01-30 2020-08-25 Nec Corporation Moving object detection apparatus, moving object detection method and program
US10710579B2 (en) * 2017-06-01 2020-07-14 Waymo Llc Collision prediction system
US10762635B2 (en) 2017-06-14 2020-09-01 Tusimple, Inc. System and method for actively selecting and labeling images for semantic segmentation
JP7005978B2 (ja) * 2017-07-19 2022-02-10 日産自動車株式会社 軌跡推定方法及び軌跡推定装置
EP3435333B1 (en) * 2017-07-26 2020-01-29 Aptiv Technologies Limited Method of determining the roll angle of a vehicle mounted camera
US11432879B2 (en) 2017-08-18 2022-09-06 Siemens Healthcare Gmbh Method and apparatus for wide area multi-body 6D pose tracking system
US10671083B2 (en) 2017-09-13 2020-06-02 Tusimple, Inc. Neural network architecture system for deep odometry assisted by static scene optical flow
US10552979B2 (en) 2017-09-13 2020-02-04 TuSimple Output of a neural network method for deep odometry assisted by static scene optical flow
JPWO2019123582A1 (ja) 2017-12-20 2021-01-07 富士通株式会社 物体情報生成装置及び物体情報生成プログラム
DE102018203802A1 (de) * 2018-03-13 2019-09-19 Bayerische Motoren Werke Aktiengesellschaft Verfahren, Vorrichtung und Fortbewegungsmittel zur mehrstufigen Filterung eines Signals im Bordnetz eines Fortbewegungsmittels
US10565728B2 (en) * 2018-06-01 2020-02-18 Tusimple, Inc. Smoothness constraint for camera pose estimation
CN109470149B (zh) * 2018-12-12 2020-09-29 北京理工大学 一种管路位姿的测量方法及装置
DE102018133693B3 (de) 2018-12-28 2020-06-04 Volkswagen Aktiengesellschaft Verfahren zur Kalibrierung der Ausrichtung eines sich bewegenden Objektsensors
CN110310325B (zh) * 2019-06-28 2021-09-10 Oppo广东移动通信有限公司 一种虚拟测量方法、电子设备及计算机可读存储介质
US11420634B2 (en) * 2020-03-25 2022-08-23 Fca Us Llc Kalman filter based road grade estimation method using accelerometer, gyroscope, and vehicle velocity
EP4086595B1 (en) * 2021-05-05 2024-01-31 Volvo Truck Corporation A computer implemented method for controlling a vehicle
AT525694A1 (de) 2021-12-06 2023-06-15 Avl List Gmbh Verfahren zur bestimmung der geschwindigkeit und/oder bewegungsrichtung eines fahrzeugs
CN117032068B (zh) * 2023-07-24 2024-02-27 苏州福斯特万电子科技有限公司 一种点胶机控制方法、装置、设备及存储介质

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2882136B2 (ja) * 1991-11-25 1999-04-12 日本電気株式会社 動画像解析方法
US5515419A (en) 1992-06-01 1996-05-07 Trackmobile Tracking system and method for tracking a movable object carrying a cellular phone unit, and integrated personal protection system incorporating the tracking system
US6118475A (en) * 1994-06-02 2000-09-12 Canon Kabushiki Kaisha Multi-eye image pickup apparatus, and method and apparatus for measuring or recognizing three-dimensional shape
US5664227A (en) * 1994-10-14 1997-09-02 Carnegie Mellon University System and method for skimming digital audio/video data
US6072396A (en) 1994-12-30 2000-06-06 Advanced Business Sciences Apparatus and method for continuous electronic monitoring and tracking of individuals
US6067110A (en) * 1995-07-10 2000-05-23 Honda Giken Kogyo Kabushiki Kaisha Object recognizing device
JPH0995194A (ja) * 1995-09-29 1997-04-08 Aisin Seiki Co Ltd 車両前方の物体検出装置
US6192145B1 (en) 1996-02-12 2001-02-20 Sarnoff Corporation Method and apparatus for three-dimensional scene processing using parallax geometry of pairs of points
US5894323A (en) * 1996-03-22 1999-04-13 Tasc, Inc, Airborne imaging system using global positioning system (GPS) and inertial measurement unit (IMU) data
US5731757A (en) 1996-08-19 1998-03-24 Pro Tech Monitoring, Inc. Portable tracking apparatus for continuous position determination of criminal offenders and victims
WO1998010246A1 (en) * 1996-09-06 1998-03-12 University Of Florida Handheld portable digital geographic data manager
JPH10222679A (ja) 1997-02-04 1998-08-21 Toyota Motor Corp 車両用画像処理装置
US5867103A (en) 1997-09-10 1999-02-02 Taylor, Jr.; John E. Monitored person tracking system
DE59809476D1 (de) * 1997-11-03 2003-10-09 Volkswagen Ag Autonomes Fahrzeug und Verfahren zur Steuerung eines autonomen Fahrzeuges
US6054928A (en) 1998-06-04 2000-04-25 Lemelson Jerome H. Prisoner tracking and warning system and corresponding methods
JP2000161915A (ja) * 1998-11-26 2000-06-16 Matsushita Electric Ind Co Ltd 車両用単カメラ立体視システム
US6154149A (en) * 1999-09-07 2000-11-28 Meritor Light Vehicle Systems, Inc. Object detection by pattern recognition

Also Published As

Publication number Publication date
JP2001266160A (ja) 2001-09-28
US6535114B1 (en) 2003-03-18

Similar Documents

Publication Publication Date Title
JP3719095B2 (ja) 挙動検出装置および勾配検出方法
JP5926228B2 (ja) 自律車両用の奥行き検知方法及びシステム
JP5016022B2 (ja) 多重3次元ワーピングに基づく物体運動検出システムおよび方法とこのようなシステムを備えた車両
JP3868876B2 (ja) 障害物検出装置及び方法
US8744169B2 (en) Voting strategy for visual ego-motion from stereo
CA2987373C (en) Position estimation device and position estimation method
EP2757527B1 (en) System and method for distorted camera image correction
JP6743171B2 (ja) 自動車両の道路付近の物体を検出するための方法、コンピュータデバイス、運転者支援システム、及び、自動車両
WO2006090735A1 (ja) エピポーラ幾何を用いた物体認識装置及び物体認識方法
JP6003673B2 (ja) 3次元位置推定装置、車両制御装置、および3次元位置推定方法
US10187630B2 (en) Egomotion estimation system and method
KR20090103165A (ko) 모노큘러 모션 스테레오 기반의 주차 공간 검출 장치 및방법
JP2002352225A (ja) 障害物検出装置及びその方法
WO2018179281A1 (ja) 物体検出装置及び車両
JP6816401B2 (ja) 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム
KR20210090384A (ko) 카메라 및 라이다 센서를 이용한 3d 객체 검출방법 및 장치
JP4256992B2 (ja) 障害物検出装置
JP6763198B2 (ja) 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム
JP6488226B2 (ja) 走路パラメータ推定装置及びプログラム
JP4106163B2 (ja) 障害物検出装置及びその方法
JP3447461B2 (ja) 移動障害物検出装置及びその方法
JP7223587B2 (ja) 物体運動推定方法及び物体運動推定装置
JP6845124B2 (ja) 走路推定装置及びプログラム
US11919508B2 (en) Computer vision system for object tracking and time-to-collision
US11893799B2 (en) Computer vision system for object tracking and time-to-collision

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050426

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050627

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20050627

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050816

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050829

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080916

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090916

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100916

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100916

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110916

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110916

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120916

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120916

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130916

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees