JP2008003695A - 画像処理装置 - Google Patents
画像処理装置 Download PDFInfo
- Publication number
- JP2008003695A JP2008003695A JP2006170230A JP2006170230A JP2008003695A JP 2008003695 A JP2008003695 A JP 2008003695A JP 2006170230 A JP2006170230 A JP 2006170230A JP 2006170230 A JP2006170230 A JP 2006170230A JP 2008003695 A JP2008003695 A JP 2008003695A
- Authority
- JP
- Japan
- Prior art keywords
- plane
- area
- flow
- flow parameter
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
- Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
- Steering Control In Accordance With Driving Conditions (AREA)
- Image Processing (AREA)
Abstract
【課題】周辺にある物体の識別処理を少ない計算量で行うことが可能な画像処理装置を提供する。
【解決手段】画像処理装置20は、異なる時刻に撮像された複数の画像データを処理して、画像の各領域のオプティカルフローを算出するオプティカルフロー算出手段22と、オプティカルフロー算出手段により算出された少なくとも4つのオプティカルフローが同一平面上のオプティカルフローであると仮定して、画像の各領域のフローパラメータを算出するフローパラメータ算出手段24と、フローパラメータ算出手段により算出されたフローパラメータが互いに類似する領域を、同一平面を構成する領域であると識別する領域識別手段26と、を備える。
【選択図】図1
【解決手段】画像処理装置20は、異なる時刻に撮像された複数の画像データを処理して、画像の各領域のオプティカルフローを算出するオプティカルフロー算出手段22と、オプティカルフロー算出手段により算出された少なくとも4つのオプティカルフローが同一平面上のオプティカルフローであると仮定して、画像の各領域のフローパラメータを算出するフローパラメータ算出手段24と、フローパラメータ算出手段により算出されたフローパラメータが互いに類似する領域を、同一平面を構成する領域であると識別する領域識別手段26と、を備える。
【選択図】図1
Description
本発明は、カメラが移動しながら撮像した画像を用いて、画像上の撮像された物体を識別する画像処理装置に関する。
特許文献1には、車両に前方を監視する1台のカメラを搭載して、このカメラにより撮像された画像を処理して周辺の車両や障害物などを識別する装置が提案されている。より詳しく説明すると、この特許文献1に係る装置は、カメラが移動しながら路面を撮像し、第1の画像の路面上の特徴点と、第2の画像の路面上の特徴点とを重ね合わせるための変換行列を算出する。そして、当該装置は、画像の複数の特徴点にこの変換行列を適用し、重ね合わせに失敗した特徴点を立体物の特徴点として識別する。
特開2003−44996号公報
上述した従来技術に係る装置では、路面上の特徴点を重ね合わせるための変換行列を算出して画像にこの変換行列を適用する必要がある。しかしながら、この処理のための計算量は膨大であるため、障害物の識別処理の計算周期および精度は装置の計算能力により制限されてしまう。即ち、障害物の識別結果を高解像度・高精度で得たい場合には、障害物の識別処理の計算周期を遅くする必要がある。一方、障害物を識別結果を高い計算周期で得たい場合には、障害物の識別結果の解像度・精度が低下してしまう。
本発明は、このような問題を解決するためになされたものであり、画像上の撮像された物体の識別処理を少ない計算量で行うことが可能な画像処理装置を提供することを目的とする。
上述した目的を達成するために、本発明に係る画像処理装置は、異なる時刻に撮像された複数の画像データを処理して、画像の各領域ごとのオプティカルフローを算出するオプティカルフロー算出手段と、オプティカルフロー算出手段により算出された少なくとも4つのオプティカルフローが同一平面上のオプティカルフローであると仮定して、画像の各領域ごとのフローパラメータを算出するフローパラメータ算出手段と、フローパラメータ算出手段により算出されたフローパラメータが互いに類似する領域を、同一平面を構成する領域であると識別する領域識別手段と、を備えることを特徴とする。この構成によれば、画像処理装置は、比較的に簡易な処理で算出されるフローパラメータを用いて同一平面を構成する領域を識別するため、画像上の撮像された物体を識別する処理を簡易なものとして、その計算量を少なくすることができる。これにより、識別処理の精度・解像度を向上したり、識別処理の計算周期を短くすることが可能となる。
上述した画像処理装置において、領域識別手段は、フローパラメータ算出手段により算出されたフローパラメータが、3次元座標系における幾何学的配置が既知である基準平面のフローパラメータに類似する領域を、当該基準平面を構成する領域であると識別することが好ましい。この構成によれば、画像処理装置は、3次元座標系における幾何学的配置が既知である基準平面のフローパラメータを利用して、当該基準平面とフローパラメータが類似する画像上の領域を当該基準平面を構成する領域であると識別するため、画像上で基準平面を構成する領域を簡易な処理で識別することができる。
上述した画像処理装置において、領域識別手段は、3次元座標系における幾何学的配置が互いに異なる複数の基準平面のフローパラメータを用意し、画像上の領域のフローパラメータが複数の基準平面のフローパラメータのいずれかと類似する場合に、画像上の当該領域を、フローパラメータが類似する当該基準平面を構成する領域であると識別することが好ましい。この構成によれば、画像処理装置は、複数の基準平面のフローパラメータを用意するため、3次元座標系における幾何学的配置が未知な領域であっても、その領域を構成する基準平面を識別することができる。ここで、基準平面は、道路平面に平行な平面、道路平面に垂直な平面などとすればよい。
上述した画像処理装置において、領域識別手段は、フローパラメータ算出手段により算出されたフローパラメータが、基準平面のフローパラメータに類似する領域を、静止物体に対応する領域であると識別することが好ましい。この構成によれば、画像処理装置は、3次元座標系における幾何学的配置が既知である基準平面のフローパラメータを利用して、画像上で静止物体に対応する領域を識別することができる。
上述した画像処理装置において、領域識別手段は、フローパラメータ算出手段により算出されたフローパラメータが、基準平面のフローパラメータに類似する領域を、移動物体に対応する領域であると識別することが好ましい。この構成によれば、画像処理装置は、3次元座標系における幾何学的配置が既知である基準平面のフローパラメータを利用して、画像上で移動物体に対応する領域を識別することができる。
上述した画像処理装置において、領域識別手段は、基準平面の幾何学的配置に基づいて静止物体又は移動物体の3次元座標系における位置を特定することが好ましい。この構成によれば、画像処理装置は、画像上の一領域が静止物体又は移動物体であると識別した場合に、基準平面の3次元座標系における幾何学的配置が既知であることを利用して、静止物体又は移動物体の3次元座標系における位置を特定することができる。
上述した画像処理装置において、フローパラメータ算出手段は、移動物体に対するカメラの相対速度に基づいて、画像の各領域のフローパラメータを算出し、領域識別手段は、フローパラメータ算出手段により算出されたフローパラメータが基準平面のフローパラメータと類似する領域を、移動物体に対応する領域であると識別することが好ましい。この構成によれば、カメラが移動しつつ移動物体を撮像した場合に生じるフローパラメータと、カメラがその相対速度で移動しつつ静止物体を撮像した場合に生じるフローパラメータとが等価であることを利用して、移動物体に対応する領域を識別することができる。
上述した画像処理装置において、移動物体に対するカメラの相対速度は、カメラの移動速度から移動物体の移動速度の想定値を減算したものであり、領域識別手段は、フローパラメータ算出手段により算出されたフローパラメータが基準平面のフローパラメータと類似した場合に、移動物体の移動速度が上記想定値であることを特定することが好ましい。この構成によれば、画像処理装置は、移動物体の速度を特定することができる。
上述した画像処理装置において、領域識別手段は、移動物体であると識別された線状の領域であって、当該領域の両側が道路平面であると識別された領域を、移動物体の影に対応する領域であると識別することが好ましい。この構成によれば、画像処理装置は、移動物体の影に対応する領域を識別することができる。
上述した画像処理装置において、領域識別手段は、画像上の道路平面に対応する領域として識別されなかった領域に対して、静止物体又は移動物体の識別処理を行うことが好ましい。この構成によれば、静止物体又は移動物体の識別処理が行われる領域は、画像上の道路平面に対応する領域として識別されなかった領域のみであるため、静止物体又は移動物体を識別する処理の計算量を顕著に少なくすることができる。
上述した画像処理装置において、道路平面のフローパラメータとして、移動物体により走行された位置に対応する領域のフローパラメータを用いることが好ましい。この構成によれば、車両により走行された位置に対応する領域は、確実に道路平面を構成する領域であるため、画像処理装置は、この領域のフローパラメータを道路領域のフローパラメータとして用いることができる。
本発明の画像処理装置によれば、画像上の撮像された物体の識別処理を少ない計算量で行うことができる。
以下、図面を参照して、本発明の画像処理装置の好適な実施形態について説明する。本実施形態において、画像処理装置は車両に搭載されている。
図1に示すように、画像処理装置20には、撮像手段としてカメラ10が接続されている。カメラ10は、例えば、CCD[Charge Coupled Device]カメラ10であり、画像処理装置20を搭載する自動車の前方かつ中央に取り付けられる。カメラ10は、所定時間が経過する度に、自動車の前方を撮像して、複数の画素データからなる画像データを生成する。カメラ10は、生成された画像データを、画像処理装置20に逐次出力する。
画像処理装置20は、カメラ10から画像データを取り込むと、画像データを処理して画像上の物体を識別する処理を行う。特に、画像処理装置20は、画像上の被撮像物が道路平面、静止物体、移動物体のいずれであるかを識別する。画像処理装置20は、物理的には、CPU、ROM、RAM等で構成されている。また、画像処理装置20は、機能的には、オプティカルフロー算出手段22と、フローパラメータ算出手段24と、領域識別手段26とを備えている。これらの機能は、CPUおよびRAMが、ROMに記憶されたプログラムを実行することにより実現される。
オプティカルフロー算出手段22は、画像データをテンプレートマッチング法により処理することで、オプティカルフローベクトルを算出する。フローパラメータ算出手段24は、算出されたオプティカルフローベクトルに基づいて、一般的にフローパラメータと呼ばれる8つのパラメータを算出する。領域識別手段26は、算出されたフローパラメータに基づいて、画像上の被撮像物が道路平面、静止物体、移動物体のいずれであるかを識別する。ここで、静止物体とは、道路端の歩道や縁石、道路上の障害物などである。また、移動物体とは、走行中の他車両や横断歩道を歩く歩行者などである。
上述した画像上の物体を識別する処理を可能とするために、画像処理装置20には車両センサ30が接続されている。車両センサ30は、車両の挙動を検出するものであればよく、例えば、車速センサ、ハンドル角センサ、ヨーレートセンサ、ピッチセンサ、ロールセンサ、前後方向加速度センサ、横方向加速度センサ、上下方向加速度センサなどを含んで構成すればよい。これらのセンサによる検出値は、画像処理装置20により取り込まれ、画像上の被撮像物を識別する処理に利用される。
画像処理装置20による物体識別処理の結果は、車室内に設けられたモニターの表示制御や車両の動作制御などに利用される。例えば、画像処理装置20による物体識別処理の結果が表示制御装置40に入力されると、表示制御装置40は、画像上の各領域の識別結果をモニターに表示したり、運転者への警告をモニターに表示する。また、画像処理装置20による物体識別処理の結果が車両制御装置50に入力されると、車両制御装置50は、車両前方の物体との衝突を回避するように、エンジン、ブレーキ、変速機、ステアリングなどを制御する。
[物体識別の原理]
次に、画像処理装置20が画像上の物体を識別する原理について説明する。
次に、画像処理装置20が画像上の物体を識別する原理について説明する。
先ず、図2を参照して、3つの座標系、即ち、画像座標系、カメラ座標系および車両座標系について説明する。画像座標系は、カメラ10の画像面に設定された2次元座標系であり、画像の中心を原点とし、画像の縦方向をx軸とし、画像の横方向をy軸としている。カメラ座標系は、カメラ10を中心に設定された3次元座標系であり、カメラ10の位置を原点とし、カメラ10の上下方向をXc軸とし、カメラ10の左右方向をYc軸とし、カメラ10の光軸方向をZc軸としている。車両座標系は、カメラ座標系を回転したものであり、車両の上下方向をXv軸とし、車両の左右方向をYv軸とし、車両の進行方向をZv軸としている。車両に対するカメラ10の姿勢が、図3に示されている。図3から理解できるように、カメラ座標系のZc軸と車両座標系のZv軸とがなす角度はθであり、カメラ座標系のYc軸と車両座標系のYz軸とがなす角度はφである。説明の便宜のため角度θ,φを大きく示しているが、実際にはカメラ座標系と車両座標系とはほぼ一致しており角度θ,φは微小である。なお、上述した画像座標系、カメラ座標系および車両座標系は、車両の移動に伴ってカメラ10と共に移動する。
次に、図4を参照して、オプティカルフローを生じさせるカメラ10の運動について説明する。車両が車両座標系のXv軸方向、Yv軸方向、Zv軸方向にそれぞれa,b,cの速度で並進運動し、Xv軸周り、Yv軸周り、Zv軸周りにそれぞれω1,ω2,ω3の角速度で回転運動する場合には、車両座標系を基準とするカメラ10の運動パラメータは{a,b,c,ω1,ω2,ω3}である。車両座標系を基準とするカメラ10の運動パラメータを、車両座標系からカメラ座標系に座標変換すると、カメラ座標系を基準とするカメラ10の運動パラメータ{ac,bc,cc,ω1c,ω2c,ω3c}となる。
カメラ10が上記の運動パラメータ{ac,bc,cc,ω1c,ω2c,ω3c}で運動する場合に、画像上の位置(x,y)で、Zc=p・Xc+q・Yc+rで表される平面が撮像されると、次の数式(1)で表されるオプティカルフロー(u,v)が引き起こされる。なお、uはオプティカルフローベクトルのx方向成分であり、vはオプティカルフローベクトルのy方向成分である。
なお、上の数式(1)において、fはカメラ10の焦点距離である。また、p,qおよびrは、平面を規定するための平面パラメータである。また、8つのパラメータU,V,A,B,C,D,E及びFは、一般にフローパラメータと呼ばれる数値であり、次の数式(2)で定義されている。なお、数式(1)および(2)については、「画像理解‐3次元認識の数理」(金谷健一著)に詳述されている。
上述したように、オプティカルフローは、数式(1)および(2)により表されるものであるが、実際には連続撮像して得られる一連の画像を処理して算出される。即ち、あるタイミングの画像を多数の領域に分割してから、テンプレートマッチング法によりそれらの各領域と一致する領域を次のタイミングの画像から探索することにより、オプティカルフローは算出される。
さらに、このように算出されたオプティカルフローから、フローパラメータ{U,V,A,B,C,D,E,F}を算出することができる。即ち、画像上の一部の領域を平面であると見做せば、その領域ではフローパラメータは同一であるため、その領域の4つ以上のオプティカルフローの情報(x,y,u,v)からフローパラメータを算出することができる。例えば、画像上の一部の領域の4つのオプティカルフロー情報(x1,y1,u1,v1)、(x2,y2,u2,v2)、(x3,y3,u3,v3)、(x4,y4,u4,v4)と、カメラ10の焦点距離fを上の数式(1)に代入すると、フローパラメータ{U,V,A,B,C,D,E,F}を未知数として含む数式が合計8つ得られる。よって、これらの8つの数式を周知の手法で処理することにより、フローパラメータの数値を求めることができる。フローパラメータの算出のために、5つ以上のオプティカルフロー情報を用いる場合には、最小自乗法などの近似法を用いればよい。なお、以下の説明では、画像上の位置(x,y)について算出されたフローパラメータを{Ux,y,Vx,y,Ax,y,Bx,y,Cx,y,Dx,y,Ex,y,Fx,y}と表す。
上記の数式(2)から理解できるように、フローパラメータ{U,V,A,B,C,D,E,F}は、カメラ10の運動パラメータ{ac,bc,cc,ω1c,ω2c,ω3c}および平面パラメータ{p,q,r}によって一義的に定義される。よって、カメラ10の運動パラメータ{ac,bc,cc,ω1c,ω2c,ω3c}が一定値である場合には、フローパラメータ{U,V,A,B,C,D,E,F}は、撮像された物体表面の平面パラメータ{p,q,r}と等価な数値として用いることができる。本実施形態における物体識別の原理ではこのようなフローパラメータの特性が利用されており、画像上の各領域について算出されたフローパラメータに基づいて画像上の各領域の平面が識別されている。
即ち、同一平面を撮像した画像領域については8つのフローパラメータはほぼ等しい値となる。よって、画像上の各領域のフローパラメータ{Ux,y,Vx,y,Ax,y,Bx,y,Cx,y,Dx,y,Ex,y,Fx,y}を互いに比較することにより、2つの画像領域が同一平面であるか否かを判定することができる。特に、本実施形態では、3次元座標系における幾何学的配置が既知である基準平面のフローパラメータとして、道路平面、静止物体又は移動物体を構成する平面のフローパラメータを求める。そして、画像上の各領域のフローパラメータ{Ux,y,Vx,y,Ax,y,Bx,y,Cx,y,Dx,y,Ex,y,Fx,y}を基準平面のフローパラメータと比較することにより、画像上の各領域が、道路平面、静止物体、移動物体のいずれであるかを識別している。以下に、フローパラメータどうしの比較から物体を識別する処理について、より詳しく説明する。
先ず、画像上の道路平面に対応する領域を識別する方法について説明する。道路平面を識別するためには、基準平面のフローパラメータとして、確実に道路平面である領域のフローパラメータを取得する必要がある。例えば、あるタイミングにおいて車両の直前にある領域であって、その後のタイミングに車両がこの領域を走行している場合には、この領域は確実に道路平面である。よって、このような領域について算出されたフローパラメータを、道路平面のフローパラメータ{Ur,Vr,Ar,Br,Cr,Dr,Er,Fr}として取得する。そして、画像上の各領域のフローパラメータ{Ux,y,Vx,y,Ax,y,Bx,y,Cx,y,Dx,y,Ex,y,Fx,y}を、道路平面のフローパラメータ{Ur,Vr,Ar,Br,Cr,Dr,Er,Fr}と比較する。ここで、両フローパラメータが類似する場合には、画像上のその領域は道路平面であると識別される。なお、両フローパラメータの類似とは、両フローパラメータが一致する場合、及び両フローパラメータの差分が所定の閾値より小さい場合である。
次に、画像上の静止物体(道路端の歩道や縁石、道路上の障害物など)に対応する領域を識別する方法について説明する。通常、カメラ10により撮像される静止物体の表面は、道路平面に平行な第1平面(図10の符号S1を参照)、道路平面に垂直で車両の進行方向に平行な第2平面(図10の符号S2を参照)、道路平面および車両の進行方向に垂直な第3平面の少なくとも1つを含んでいる。そこで、本実施形態では、基準平面のフローパラメータとして、静止物体の第1〜第3平面のフローパラメータ{U1,2or3,V1,2or3,A1,2or3,B1,2or3,C1,2or3,D1,2or3,E1,2or3,F1,2or3}を求め、画像上の各領域のフローパラメータ{Ux,y,Vx,y,Ax,y,Bx,y,Cx,y,Dx,y,Ex,y,Fx,y}が、第1〜第3平面のフローパラメータと類似するか否かを調べることで、画像上の静止物体に対応する領域を識別する。
数式(2)から理解できるように、静止物体の第1〜第3平面のフローパラメータを算出するためには、第1〜第3平面の平面パラメータ{p1,2or3,q1,2or3,r1,2or3}の情報が必要とされる。よって、第1〜第3平面のフローパラメータを算出するに際して、第1〜第3平面の平面パラメータ{p1,2or3,q1,2or3,r1,2or3}が求められる。ここで、第1〜第3平面の平面パラメータ{p1,2or3,q1,2or3,r1,2or3}を好適に求めるために、既述の道路平面の識別処理において利用された道路平面の平面パラメータ{pr,qr,rr}が利用される。
道路平面に平行な第1平面の平面パラメータ{p1,q1,r1}は、図3に示される幾何学的関係を考慮すると、次の数式(3)で表される。次の数式(3)は、道路平面に平行な第1平面が道路平面を基準としてΔHの高さにある場合の式である。なお、次の数式(3)において、カメラ座標系のZc軸と車両座標系のZv軸とがなす角度θは微小であるため、sinθ≒θと近似している。
道路平面に垂直な第2平面の平面パラメータ{p2,q2,r2}は、次の数式(4)で表される。次の数式(4)は、カメラから第2平面までの左右方向の距離がΔWである場合の式である。なお、次の数式(4)は、第2平面が道路平面に対して垂直であり、第2平面が車両の進行方向と平行であること、言い換えれば、第2平面に垂直なベクトル(p2,q2,−1)と道路平面に垂直なベクトル(pr,qr,−1)との内積が0であり、第2平面に垂直なベクトル(p2,q2,−1)と車両の進行方向に延びるベクトルとの内積が0であることに基づいている。
道路平面に垂直な第3平面の平面パラメータ{p3,q3,r3}は、次の数式(5)で表される。次の数式(5)は、カメラ10から第3平面までのカメラ光軸Zc方向の距離がΔLである場合の式である。なお、次の数式(5)は、第3平面が道路平面および車両の進行方向に対して垂直であること、言い換えれば、第3平面に垂直なベクトル(p3,q3,−1)と道路平面に垂直なベクトル(pr,qr,−1)との内積が0であり、第3平面に垂直なベクトル(p3,q3,−1)と車両の左右方向に延びるベクトルとの内積が0であることに基づいている。
上記の数式(3),(4),(5)の計算処理を行うことにより、第1〜第3平面の平面パラメータ{p1,q1,r1}、{p2,q2,r2}、{p3,q3,r3}の具体的な数値を得ることができる。そして、これらの第1〜第3平面の平面パラメータおよびカメラ10の運動パラメータ{ac,bc,cc,ω1c,ω2c,ω3c}を、上記の数式(2)に代入することにより、静止物体の第1〜第3平面のフローパラメータ{U1,2or3,V1,2or3,A1,2or3,B1,2or3,C1,2or3,D1,2or3,E1,2or3,F1,2or3}を算出することができる。なお、カメラ10の運動パラメータ{ac,bc,cc,ω1c,ω2c,ω3c}は、車両センサ30により検出された車両の運動パラメータ{a,b,c,ω1,ω2,ω3}を、車両座標系からカメラ座標系に座標変換することにより得られる。
上述したように静止物体の第1〜第3平面のフローパラメータを求めてから、画像上の各領域のフローパラメータ{Ux,y,Vx,y,Ax,y,Bx,y,Cx,y,Dx,y,Ex,y,Fx,y}が、第1〜第3平面のフローパラメータと類似するか否かを判定する。ここで、画像上の各領域のフローパラメータが第1〜第3平面のフローパラメータと類似する場合には、画像上のその領域は静止物体を構成する領域と識別される。より詳しくは、画像上の各領域のフローパラメータが第1平面のフローパラメータと類似する場合には、画像上のその領域は第1平面を構成する領域と識別される。同様に、画像上の各領域のフローパラメータが第2平面のフローパラメータと類似する場合には、画像上のその領域は第2平面を構成する領域と識別される。また同様に、画像上の各領域のフローパラメータが第3平面のフローパラメータと類似する場合には、画像上のその領域は第3平面を構成する領域と識別される。
次に、画像上の移動物体(他車両や歩行者など)に対応する領域を識別する方法について説明する。通常、静止物体と同様に、カメラ10により撮像される移動物体の表面は、道路平面に平行な第1平面(図10の符号T1を参照)、道路平面に垂直で車両の進行方向に平行な第2平面(図10の符号T2を参照)、道路平面および車両の進行方向に垂直な第3平面(図10の符号T3を参照)の少なくとも1つを含んでいる。そこで、本実施形態では、基準平面のフローパラメータとして、移動物体の第1〜第3平面のフローパラメータ{U1,2or3,V1,2or3,A1,2or3,B1,2or3,C1,2or3,D1,2or3,E1,2or3,F1,2or3}を求め、画像上の各領域のフローパラメータ{Ux,y,Vx,y,Ax,y,Bx,y,Cx,y,Dx,y,Ex,y,Fx,y}が、第1〜第3平面のフローパラメータと類似するか否かを調べることで、画像上の静止物体に対応する領域を識別する。
数式(2)から理解できるように、移動物体の第1〜第3平面のフローパラメータを算出するためには、第1〜第3平面の平面パラメータ{p1,2or3,q1,2or3,r1,2or3}の情報が必要とされる。よって、移動物体の第1〜第3平面のフローパラメータを算出するために、既述のとおり、上記の数式(3),(4),(5)を用いて第1〜第3平面の平面パラメータを算出する。
また、移動物体の第1〜第3平面のフローパラメータを算出するためには、上述した第1〜第3平面の平面パラメータと共に、移動物体に対するカメラ10の相対的な運動パラメータ{ac−ao,bc−bo,cc−co,ω1c,ω2c,ω3c}を、数式(2)に代入する必要がある。ここで、移動物体に対するカメラ10の相対的な運動パラメータ{ac−ao,bc−bo,cc−co,ω1c,ω2c,ω3c}は、カメラ10の運動パラメータ{ac,bc,cc,ω1c,ω2c,ω3c}に代えて数式(2)に代入される。運動パラメータ{ac,bc,cc,ω1c,ω2c,ω3c}で移動するカメラが運動パラメータ{ao,bo,co,0,0,0}で移動する移動物体を撮像した場合に生じるフローパラメータと、運動パラメータ{ac−ao,bc−bo,cc−co,ω1c,ω2c,ω3c}で移動するカメラが静止物体を撮像した場合に生じるフローパラメータとは等価だからである。なお、移動物体の回転運動{ω1o,ω2o,ω3o}は無視している。
上述したように、第1〜第3平面の平面パラメータ、および移動物体に対するカメラ10の相対的な運動パラメータを、上記の数式(2)に代入することにより、移動物体の第1〜第3平面のフローパラメータ{U1,2or3,V1,2or3,A1,2or3,B1,2or3,C1,2or3,D1,2or3,E1,2or3,F1,2or3}を算出することができる。
上述したように移動物体の第1〜第3平面のフローパラメータを求めてから、画像上の各領域のフローパラメータ{Ux,y,Vx,y,Ax,y,Bx,y,Cx,y,Dx,y,Ex,y,Fx,y}が、第1〜第3平面のフローパラメータ{U1,2or3,V1,2or3,A1,2or3,B1,2or3,C1,2or3,D1,2or3,E1,2or3,F1,2or3}と類似するか否かを判定する。ここで、画像上の各領域のフローパラメータが第1〜第3平面のフローパラメータと類似する場合には、画像上のその領域は移動物体を構成する領域と識別される。より詳しくは、画像上の各領域のフローパラメータが第1平面のフローパラメータと類似する場合には、画像上のその領域は第1平面を構成する領域と識別される。同様に、画像上の各領域のフローパラメータが第2平面のフローパラメータと類似する場合には、画像上のその領域は第2平面を構成する領域と識別される。また同様に、画像上の各領域のフローパラメータが第3平面のフローパラメータと類似する場合には、画像上のその領域は第3平面を構成する領域と識別される。
なお、上記に説明した画像上の静止物体および移動物体の識別処理では、あるタイミングにおいて車両の直前にある領域であってその後のタイミングに車両が走行している領域を、道路平面に対応する領域として判別して、道路平面のフローパラメータを求める一例について説明した。但し、道路平面に対応する領域は、他の方法により判別してもよい。例えば、カメラに対する道路平面の幾何学的な配置関係は、図3に示されるように殆ど決まっていることから、道路平面のフローパラメータを計算により算出することもできる。よって、このように算出された道路平面のフローパラメータを利用してもよい。
なお、上記に説明した物体識別の原理では、画像上の第1〜第3平面を識別する原理について説明しているが、道路平面に対して傾斜した平面を識別することもできる。道路平面に対して傾斜した平面を識別する際には、傾斜した平面の平面パラメータを算出して、上述した静止物体及び移動物体の識別処理に適用すればよい。なお、傾斜した平面の平面パラメータは、第1〜第3平面の平面パラメータと同様な方法で、道路平面を基準として算出すればよい。
[物体識別処理]
次に、図5〜図9のフローチャートを参照して、本実施形態の画像処理装置20による物体識別処理について説明する。図5には、画像処理装置20による物体識別処理の全体的なフローが示されている。図6には、画像上の道路平面に対応する領域を識別する処理のフローが示されている。図7には、画像上の静止物体に対応する領域を識別する処理のフローが示されている。図8には、画像上の移動物体に対応する領域を識別する処理のフローが示されている。また図9には、移動物体の影に対応するオプティカルフローなどを修正する処理のフローが示されている。
次に、図5〜図9のフローチャートを参照して、本実施形態の画像処理装置20による物体識別処理について説明する。図5には、画像処理装置20による物体識別処理の全体的なフローが示されている。図6には、画像上の道路平面に対応する領域を識別する処理のフローが示されている。図7には、画像上の静止物体に対応する領域を識別する処理のフローが示されている。図8には、画像上の移動物体に対応する領域を識別する処理のフローが示されている。また図9には、移動物体の影に対応するオプティカルフローなどを修正する処理のフローが示されている。
図5のフローチャートに示されるように、画像処理装置20は、一定の時間間隔(例えば30msec)ごとのタイミングTnに画像データを取り込む(S501)。画像処理装置20により取り込まれた画像データの一例を、図10に示す。この画像では、前方に道路が拡がっている。道路上には対向車両が存在し、道路の端には歩道が延びている。画像処理装置20は、取り込まれた画像データをLoGフィルタ(Laplacian of Gaussian Filter)で処理する。次に、画像処理装置20は、全画像面を矩形の小さな領域(例えば、8×8画素の領域、以下、小領域と呼ぶ)に網目状に分割し(図11参照)、テンプレートマッチング法により各小領域ごとにオプティカルフローベクトルを算出する(S502、図12参照)。より詳しく説明すると、画像処理装置20は、タイミングTnの画像を構成する各小領域とほぼ一致する領域を次のタイミングTn+1の画像から探索することによって、オプティカルフローベクトルのx軸方向成分uおよびy軸方向成分vを算出する。
次に、画像処理装置20は、隣接する4つの小領域を含む領域を一組の領域(以下、中領域と呼ぶ)として設定し、各中領域を一枚の平面であると仮定して各中領域のフローパラメータを算出する(S503)。中領域に含まれる4つの小領域のオプティカルフロー情報(x1,y1,u1,v1)、(x2,y2,u2,v2)、(x3,y3,u3,v3)、(x4,y4,u4,v4)から当該中領域のフローパラメータ{Ux,y,Vx,y,Ax,y,Bx,y,Cx,y,Dx,y,Ex,y,Fx,y}を算出する方法については既述のとおりである。
次に、画像処理装置20は、上述した手順で算出されたフローパラメータ{Ux,y,Vx,y,Ax,y,Bx,y,Cx,y,Dx,y,Ex,y,Fx,y}を処理して、画像上において道路平面、静止物体又は移動物体に対応する領域を識別する処理を行う(S504,S505,S506)。以下、図6〜図8を参照して、画像上で道路平面、静止物体又は移動物体に対応する領域を識別する処理について説明する。
図6には、画像上において道路平面に対応する領域を識別する処理のフローチャートが示されている。図6に示される処理は、図5のステップ504に対応している。図6に示されるフローチャートにおいて、画像処理装置20は、先ず、あるタイミングにおいて車両直前にある中領域であってその後のタイミングにおいて自車が走行している中領域のフローパラメータ{Ux,y,Vx,y,Ax,y,Bx,y,Cx,y,Dx,y,Ex,y,Fx,y}を、道路平面のフローパラメータ{Ur,Vr,Ar,Br,Cr,Dr,Er,Fr}として取得する(S601)。
次に、画像処理装置20は、画像上の各中領域のフローパラメータ{Ux,y,Vx,y,Ax,y,Bx,y,Cx,y,Dx,y,Ex,y,Fx,y}を、道路平面のフローパラメータ{Ur,Vr,Ar,Br,Cr,Dr,Er,Fr}と比較して、両フローパラメータが類似するか否かを判定する(S602)。具体的には、画像処理装置20は、次の数式(6)を用いて両フローパラメータの差分ΔFPrを求め、この差分ΔFPrが予め設定された閾値THよりも大きいか否かを判定する。
ここで、kU,kV,kA,kB,kC,kD,kE,kFは、各フローパラメータの重み係数である。各フローパラメータの重み係数kU〜kFとしては、道路平面に対応する領域を識別するために好適な値が設定されればよい。ここで、各フローパラメータの重み係数kU〜kFとしてそれぞれ異なる値が設定されてもよいし、共通する値が設定されてもよい。また、差分ΔFPrと比較される閾値THは、道路平面に対応する領域を識別するために好適な値が設定される。例えば、閾値THは、自車両の走行速度やカメラ10から道路の被撮像位置までの距離に応じて異なる値としてもよい。
ステップ602において差分ΔFPrが閾値THよりも小さいと判定された場合には、その中領域のフローパラメータが道路平面のフローパラメータと類似するため、その中領域が道路平面を構成する領域であると識別する(S603)。例えば、図13において斜線で示される領域が道路平面であると識別される。一方、ステップ602において差分ΔFPrが閾値THよりも大きいと判定された場合には、その中領域のフローパラメータが道路平面のフローパラメータと類似しないため、その中領域の識別を行うことなくステップ505に進む。
次に、静止物体(道路端にある歩道や縁石、道路上にある障害物など)に対応する領域を識別する処理について説明する。図7には、画像上において静止物体に対応する領域を識別する処理のフローチャートが示されている。図7に示される処理は、図5のステップ505に対応している。なお、以下に説明する静止物体に対応する領域を識別する処理は、道路平面に対応する領域として識別されなかった領域に対して行われる。
ステップ701〜ステップ703は、道路平面に平行な第1平面を識別するための処理である。ステップ701において、画像処理装置20は、先ず、道路平面に平行で道路平面よりも高い位置にある第1平面の平面パラメータ{p1,q1,r1}を算出し、さらに、第1平面の平面パラメータに基づいて第1平面のフローパラメータ{U1,V1,A1,B1,C1,D1,E1,F1}を算出する(S701)。ここで、第1平面の平面パラメータおよびフローパラメータは、例えば、道路平面から上限までの10cmごとの複数の高さΔHについて算出される。それぞれの高さΔHの第1平面は、幾何学的配置が既知である。なお、第1平面の平面パラメータおよびフローパラメータの算出方法は、「物体識別の原理」で説明したとおりである。
次に、画像処理装置20は、各中領域のフローパラメータ{Ux,y,Vx,y,Ax,y,Bx,y,Cx,y,Dx,y,Ex,y,Fx,y}を、複数の高さΔHの第1平面のフローパラメータ{U1,V1,A1,B1,C1,D1,E1,F1}のそれぞれと比較して、両フローパラメータが類似するか否かを判定する(S702)。具体的には、画像処理装置20は、次の数式(7)を用いて両フローパラメータの差分ΔFP1を求め、この差分ΔFP1が予め設定された閾値THよりも大きいか否かを判定する。
ステップ702において、第1平面のフローパラメータのいずれかについて、差分ΔFP1が閾値THよりも小さいと判定された場合には、その中領域のフローパラメータがその第1平面のフローパラメータと類似するため、その中領域がその第1平面を構成する領域であると識別する(S703)。一方、ステップ702において差分ΔFP1が閾値THよりも大きいと判定された場合には、その中領域のフローパラメータが第1平面のフローパラメータと類似しないため、その中領域の識別を行うことなくステップ704に進む。
ステップ704〜ステップ706は、道路平面に垂直で車両の進行方向に平行な第2平面を識別するための処理である。ステップ704において、画像処理装置20は、道路平面に垂直でカメラから左右方向に距離ΔWの位置にある第2平面の平面パラメータ{p2,q2,r2}を算出し、さらに、第2平面の平面パラメータに基づいて第2平面のフローパラメータ{U2,V2,A2,B2,C2,D2,E2,F2}を算出する(S704)。ここで、第2平面の平面パラメータおよびフローパラメータは、例えば、カメラから左右方向に10cmごとの複数の距離ΔWについて算出される。それぞれの距離ΔWの第2平面は、幾何学的配置が既知である。なお、第2平面の平面パラメータおよびフローパラメータの算出方法は、「物体識別の原理」で説明したとおりである。
次に、画像処理装置20は、各中領域のフローパラメータ{Ux,y,Vx,y,Ax,y,Bx,y,Cx,y,Dx,y,Ex,y,Fx,y}を、複数の距離ΔWの第2平面のフローパラメータ{U2,V2,A2,B2,C2,D2,E2,F2}のそれぞれと比較して、両フローパラメータが類似するか否かを判定する(S705)。具体的には、画像処理装置20は、次の数式(8)を用いて両フローパラメータの差分ΔFP2を求め、この差分ΔFP2が予め設定された閾値THよりも大きいか否かを判定する。
ステップ705において、第2平面のフローパラメータのいずれかについて、差分ΔFP2が閾値THよりも小さいと判定された場合には、その中領域のフローパラメータがその第2平面のフローパラメータと類似するため、その中領域がその第2平面を構成する領域であると識別する(S706)。一方、ステップ705において差分ΔFP2が閾値THよりも大きいと判定された場合には、その中領域のフローパラメータが第2平面のフローパラメータと類似しないため、その中領域の識別を行うことなくステップ707に進む。
ステップ707〜ステップ709は、道路平面および車両進行方向に垂直な第3平面を識別するための処理である。ステップ707において、画像処理装置20は、車両進行方向に距離ΔLの位置にある第3平面の平面パラメータ{p3,q3,r3}を算出し、さらに、第3平面の平面パラメータに基づいて第3平面のフローパラメータ{U3,V3,A3,B3,C3,D3,E3,F3}を算出する(S707)。ここで、第3平面の平面パラメータおよびフローパラメータは、例えば、カメラ位置から車両進行方向に10cmごとの複数の距離ΔLについて算出される。それぞれの距離ΔLの第3平面は、幾何学的配置が既知である。なお、第3平面の平面パラメータおよびフローパラメータの算出方法は、「物体識別の原理」で説明したとおりである。
次に、画像処理装置20は、各中領域のフローパラメータ{Ux,y,Vx,y,Ax,y,Bx,y,Cx,y,Dx,y,Ex,y,Fx,y}を、複数の距離ΔLの第3平面のフローパラメータ{U3,V3,A3,B3,C3,D3,E3,F3}のそれぞれと比較して、両フローパラメータが類似するか否かを判定する(S708)。具体的には、画像処理装置20は、次の数式(9)を用いて両フローパラメータの差分ΔFP3を求め、この差分ΔFP3が予め設定された閾値THよりも大きいか否かを判定する。
ステップ708において、第2平面のフローパラメータのいずれかについて、差分ΔFP3が閾値THよりも小さいと判定された場合には、その中領域のフローパラメータがその第3平面のフローパラメータと類似するため、その中領域がその第3平面を構成する領域であると識別する(S709)。一方、ステップ708において差分ΔFP3が閾値THよりも大きいと判定された場合には、その中領域のフローパラメータが第3平面のフローパラメータと類似しないため、その中領域の識別を行うことなく次のステップに進む。上述したステップ701〜ステップ709の処理により、例えば、図14において斜線で示される領域が静止物体であると識別される。
なお、上述した処理に用いられた基準平面は、3次元座標系における幾何学的配置が既知である。そこで、画像処理装置20は、各中領域のフローパラメータと基準平面のフローパラメータとが類似すると判定された場合、基準平面の幾何学的配置に基づいて、静止物体の3次元座標系における位置を特定する。即ち、いずれかの中領域のフローパラメータが第1平面のフローパラメータと類似すると判定された場合には、静止物体がその高さΔHにあることを特定する。また、いずれかの中領域のフローパラメータが第2平面のフローパラメータと類似すると判定された場合には、静止物体が左右方向の位置ΔWにあることを特定する。また、いずれかの中領域のフローパラメータが第3平面のフローパラメータと類似すると判定された場合には、静止物体が車両進行方向の位置ΔLにあることを特定する。
次に、移動物体(対向車両や歩行者など)に対応する領域を識別する処理について説明する。図8には、画像上において移動物体に対応する領域を識別する処理のフローチャートが示されている。図8に示される処理は、図5のステップ506に対応している。なお、以下に説明する移動物体に対応する領域を識別する処理は、道路平面又は静止物体に対応する領域として識別されなかった領域に対して行われる。
図8に示される処理において、先ず、画像処理装置20は、移動物体に対するカメラ10の相対的な運動パラメータ{ac−ao,bc−bo,cc−co,ω1c,ω2c,ω3c}を算出する(S801)。ここで、移動物体の想定速度の各方向成分ao,bo,coは所定値(例えば1km/h)ごとの様々な値とし、これらの様々な想定速度についてカメラ10の相対的な運動パラメータを算出する。なお、画像データの取り込み周期が30msec程度であるため、移動物体の相対的なヨーレート、ピッチレート、ロールレートは無視している。
ステップ802〜ステップ804は、道路平面に平行な第1平面を識別するための処理である。ステップ802において、画像処理装置20は、カメラ10の相対的な運動パラメータ{ac−ao,bc−bo,cc−co,ω1c,ω2c,ω3c}のいずれか1つと、既述のステップ701で利用された複数の高さΔHの第1平面の平面パラメータ{p1,q1,r1}のいずれか1つとに基づいて、第1平面のフローパラメータ{U1,V1,A1,B1,C1,D1,E1,F1}を算出する(S802)。ここで、カメラ10の相対的な運動パラメータと第1平面の平面パラメータとの全ての組み合わせについて第1平面のフローパラメータを算出するため、複数の第1平面のフローパラメータが得られる。なお、第1平面のフローパラメータの算出方法は、「物体識別の原理」で説明したとおりである。
次に、画像処理装置20は、各中領域のフローパラメータ{Ux,y,Vx,y,Ax,y,Bx,y,Cx,y,Dx,y,Ex,y,Fx,y}を、第1平面のフローパラメータ{U1,V1,A1,B1,C1,D1,E1,F1}のそれぞれと比較して、両フローパラメータが類似するか否かを判定する(S803)。具体的には、両フローパラメータが類似するか否かを判定するためには、既述の数式(7)により差分ΔFP1を算出して、差分ΔFP1を閾値THと比較すればよい。
ステップ803において、第1平面のフローパラメータのいずれかについて、差分ΔFP1が閾値THよりも小さいと判定された場合には、その中領域のフローパラメータがその第1平面のフローパラメータと類似するため、その中領域がその第1平面を構成する領域であると識別する(S804)。一方、ステップ803において差分ΔFP1が閾値THよりも大きいと判定された場合には、その中領域のフローパラメータが第1平面のフローパラメータと類似しないため、その中領域の識別を行うことなくステップ805に進む。
ステップ805〜ステップ807は、道路平面に平行な第2平面を識別するための処理である。ステップ805において、画像処理装置20は、カメラ10の相対的な運動パラメータ{ac−ao,bc−bo,cc−co,ω1c,ω2c,ω3c}のいずれか1つと、既述のステップ705で利用された複数の水平方向距離ΔWの第2平面の平面パラメータ{p2,q2,r2}のいずれか1つとに基づいて、第2平面のフローパラメータ{U2,V2,A2,B2,C2,D2,E2,F2}を算出する(S805)。ここで、カメラ10の相対的な運動パラメータと第2平面の平面パラメータとの全ての組み合わせについて第2平面のフローパラメータを算出するため、複数の第2平面のフローパラメータが得られる。なお、第2平面のフローパラメータの算出方法は、「物体識別の原理」で説明したとおりである。
次に、画像処理装置20は、各中領域のフローパラメータ{Ux,y,Vx,y,Ax,y,Bx,y,Cx,y,Dx,y,Ex,y,Fx,y}を、第2平面のフローパラメータ{U2,V2,A2,B2,C2,D2,E2,F2}のそれぞれと比較して、両フローパラメータが類似するか否かを判定する(S806)。具体的には、両フローパラメータが類似するか否かを判定するためには、既述の数式(8)によりΔFP2を算出して、差分ΔFP2を閾値THと比較すればよい。
ステップ806において、第2平面のフローパラメータのいずれかについて、差分ΔFP2が閾値THよりも小さいと判定された場合には、その中領域のフローパラメータがその第2平面のフローパラメータと類似するため、その中領域がその第2平面を構成する領域であると識別する(S807)。一方、ステップ806において差分ΔFP2が閾値THよりも大きいと判定された場合には、その中領域のフローパラメータが第2平面のフローパラメータと類似しないため、その中領域の識別を行うことなくステップ808に進む。
ステップ808〜ステップ810は、道路平面に平行な第3平面を識別するための処理である。ステップ808において、画像処理装置20は、カメラ10の相対的な運動パラメータ{ac−ao,bc−bo,cc−co,ω1c,ω2c,ω3c}のいずれか1つと、既述のステップ705で利用された複数の距離ΔLの第3平面の平面パラメータ{p3,q3,r3}のいずれか1つとに基づいて、第3平面のフローパラメータ{U3,V3,A3,B3,C3,D3,E3,F3}を算出する(S808)。ここで、カメラ10の相対的な運動パラメータと第3平面の平面パラメータとの全ての組み合わせについて第3平面のフローパラメータを算出するため、複数の第3平面のフローパラメータが得られる。なお、第3平面のフローパラメータの算出方法は、「物体識別の原理」で説明したとおりである。
次に、画像処理装置20は、各中領域のフローパラメータ{Ux,y,Vx,y,Ax,y,Bx,y,Cx,y,Dx,y,Ex,y,Fx,y}を、第3平面のフローパラメータ{U3,V3,A3,B3,C3,D3,E3,F3}のそれぞれと比較して、両フローパラメータが類似するか否かを判定する(S809)。具体的には、両フローパラメータが類似するか否かを判定するためには、既述の数式(9)によりΔFP3を算出して、差分ΔFP3を閾値THと比較すればよい。
ステップ809において、第3平面のフローパラメータのいずれかについて、差分ΔFP3が閾値THよりも小さいと判定された場合には、その中領域のフローパラメータがその第3平面のフローパラメータと類似するため、その中領域がその第3平面を構成する領域であると識別する(S810)。一方、ステップ809において差分ΔFP3が閾値THよりも大きいと判定された場合には、その中領域のフローパラメータが第3平面のフローパラメータと類似しないため、その中領域の識別を行うことなくステップ811の処理に進む。上述したステップ801〜ステップ810の処理により、例えば、図15において斜線で示される領域が移動物体であると識別される。
なお、上述した処理に用いられた基準平面は、3次元座標系における幾何学的配置が既知である。そこで、画像処理装置20は、各中領域とフローパラメータが類似すると判定された基準平面の幾何学的配置に基づいて、移動物体の3次元座標系における位置を特定する。即ち、いずれかの中領域のフローパラメータが第1平面のフローパラメータと類似すると判定された場合には、移動物体が高さΔHにあることを特定する。また、いずれかの中領域のフローパラメータが第2平面のフローパラメータと類似すると判定された場合には、移動物体が左右方向の位置ΔWにあることを特定する。また、いずれかの中領域のフローパラメータが第3平面のフローパラメータと類似すると判定された場合には、移動物体が車両進行方向の位置ΔLにあることを特定する。
次に、移動物体の影のオプティカルフローを修正するための処理について説明する。図9には、移動物体の影のオプティカルフローを修正する処理のフローチャートが示されている。図9に示される処理は、図8のステップ811に対応している。
対向車両などの移動物体が道路上にある場合には、道路上において移動物体の影の周縁のオプティカルフローがその周辺のオプティカルフローに比べて大きくなる。これは、パターンマッチング処理において、移動物体の影の周縁は移動物体と同じ速度で移動しているように処理されてしまうからである。このように過大となったオプティカルフローが存在すると、実際には道路平面に対応する領域が移動物体として識別されてしまい、車両制御のために好ましくない。そこで、画像処理装置20は、以下の処理により移動物体の影の領域を識別し、その領域のオプティカルフローなどを修正している。
先ず、画像処理装置20は、移動物体と識別された領域の各部の幅を計算する(S901)。具体的には、画像処理装置20は、移動物体と識別された領域の各部についてx軸方向及びy軸方向に連続する画素数を計数し、その連続する画素数の計数値に基づいて移動物体と識別された領域に含まれる線状部位を探索する(S902)。次に、画像処理装置20は、線状部位の両側のフローパラメータが、道路領域のフローパラメータと類似するか否かを判定する(S903)。ここで、線状部位の両側のフローパラメータが道路領域のフローパラメータと類似する場合には、この線状部位を移動物体の影に対応する領域であると識別する。そして、画像処理装置20は、移動物体の影に対応する領域のオプティカルフローやフローパラメータを、周辺の道路領域のオプティカルフローやフローパラメータで置換する(S904)。次に、画像処理装置20は、移動物体と識別された領域から線状部位を除去した領域を、実際に移動物体に対応する領域と識別する(S905)。これにより、移動物体の実際の位置に基づいて車両制御を行うことができる。
10…カメラ、20…画像処理装置、30…車両センサ、40…表示制御装置、50…車両動作制御装置。
Claims (14)
- 異なる時刻に撮像された複数の画像データを処理して、画像の各領域ごとのオプティカルフローを算出するオプティカルフロー算出手段と、
前記オプティカルフロー算出手段により算出された少なくとも4つのオプティカルフローが同一平面上のオプティカルフローであると仮定して、画像の各領域ごとのフローパラメータを算出するフローパラメータ算出手段と、
前記フローパラメータ算出手段により算出されたフローパラメータが互いに類似する領域を、同一平面を構成する領域であると識別する領域識別手段と、
を備えることを特徴とする画像処理装置。 - 前記領域識別手段は、前記フローパラメータ算出手段により算出されたフローパラメータが、3次元座標系における幾何学的配置が既知である基準平面のフローパラメータに類似する領域を、当該基準平面を構成する領域であると識別することを特徴とする請求項1に記載の画像処理装置。
- 前記領域識別手段は、3次元座標系における幾何学的配置が互いに異なる複数の基準平面のフローパラメータを用意し、画像上の領域のフローパラメータが前記複数の基準平面のフローパラメータのいずれかと類似する場合に、画像上の当該領域を、フローパラメータが類似する当該基準平面を構成する領域であると識別することを特徴とする請求項2に記載の画像処理装置。
- 前記基準平面は、道路平面に平行な平面であることを特徴とする請求項1又は2に記載の画像処理装置。
- 前記基準平面は、道路平面に垂直な平面であって、移動物体の進行方向に平行な平面であることを特徴とする請求項1又は2に記載の画像処理装置。
- 前記基準平面は、道路平面に垂直な平面であって、移動物体の進行方向に垂直な平面であることを特徴とする請求項1又は2に記載の画像処理装置。
- 前記領域識別手段は、前記フローパラメータ算出手段により算出されたフローパラメータが、前記基準平面のフローパラメータに類似する領域を、静止物体に対応する領域であると識別することを特徴とする請求項2〜6のいずれか1項に記載の画像処理装置。
- 前記領域識別手段は、前記フローパラメータ算出手段により算出されたフローパラメータが、前記基準平面のフローパラメータに類似する領域を、移動物体に対応する領域であると識別することを特徴とする請求項2〜6のいずれか1項に記載の画像処理装置。
- 前記領域識別手段は、前記基準平面の幾何学的配置に基づいて前記静止物体又は前記移動物体の3次元座標系における位置を特定することを特徴とする請求項7又は8に記載の画像処理装置。
- 前記フローパラメータ算出手段は、前記移動物体に対するカメラの相対速度に基づいて、画像の各領域のフローパラメータを算出し、
前記領域識別手段は、前記フローパラメータ算出手段により算出されたフローパラメータが前記基準平面のフローパラメータと類似する領域を、移動物体に対応する領域であると識別することを特徴とする請求項8又は9に記載の画像処理装置。 - 前記移動物体に対するカメラの相対速度は、前記カメラの移動速度から前記移動物体の移動速度の想定値を減算したものであり、
前記領域識別手段は、前記フローパラメータ算出手段により算出されたフローパラメータが前記基準平面のフローパラメータと類似した場合に、前記移動物体の移動速度が前記想定値であると特定することを特徴とする請求項10に記載の画像処理装置。 - 前記領域識別手段は、移動物体であると識別された線状の領域であって、当該領域の両側が道路平面であると識別された領域を、前記移動物体の影に対応する領域であると識別することを特徴とする請求項8に記載の画像処理装置。
- 前記領域識別手段は、画像上の道路平面に対応する領域として識別されなかった領域に対して、静止物体又は移動物体の識別処理を行うことを特徴とする請求項7又は8に記載の画像処理装置。
- 前記道路平面のフローパラメータとして、移動物体により走行された位置に対応する領域のフローパラメータを用いることを特徴とする請求項13に記載の画像処理装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006170230A JP2008003695A (ja) | 2006-06-20 | 2006-06-20 | 画像処理装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006170230A JP2008003695A (ja) | 2006-06-20 | 2006-06-20 | 画像処理装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008003695A true JP2008003695A (ja) | 2008-01-10 |
Family
ID=39008041
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006170230A Pending JP2008003695A (ja) | 2006-06-20 | 2006-06-20 | 画像処理装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2008003695A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5299513B2 (ja) * | 2009-08-12 | 2013-09-25 | 日本電気株式会社 | 障害物検知装置及び方法並びに障害物検知システム |
CN104859540A (zh) * | 2014-02-25 | 2015-08-26 | 马自达汽车株式会社 | 车辆用显示控制装置 |
-
2006
- 2006-06-20 JP JP2006170230A patent/JP2008003695A/ja active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5299513B2 (ja) * | 2009-08-12 | 2013-09-25 | 日本電気株式会社 | 障害物検知装置及び方法並びに障害物検知システム |
CN104859540A (zh) * | 2014-02-25 | 2015-08-26 | 马自达汽车株式会社 | 车辆用显示控制装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3719095B2 (ja) | 挙動検出装置および勾配検出方法 | |
JP4899424B2 (ja) | 物体検出装置 | |
JP5016022B2 (ja) | 多重3次元ワーピングに基づく物体運動検出システムおよび方法とこのようなシステムを備えた車両 | |
JP3937414B2 (ja) | 平面検出装置及び検出方法 | |
US10187630B2 (en) | Egomotion estimation system and method | |
JP5999127B2 (ja) | 画像処理装置 | |
JP4958279B2 (ja) | 物体検出装置 | |
JP2007300181A (ja) | 周辺認識装置、周辺認識方法、プログラム | |
WO2010113239A1 (ja) | 画像統合装置および画像統合方法 | |
JP2014138420A (ja) | 自律車両用の奥行き検知方法及びシステム | |
JP4797877B2 (ja) | 車両用映像表示装置及び車両周囲映像の表示方法 | |
JP6939198B2 (ja) | 物体検出方法及び物体検出装置 | |
JP4256992B2 (ja) | 障害物検出装置 | |
JP5107154B2 (ja) | 運動推定装置 | |
JP2008003696A (ja) | 画像処理装置及び画像処理方法 | |
JP6886136B2 (ja) | 位置合わせ装置、位置合わせ方法及び位置合わせ用コンピュータプログラム | |
WO2010113253A1 (ja) | 3次元情報表示装置および3次元情報表示方法 | |
JP2010071942A (ja) | 物体検出装置 | |
JP2008003695A (ja) | 画像処理装置 | |
JP2005170290A (ja) | 障害物検出装置 | |
JP6677141B2 (ja) | 駐車枠認識装置 | |
WO2018123640A1 (ja) | 撮像装置 | |
JP4106163B2 (ja) | 障害物検出装置及びその方法 | |
JP2011070580A (ja) | 運転支援装置 | |
JP2004038760A (ja) | 車両用走行路認識装置 |