JP2008003696A - Image processing apparatus and image processing method - Google Patents
Image processing apparatus and image processing method Download PDFInfo
- Publication number
- JP2008003696A JP2008003696A JP2006170239A JP2006170239A JP2008003696A JP 2008003696 A JP2008003696 A JP 2008003696A JP 2006170239 A JP2006170239 A JP 2006170239A JP 2006170239 A JP2006170239 A JP 2006170239A JP 2008003696 A JP2008003696 A JP 2008003696A
- Authority
- JP
- Japan
- Prior art keywords
- flow
- image
- area
- image processing
- flow parameter
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Studio Devices (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、カメラが移動しながら撮像した画像を用いて、画像上の撮像された物体を識別する画像処理装置及び画像処理方法に関する。 The present invention relates to an image processing apparatus and an image processing method for identifying a captured object on an image using an image captured while a camera moves.
特許文献1には、車両に前方を監視する1台のカメラを搭載して、このカメラにより撮像された画像を処理して周辺の車両や障害物などを識別する装置が提案されている。より詳しく説明すると、この特許文献1に係る装置は、カメラが移動しながら路面を撮像し、第1の画像の路面上の特徴点と、第2の画像の路面上の特徴点とを重ね合わせるための変換行列を算出する。そして、当該装置は、画像の複数の特徴点にこの変換行列を適用し、重ね合わせに失敗した特徴点を立体物の特徴点として識別する。
上述した従来技術に係る装置では、路面上の特徴点を重ね合わせるための変換行列を算出して画像にこの変換行列を適用する必要がある。しかしながら、この処理のための計算量は膨大であるため、障害物の識別処理の計算周期および精度は装置の計算能力により制限されてしまう。即ち、障害物の識別結果を高解像度・高精度で得たい場合には、障害物の識別処理の計算周期を遅くする必要がある。一方、障害物を識別結果を高い計算周期で得たい場合には、障害物の識別結果の解像度・精度が低下してしまう。 In the above-described device according to the related art, it is necessary to calculate a transformation matrix for superimposing feature points on the road surface and apply this transformation matrix to an image. However, since the amount of calculation for this process is enormous, the calculation cycle and accuracy of the obstacle identification process are limited by the calculation capability of the apparatus. That is, when it is desired to obtain the obstacle identification result with high resolution and high accuracy, it is necessary to delay the calculation period of the obstacle identification processing. On the other hand, when it is desired to obtain an obstacle identification result with a high calculation cycle, the resolution and accuracy of the obstacle identification result is lowered.
本発明は、このような問題を解決するためになされたものであり、画像上の撮像された物体の識別処理を少ない計算量で行うことが可能な画像処理装置及び画像処理方法を提供することを目的とする。 The present invention has been made to solve such a problem, and provides an image processing apparatus and an image processing method capable of identifying a captured object on an image with a small amount of calculation. With the goal.
上述した目的を達成するために、本発明に係る画像処理装置は、異なる時刻に撮像された複数の画像データを処理して、画像の各領域ごとのオプティカルフローを算出するオプティカルフロー算出手段と、オプティカルフロー算出手段により算出された少なくとも4つのオプティカルフローが同一平面上のオプティカルフローであると仮定して、画像の各領域ごとのフローパラメータを算出するフローパラメータ算出手段と、フローパラメータ算出手段により算出されたフローパラメータが、道路平面のフローパラメータと類似する領域を、道路平面を構成する領域であると識別する領域識別手段と、を備えることを特徴とする。この構成によれば、画像処理装置は、比較的に簡易な処理でフローパラメータを算出し、このフローパラメータを用いて画像の道路平面を構成する領域を識別するため、画像の各領域を識別するための処理を簡易なものとして、計算量を少なくすることができる。これにより、画像の各領域の識別処理における画像の解像度を向上したり、画像の各領域の識別処理を実行する周期を短くすることができる。 In order to achieve the above-described object, an image processing apparatus according to the present invention processes a plurality of image data captured at different times, and calculates an optical flow for each region of the image; Assuming that at least four optical flows calculated by the optical flow calculating means are optical flows on the same plane, the flow parameter calculating means for calculating the flow parameters for each region of the image, and the flow parameter calculating means And a region identifying means for identifying a region similar to the flow parameter of the road plane as a region constituting the road plane. According to this configuration, the image processing apparatus calculates the flow parameter by a relatively simple process, and identifies each region of the image in order to identify the region constituting the road plane of the image using the flow parameter. Therefore, the amount of calculation can be reduced by simplifying the process. Thereby, the resolution of the image in the identification process of each area | region of an image can be improved, or the period which performs the identification process of each area | region of an image can be shortened.
上述した画像処理装置において、オプティカルフロー算出手段は、道路平面上の特徴的な画像部分について基準オプティカルフローを算出し、基準オプティカルフローに基づいて画像の各領域ごとに探索範囲を設定し、探索範囲内を探索することで画像の各領域ごとのオプティカルフローを算出することが好ましい。この構成によれば、画像処理装置は、道路平面上の特徴的な領域について算出されたオプティカルフローに基づいて画像の一部に探索範囲の設定するため、探索範囲を適切な位置に設定することができ、オプティカルフローの精度を向上することができる。特に、基準オプティカルフローの大きさに基づいて前記探索範囲が設定される位置や面積を決定することにより、探索範囲を適切に設定することができ、オプティカルフローの精度を向上することができる。 In the above-described image processing apparatus, the optical flow calculation means calculates a reference optical flow for a characteristic image portion on the road plane, sets a search range for each area of the image based on the reference optical flow, It is preferable to calculate the optical flow for each area of the image by searching inside. According to this configuration, the image processing apparatus sets the search range to an appropriate position in order to set the search range in a part of the image based on the optical flow calculated for the characteristic region on the road plane. And the accuracy of the optical flow can be improved. In particular, by determining the position and area where the search range is set based on the size of the reference optical flow, the search range can be set appropriately, and the accuracy of the optical flow can be improved.
上述した画像処理装置において、オプティカルフロー算出手段は、画像において自車両の進行方向の領域を道路平面の領域とし、この領域に含まれる特徴的な画像部分について基準オプティカルフローを算出することが好ましい。この構成によれば、通常の走行状態では自車両の進行方向は道路平面であるため、画像において自車両の進行方向の領域を道路平面の領域とし、この領域に含まれる特徴的な画像部分について基準オプティカルフローを算出する。よって、基準オプティカルフローを適切に設定することができる。 In the above-described image processing apparatus, it is preferable that the optical flow calculation unit calculates a reference optical flow for a characteristic image portion included in an area in the image in which the traveling direction of the host vehicle is a road plane area. According to this configuration, since the traveling direction of the host vehicle is a road plane in a normal traveling state, the region in the traveling direction of the host vehicle is set as a road plane region in the image, and a characteristic image portion included in this region is determined. A reference optical flow is calculated. Accordingly, the reference optical flow can be set appropriately.
上述した画像処理装置において、領域識別手段は、フローパラメータ算出手段により算出されたフローパラメータが、過去に算出された道路平面のフローパラメータと類似する領域を、道路平面を構成する領域であると識別することが好ましい。この構成によれば、画像処理装置は、過去に算出された道路平面のフローパラメータを利用して道路平面を構成する領域を識別するため、道路平面を構成する領域を簡易な処理で識別することができる。 In the above-described image processing apparatus, the region identifying unit identifies a region in which the flow parameter calculated by the flow parameter calculating unit is similar to the flow parameter of the road plane calculated in the past as a region constituting the road plane. It is preferable to do. According to this configuration, since the image processing apparatus identifies the area constituting the road plane using the flow parameters of the road plane calculated in the past, the area constituting the road plane can be identified by simple processing. Can do.
上述した画像処理装置において、領域識別手段は、自車両の進行方向の領域のフローパラメータの経時変化が予め設定された閾値より小さい場合に、当該領域のフローパラメータを道路平面のフローパラメータとして設定することが好ましい。この構成によれば、画像処理装置は、自車両の進行方向の領域のフローパラメータの経時変化が小さい場合に、その領域のフローパラメータを道路平面のフローパラメータとして設定するため、より確実に道路平面である領域のフローパラメータを利用して画像内の道路平面を識別することができる。 In the above-described image processing device, the area identification unit sets the flow parameter of the area as the flow parameter of the road plane when the temporal change of the flow parameter of the area in the traveling direction of the host vehicle is smaller than a preset threshold value. It is preferable. According to this configuration, the image processing apparatus sets the flow parameter of the area as the flow parameter of the road plane when the change over time of the flow parameter of the area in the traveling direction of the host vehicle is small. The road plane in the image can be identified using the flow parameter of the area.
上述した画像処理装置において、領域識別手段は、自車両の進行方向の領域のフローパラメータが標準的な道路平面のフローパラメータと類似する場合に、当該領域のフローパラメータを道路平面のフローパラメータとして設定することが好ましい。この構成によれば、画像処理装置は、自車両の進行方向の領域のフローパラメータが標準的な道路平面のフローパラメータと類似する場合に、当該領域のフローパラメータを道路平面のフローパラメータとして設定するため、より確実に道路平面である領域のフローパラメータを利用して画像内の道路平面を識別することができる。 In the image processing apparatus described above, the area identification unit sets the flow parameter of the area as the flow parameter of the road plane when the flow parameter of the area in the traveling direction of the host vehicle is similar to the flow parameter of the standard road plane. It is preferable to do. According to this configuration, when the flow parameter of the area in the traveling direction of the host vehicle is similar to the flow parameter of the standard road plane, the image processing device sets the flow parameter of the area as the flow parameter of the road plane. Therefore, the road plane in the image can be identified more reliably using the flow parameter of the area that is the road plane.
また、上述した目的を達成するために、本発明に係る画像処理方法は、異なる時刻に撮像された複数の画像データを処理して、画像の各領域ごとのオプティカルフローを算出するオプティカルフロー算出ステップと、算出された少なくとも4つのオプティカルフローが同一平面上のオプティカルフローであると仮定して、画像の各領域ごとのフローパラメータを算出するフローパラメータ算出ステップと、算出されたフローパラメータが、道路平面のフローパラメータと類似する領域を、道路平面を構成する領域であると識別する領域識別ステップと、を含む。 In order to achieve the above-described object, an image processing method according to the present invention is a method for calculating an optical flow for each region of an image by processing a plurality of image data captured at different times. Assuming that the calculated at least four optical flows are optical flows on the same plane, a flow parameter calculating step for calculating a flow parameter for each area of the image, and the calculated flow parameter is a road plane And an area identifying step for identifying an area similar to the flow parameter as an area constituting a road plane.
本発明の画像処理装置及び画像処理方法によれば、画像上の撮像された物体の識別処理を少ない計算量で行うことができる。 According to the image processing apparatus and the image processing method of the present invention, identification processing of an imaged object on an image can be performed with a small amount of calculation.
以下、図面を参照して、本発明の画像処理装置の好適な実施形態について説明する。本実施形態において、画像処理装置は車両に搭載されている。 Hereinafter, preferred embodiments of an image processing apparatus of the present invention will be described with reference to the drawings. In the present embodiment, the image processing apparatus is mounted on a vehicle.
図1に示すように、画像処理装置20には、撮像手段としてカメラ10が接続されている。カメラ10は、例えば、CCD[Charge Coupled Device]カメラ10であり、画像処理装置20を搭載する自動車の前方かつ中央に取り付けられる。カメラ10は、所定時間が経過する度に、自動車の前方を撮像して、複数の画素データからなる画像データを生成する。カメラ10は、生成された画像データを、画像処理装置20に逐次出力する。
As shown in FIG. 1, a
画像処理装置20は、カメラ10から画像データを取り込むと、画像データを処理して画像上の物体を識別する処理を行う。特に、画像処理装置20は、画像上の被撮像物が道路平面であるか否かを識別する。画像処理装置20は、物理的には、CPU、ROM、RAM等で構成されている。また、画像処理装置20は、機能的には、オプティカルフロー算出手段22と、フローパラメータ算出手段24と、領域識別手段26とを備えている。これらの機能は、CPUおよびRAMが、ROMに記憶されたプログラムを実行することにより実現される。
When the
オプティカルフロー算出手段22は、画像データをテンプレートマッチング法により処理することで、オプティカルフローベクトルを算出する。フローパラメータ算出手段24は、算出されたオプティカルフローベクトルに基づいて、一般的にフローパラメータと呼ばれる8つのパラメータを算出する。領域識別手段26は、算出されたフローパラメータに基づいて、画像上の被撮像物が道路平面であるか否かを識別する。
The optical
上述した画像上の物体を識別する処理を可能とするために、画像処理装置20には車両センサ30が接続されている。車両センサ30は、車両の挙動を検出するものであればよく、例えば、車速センサ、ハンドル角センサ、ヨーレートセンサ、ピッチセンサ、ロールセンサ、前後方向加速度センサ、横方向加速度センサ、上下方向加速度センサなどを含んで構成すればよい。これらのセンサによる検出値は、画像処理装置20により取り込まれ、画像上の被撮像物を識別する処理に利用される。
A
画像処理装置20による物体識別処理の結果は、車室内に設けられたモニターの表示制御や車両の動作制御などに利用される。例えば、画像処理装置20による物体識別処理の結果が表示制御装置40に入力されると、表示制御装置40は、画像上の各領域の識別結果をモニターに表示したり、運転者への警告をモニターに表示する。また、画像処理装置20による物体識別処理の結果が車両制御装置50に入力されると、車両制御装置50は、車両前方の物体との衝突を回避するように、エンジン、ブレーキ、変速機、ステアリングなどを制御する。
The result of the object identification processing by the
[物体識別の原理]
次に、画像処理装置20が画像上の物体を識別する原理について説明する。
[Principle of object identification]
Next, the principle by which the
先ず、図2を参照して、3つの座標系、即ち、画像座標系、カメラ座標系および車両座標系について説明する。画像座標系は、カメラ10の画像面に設定された2次元座標系であり、画像の中心を原点とし、画像の縦方向をx軸とし、画像の横方向をy軸としている。カメラ座標系は、カメラ10を中心に設定された3次元座標系であり、カメラ10の位置を原点とし、カメラ10の上下方向をXc軸とし、カメラ10の左右方向をYc軸とし、カメラ10の光軸方向をZc軸としている。車両座標系は、カメラ座標系を回転したものであり、車両の上下方向をXv軸とし、車両の左右方向をYv軸とし、車両の進行方向をZv軸としている。車両に対するカメラ10の姿勢が、図3に示されている。図3から理解できるように、カメラ座標系のZc軸と車両座標系のZv軸とがなす角度はθであり、カメラ座標系のYc軸と車両座標系のYz軸とがなす角度はφである。説明の便宜のため角度θ,φを大きく示しているが、実際にはカメラ座標系と車両座標系とはほぼ一致しており角度θ,φは微小である。なお、上述した画像座標系、カメラ座標系および車両座標系は、車両の移動に伴ってカメラ10と共に移動する。
First, with reference to FIG. 2, three coordinate systems, that is, an image coordinate system, a camera coordinate system, and a vehicle coordinate system will be described. The image coordinate system is a two-dimensional coordinate system set on the image plane of the
次に、図4を参照して、オプティカルフローを生じさせるカメラ10の運動について説明する。車両が車両座標系のXv軸方向、Yv軸方向、Zv軸方向にそれぞれa,b,cの速度で並進運動し、Xv軸周り、Yv軸周り、Zv軸周りにそれぞれω1,ω2,ω3の角速度で回転運動する場合には、車両座標系を基準とするカメラ10の運動パラメータは{a,b,c,ω1,ω2,ω3}である。車両座標系を基準とするカメラ10の運動パラメータを、車両座標系からカメラ座標系に座標変換すると、カメラ座標系を基準とするカメラ10の運動パラメータ{ac,bc,cc,ω1c,ω2c,ω3c}となる。
Next, with reference to FIG. 4, the movement of the
カメラ10が上記の運動パラメータ{ac,bc,cc,ω1c,ω2c,ω3c}で運動する場合に、画像上の位置(x,y)で、Zc=p・Xc+q・Yc+rで表される平面が撮像されると、次の数式(1)で表されるオプティカルフロー(u,v)が引き起こされる。なお、uはオプティカルフローベクトルのx方向成分であり、vはオプティカルフローベクトルのy方向成分である。
The
なお、上の数式(1)において、fはカメラ10の焦点距離である。また、p,qおよびrは、平面を規定するための平面パラメータである。また、8つのパラメータU,V,A,B,C,D,E及びFは、一般にフローパラメータと呼ばれる数値であり、次の数式(2)で定義されている。なお、数式(1)および(2)については、「画像理解‐3次元認識の数理」(金谷健一著)に詳述されている。
In the above formula (1), f is the focal length of the
上述したように、オプティカルフローは、数式(1)および(2)により表されるものであるが、実際には連続撮像して得られる一連の画像を処理して算出される。即ち、あるタイミングの画像を多数の領域に分割してから、テンプレートマッチング法によりそれらの各領域と一致する領域を次のタイミングの画像から探索することにより、オプティカルフローは算出される。 As described above, the optical flow is expressed by the mathematical formulas (1) and (2), but is actually calculated by processing a series of images obtained by continuous imaging. That is, an optical flow is calculated by dividing an image at a certain timing into a large number of regions and then searching for regions that match those regions from the image at the next timing by the template matching method.
さらに、このように算出されたオプティカルフローから、フローパラメータ{U,V,A,B,C,D,E,F}を算出することができる。即ち、画像上の一部の領域を平面であると見做せば、その領域ではフローパラメータは同一であるため、その領域の4つ以上のオプティカルフローの情報(x,y,u,v)からフローパラメータを算出することができる。例えば、画像上の一部の領域の4つのオプティカルフロー情報(x1,y1,u1,v1)、(x2,y2,u2,v2)、(x3,y3,u3,v3)、(x4,y4,u4,v4)と、カメラ10の焦点距離fを上の数式(1)に代入すると、フローパラメータ{U,V,A,B,C,D,E,F}を未知数として含む数式が合計8つ得られる。よって、これらの8つの数式を周知の手法で処理することにより、フローパラメータの数値を求めることができる。フローパラメータの算出のために、5つ以上のオプティカルフロー情報を用いる場合には、最小自乗法などの近似法を用いればよい。なお、以下の説明では、画像上の位置(x,y)について算出されたフローパラメータを{Ux,y,Vx,y,Ax,y,Bx,y,Cx,y,Dx,y,Ex,y,Fx,y}と表す。
Furthermore, the flow parameters {U, V, A, B, C, D, E, F} can be calculated from the optical flow calculated in this way. That is, if a part of the area on the image is considered to be a plane, the flow parameters are the same in that area, so information on four or more optical flows in that area (x, y, u, v) From this, the flow parameter can be calculated. For example, four pieces of optical flow information (x 1 , y 1 , u 1 , v 1 ), (x 2 , y 2 , u 2 , v 2 ), (x 3 , y 3 , When u 3 , v 3 ), (x 4 , y 4 , u 4 , v 4 ) and the focal length f of the
上記の数式(2)から理解できるように、フローパラメータ{U,V,A,B,C,D,E,F}は、カメラ10の運動パラメータ{ac,bc,cc,ω1c,ω2c,ω3c}および平面パラメータ{p,q,r}によって一義的に定義される。よって、カメラ10の運動パラメータ{ac,bc,cc,ω1c,ω2c,ω3c}が一定値である場合には、フローパラメータ{U,V,A,B,C,D,E,F}は、撮像された物体表面の平面パラメータ{p,q,r}と等価な数値として用いることができる。本実施形態における物体識別の原理ではこのようなフローパラメータの特性が利用されており、画像上の各領域について算出されたフローパラメータに基づいて画像上の各領域の平面が識別されている。
As can be understood from the above formula (2), the flow parameters {U, V, A, B, C, D, E, F} are the motion parameters {a c , b c , c c ,
即ち、同一平面を撮像した画像領域については8つのフローパラメータはほぼ等しい値となる。よって、画像上の各領域のフローパラメータ{Ux,y,Vx,y,Ax,y,Bx,y,Cx,y,Dx,y,Ex,y,Fx,y}を互いに比較することにより、2つの画像領域が同一平面であるか否かを判定することができる。特に、本実施形態では、3次元座標系における幾何学的配置が既知である基準平面のフローパラメータとして、道路平面を基準とする平面のフローパラメータ{Ur,Vr,Ar,Br,Cr,Dr,Er,Fr}を求める。そして、画像上の各領域のフローパラメータを道路平面のフローパラメータと比較することにより、画像上の各領域が、道路平面あるか否かを識別している。ここで、両フローパラメータが類似する場合には、画像上のその領域は道路平面であると識別される。なお、両フローパラメータの類似とは、両フローパラメータが一致する場合、及び両フローパラメータの差分が所定の閾値より小さい場合である。 In other words, the eight flow parameters have substantially the same value for the image areas obtained by imaging the same plane. Therefore, the flow parameters { Ux, y , Vx , y , Ax, y , Bx, y , Cx, y , Dx, y , Ex, y , Fx, y of each region on the image } With each other, it can be determined whether or not the two image regions are on the same plane. In particular, in the present embodiment, the flow parameters {U r , V r , A r , B r , of the plane based on the road plane are used as the flow parameters of the reference plane whose geometrical arrangement in the three-dimensional coordinate system is known. C r , D r , E r , F r } are obtained. Then, by comparing the flow parameter of each area on the image with the flow parameter of the road plane, it is identified whether each area on the image is a road plane. Here, when both flow parameters are similar, the region on the image is identified as a road plane. The similarity between both flow parameters is when both flow parameters match and when the difference between both flow parameters is smaller than a predetermined threshold.
[物体識別処理]
次に、図5〜図8のフローチャートを参照して、本実施形態の画像処理装置20による物体識別処理について説明する。図5には、画像処理装置20による物体識別処理の全体的なフローが示されている。図6には、オプティカルフローを算出する処理のフローが示されている。図7には、道路平面のフローパラメータを設定する処理のフローが示されている。また、図8には、道路平面のフローパラメータを設定する別の処理のフローが示されている。
[Object identification processing]
Next, the object identification process by the
図5のフローチャートに示されるように、画像処理装置20は、一定の時間間隔(例えば30msec)ごとのタイミングTnに画像データを取り込む(S501)。画像処理装置20により取り込まれた画像データの一例を、図9に示す。この画像では、前方に道路が拡がっている。道路上には対向車両が存在し、道路の端には歩道が延びている。画像処理装置20は、取り込まれた画像データをLoGフィルタ(Laplacian of Gaussian Filter)で処理する。次に、画像処理装置20は、全画像面を矩形の小さな領域(例えば、8×8画素の領域、以下、小領域と呼ぶ)に網目状に分割し(図10参照)、テンプレートマッチング法により各小領域ごとにオプティカルフローベクトルを算出する(S502、図11参照)。オプティカルフローを算出する処理については、図6を参照して後に詳しく説明する。
As shown in the flowchart of FIG. 5, the
次に、画像処理装置20は、隣接する4つの小領域を含む領域を一組の領域(以下、中領域と呼ぶ)として設定し、各中領域を一枚の平面であると仮定して各中領域のフローパラメータを算出する(S503)。中領域に含まれる4つの小領域のオプティカルフロー情報(x1,y1,u1,v1)、(x2,y2,u2,v2)、(x3,y3,u3,v3)、(x4,y4,u4,v4)から当該中領域のフローパラメータ{Ux,y,Vx,y,Ax,y,Bx,y,Cx,y,Dx,y,Ex,y,Fx,y}を算出する方法については既述のとおりである。
Next, the
次に、画像処理装置20は、確実に道路平面である中領域のフローパラメータ{Ur,Vr,Ar,Br,Cr,Dr,Er,Fr}を設定する(S504)。道路平面のフローパラメータを設定する処理については、図7及び図8を参照して後に詳しく説明する。そして、画像処理装置20は、画像上の各中領域のフローパラメータ{Ux,y,Vx,y,Ax,y,Bx,y,Cx,y,Dx,y,Ex,y,Fx,y}を、道路平面のフローパラメータ{Ur,Vr,Ar,Br,Cr,Dr,Er,Fr}と比較して、両フローパラメータが類似するか否かを判定する(S505)。具体的には、画像処理装置20は、次の数式(3.1)又は数式(3.2)を用いて両フローパラメータの差分ΔFPrを求め、この差分ΔFPrが予め設定された閾値THよりも大きいか否かを判定する。
Next, the
ここで、kU,kV,kA,kB,kC,kD,kE,kFは、各フローパラメータの重み係数である。各フローパラメータの重み係数kU〜kFとしては、道路平面に対応する領域を識別するために好適な値が設定されればよい。ここで、各フローパラメータの重み係数kU〜kFとしてそれぞれ異なる値が設定されてもよいし、共通する値が設定されてもよい。また、差分ΔFPrと比較される閾値THは、道路平面に対応する領域を識別するために好適な値が設定される。例えば、閾値THは、自車両の走行速度やカメラ10から道路の被撮像位置までの距離に応じて異なる値としてもよい。
Here, k U , k V , k A , k B , k C , k D , k E , and k F are weighting factors for each flow parameter. As the weighting factors k U to k F of each flow parameter, a value suitable for identifying an area corresponding to the road plane may be set. Here, different values may be set as the weighting coefficients k U to k F of the flow parameters, or common values may be set. The threshold value TH to be compared with the difference ΔFP r is set to a value suitable for identifying an area corresponding to the road plane. For example, the threshold value TH may be a different value depending on the traveling speed of the host vehicle and the distance from the
ステップ505において差分ΔFPrが閾値THよりも小さいと判定された場合には、その中領域のフローパラメータが道路平面のフローパラメータと類似するため、その中領域が道路平面であると識別する(S506)。例えば、図12において斜線で示される領域が道路平面であると識別される。一方、ステップ505において差分ΔFPrが閾値THよりも大きいと判定された場合には、その中領域のフローパラメータが道路平面のフローパラメータと類似しないため、その中領域が道路平面以外であると識別する。 If it is determined in step 505 that the difference ΔFP r is smaller than the threshold value TH, the flow parameter of the middle area is similar to the flow parameter of the road plane, so that the middle area is identified as the road plane (S506). ). For example, an area indicated by diagonal lines in FIG. 12 is identified as a road plane. On the other hand, if it is determined in step 505 that the difference ΔFP r is larger than the threshold value TH, the flow parameter of the middle area is not similar to the flow parameter of the road plane, and therefore the middle area is identified as other than the road plane. To do.
次に、図6を参照して、オプティカルフローを算出する処理について説明する。図6には、オプティカルフローを算出する処理のフローチャートが示されている。図6に示されるフローチャートは、図5のステップ502に対応している。 Next, processing for calculating an optical flow will be described with reference to FIG. FIG. 6 shows a flowchart of processing for calculating an optical flow. The flowchart shown in FIG. 6 corresponds to step 502 in FIG.
ステップ601〜ステップ607において、画像処理装置20は、道路平面のオプティカルフローとして基準となる基準オプティカルフローを算出する。先ず、画像処理装置20は、時刻Tnに撮像された画像において、車両前方の領域であって道路平面であると推測される領域から、特徴的な画像部分を含む小領域を抽出する(S601)。画像処理装置20により抽出される小領域は、道路平面に描かれた横断歩道、白線、道路標識などの特徴的な画像部分を含む領域である。図13に示される処理例では、画像の道路平面に対応する領域から、特徴的な画像部分として丸印内にある横断歩道のエッジ部分が抽出されている。図14には、特徴的な画像部分を含む小領域が拡大して示されている。このような特徴的な画像部分を含む小領域はパターンマッチング処理に適しており、この領域を利用することでオプティカルフローベクトルを高精度に算出できる。
In step 601 to step 607, the
道路平面であると推測される領域には特徴的な画像部分が複数あるため、画像処理装置20は、これらの特徴的な画像部分を含む複数の小領域を抽出すればよい。但し、画像処理装置20は、前方を走行する他車両に対応する小領域が抽出されることを回避する必要がある。このために、画像処理装置20は、車両速度ごとに標準的な車間距離のデータを予め記憶しておく。そして、画像処理装置20は、車両センサ30から車両速度の検出値を取り込んで、車両前方の領域であってその車両速度に応じた車間距離内の領域から、道路平面の特徴的な画像部分を含む小領域を抽出することが好ましい。
Since there are a plurality of characteristic image portions in the region estimated to be a road plane, the
次に、画像処理装置20は、特徴的な画像部分を含む小領域の中心(xn,yn)を、オプティカルフローベクトルの始点として設定する(S602)。さらに、画像処理装置20は、図14に示されるように、時刻Tnに撮像された画像において、特徴的な画像部分を含む小領域と中心を同じくする範囲であって特徴的な画像部分を含む小領域よりも一回り大きな範囲を、テンプレートマッチング処理の対象となる探索範囲として決定する。そして、画像処理装置20は、時刻Tn+1に撮像された画像において、画像座標系の同位置に探索範囲を設定する(S603、図15参照)。
Next, the
次に、画像処理装置20は、時刻Tnの特徴的な画像部分を含む小領域をテンプレートとして用いて、時刻Tn+1の画像に設定された探索範囲に対してテンプレートマッチング処理を行って、時刻Tn+1における探索範囲に含まれる各小領域について相関値を演算する(S604)。そして、画像処理装置20は、各小領域について演算された相関値を互いに比較して、相関値が最大となる小領域を求める(S605)。この結果、図15に示されるように、タイミングTnの画像の小領域と適合する小領域が、時刻Tn+1の画像の探索範囲内から探索される。
Next, the
次に、画像処理装置20は、時刻Tn+1の画像で特徴的な画像部分を含む小領域の中心(xn+1,yn+1)を、オプティカルフローベクトルの終点として設定する(S606)。そして、画像処理装置20は、オプティカルフローベクトルの始点から終点までのベクトルを、道路平面のオプティカルフローとして基準となる基準オプティカルフローベクトル(xn+1−xn,yn+1−yn)として算出する(S607)。
Next, the
次に、画像処理装置20は、ステップ607で算出された特徴的な画像部分のオプティカルフローベクトルに基づいて探索範囲を調節しつつ、画像上の各小領域ごとに探索範囲を設定する(S608)。具体的には、画像処理装置20は、先ず、画像上の各小領域の夫々について、小領域と中心を同じくする範囲であってこの小領域よりも一回り大きな範囲を、テンプレートマッチング処理の対象となる探索範囲として仮設定する。そして、このように仮設定された探索範囲の夫々を、基準オプティカルフローベクトル(xn+1−xn,yn+1−yn)の距離及び方向に従って移動させる。
Next, the
図16には、車両速度が大きい場合に設定される探索範囲が示されている。車両速度が大きい場合には、基準オプティカルフローベクトルは大きいため、探索範囲は当初設定された位置(破線)から大きくずらされた位置(実線)に設定されている。一方、図17には、車両速度が小さい場合に設定される探索範囲が示されている。車両速度が小さい場合には、基準オプティカルフローベクトルは小さいため、探索範囲は当初設定された位置(破線)に近い位置(実線)に設定されている。このように探索範囲の位置を調節することにより、移動後の小領域が確実に探索範囲に入るため、移動後の小領域を確実に探索することができ、オプティカルフローベクトルを高精度に算出することが可能となる。 FIG. 16 shows a search range that is set when the vehicle speed is high. When the vehicle speed is high, the reference optical flow vector is large, and therefore the search range is set to a position (solid line) that is largely shifted from the initially set position (dashed line). On the other hand, FIG. 17 shows a search range set when the vehicle speed is low. When the vehicle speed is low, the reference optical flow vector is small, so the search range is set at a position (solid line) close to the initially set position (broken line). By adjusting the position of the search range in this way, the small region after movement surely enters the search range, so that the small region after movement can be reliably searched, and the optical flow vector is calculated with high accuracy. It becomes possible.
なお、上記の探索範囲の設定に際して、基準オプティカルフローベクトルに応じて探索範囲の面積を調節してもよい。例えば、基準オプティカルフローベクトルが大きい場合には探索範囲の面積を大きくし、基準オプティカルフローベクトルが小さい場合には探索範囲の面積を小さくすればよい。このように探索範囲の面積を調節することにより、探索範囲を必要最小限な大きさに調節することができるため、オプティカルフローベクトルの算出処理の演算時間を短くすることができる。また、探索範囲を必要最小限な大きさに調節することにより、誤った小領域が探索される確率が小さくなるため、オプティカルフローベクトルを高精度に算出することが可能となる。 In setting the search range, the area of the search range may be adjusted according to the reference optical flow vector. For example, the area of the search range may be increased when the reference optical flow vector is large, and the area of the search range may be decreased when the reference optical flow vector is small. By adjusting the area of the search range in this way, the search range can be adjusted to the minimum necessary size, so that the calculation time of the optical flow vector calculation process can be shortened. Further, by adjusting the search range to the minimum necessary size, the probability that an erroneous small area is searched is reduced, so that the optical flow vector can be calculated with high accuracy.
最後に、画像処理装置20は、時刻Tnの画像の各小領域をテンプレートとして用いて、時刻Tn+1の画像に設定された探索範囲に対してテンプレートマッチング処理を行って、時刻Tn+1の画像に設定された探索範囲から相関値が最大となる小領域を求める。そして、画像処理装置20は、時刻Tnにおける各小領域の中心を始点とし、時刻Tn+1における移動後の各小領域の中心を終点とするベクトルを、各領域ごとのオプティカルフローベクトルとして算出する(S609)。
Finally, the
次に、図7を参照して、道路平面のフローパラメータを設定する処理について説明する。図7には、道路平面のフローパラメータを設定する処理のフローチャートが示されている。図7に示されるフローチャートは、図5のステップ504に対応している。 Next, with reference to FIG. 7, a process for setting the flow parameters of the road plane will be described. FIG. 7 shows a flowchart of a process for setting a flow parameter for a road plane. The flowchart shown in FIG. 7 corresponds to step 504 in FIG.
先ず、画像処理装置20は、車両進行方向の複数の中領域を道路平面に対応するものと推測し、これらの中領域について算出されたフローパラメータを監視して、フローパラメータの経時変化の大きさを求める(S701)。ここで、経時変化の大きさは、フローパラメータ{Ux,y,Vx,y,Ax,y,Bx,y,Cx,y,Dx,y,Ex,y,Fx,y}のそれぞれについて算出される。次に、画像処理装置20は、各フローパラメータの経時変化の大きさを予め設定された閾値TU,TV,TA,TB,TC,TD,TE,TFと比較して、フローパラメータの経時変化の大きさが閾値TU〜TFより小さい中領域を判別する(S702)。
First, the
ここで、閾値TU〜TFは、フローパラメータの安定度合いを判定するためのものである。ある中領域についてフローパラメータの経時変化が計測されている間に、その中領域が継続して道路平面である場合には、その中領域のフローパラメータは安定しており、フローパラメータの経時変化の大きさは閾値TU〜TFより小さくなる。一方、その中領域が道路平面以外である場合には、その中領域のフローパラメータは変化して不安定となり、フローパラメータの経時変化の大きさは閾値TU〜TFより大きくなる。よって、フローパラメータの経時変化の大きさが閾値TU〜TFより小さい場合に、その中領域が道路平面であることを判別することが可能となる。 Here, the thresholds T U to T F are for determining the degree of stability of the flow parameter. If the middle area continues to be a road plane while the flow parameter change over time is measured for a middle area, the middle area flow parameter is stable and the flow parameter changes over time. The magnitude is smaller than the thresholds T U to T F. On the other hand, when the middle area is other than the road plane, the flow parameter of the middle area changes and becomes unstable, and the magnitude of the change of the flow parameter with time becomes larger than the thresholds T U to T F. Therefore, when the magnitude of the change over time of the flow parameter is smaller than the threshold values T U to T F , it is possible to determine that the middle region is a road plane.
但し、車両の走行状態によっては、車両に角速度変化ω1,ω2,ω3が発生することもある。このように角速度変化ω1,ω2,ω3が発生する場合には、実際には車両進行方向の中領域が道路平面に対応していても、角速度変化ω1,ω2,ω3を数式(2)に含むフローパラメータについては角速度の変化に伴ってその経時変化が大きくなるため、車両進行方向の中領域が道路平面に対応することを判別できなくなってしまう。そこで、角速度変化ω1,ω2,ω3が発生する走行状態である場合には、角速度変化を数式(2)に含まないフローパラメータを選択して、選択されたフローパラメータの経時変化と閾値TU〜TFを比較する。 However, depending on the running state of the vehicle, angular velocity changes ω1, ω2, and ω3 may occur in the vehicle. Thus, when the angular velocity changes ω1, ω2, and ω3 occur, the angular velocity changes ω1, ω2, and ω3 are included in Equation (2) even though the middle region of the vehicle traveling direction actually corresponds to the road plane. As the flow parameter changes with time according to the change in the angular velocity, it becomes impossible to determine that the middle region in the vehicle traveling direction corresponds to the road plane. Therefore, when the vehicle is in a traveling state in which the angular velocity changes ω1, ω2, and ω3 are generated, a flow parameter that does not include the angular velocity change in Equation (2) is selected, and the temporal change of the selected flow parameter and the threshold value T U. Compare TF .
実際の処理では、画像処理装置20は、フローパラメータA,B,C,Dを選択して、フローパラメータA,B,C,Dの経時変化を閾値TA,TB,TC,TDと比較することが好ましい。ここで、フローパラメータA,Dは、数式(2)にヨーレートω1,ピッチレートω2,ロールレートω3を含まない。また、フローパラメータB,Cは、数式(2)にヨーレートω1,ピッチレートω2を含まない。よって、ヨーレートω1やピッチレートω2が発生する走行状態であっても、フローパラメータA,B,C,Dの経時変化は閾値TA,TB,TC,TDより小さくなるため、車両進行方向の中領域が道路平面に対応することを判別できる。なお、フローパラメータB,Cは、数式(2)にロールレートω3を含むものの、車両に生じるロールレートの値は小さいため、フローパラメータB,Cの経時変化は小さい。
In actual processing, the
ステップ703において、画像処理装置20は、車両進行方向の中領域のフローパラメータ{Ux,y,Vx,y,Ax,y,Bx,y,Cx,y,Dx,y,Ex,y,Fx,y}を、標準的な道路平面のフローパラメータ{Uav,Vav,Aav,Bav,Cav,Dav,Eav,Fav}と比較して、両フローパラメータが類似する中領域を判別する(S703)。ここで、標準的な道路平面のフローパラメータとは、図3に示されるように標準的な位置及び向きでカメラ10が配置された場合に発生する道路平面のフローパラメータであり、計算又は実測により予め求められる値である。具体的には、画像処理装置20は、次の数式(4.1)又は数式(4.2)を用いて両フローパラメータの差分ΔFPavを求め、この差分ΔFPavが予め設定された閾値THよりも小さい中領域を判別する。
In step 703, the
ステップ703において、両フローパラメータの差分FPavが予め設定された閾値THより小さい場合には、車両進行方向の中領域のフローパラメータは道路平面として妥当な値である。よって、画像処理装置20は、車両進行方向の当該中領域のフローパラメータを、道路平面のフローパラメータとして設定する(S704)。
In step 703, if the difference FP av between both flow parameters is smaller than a preset threshold value TH, the flow parameter in the middle region of the vehicle traveling direction is a reasonable value for the road plane. Therefore, the
次に、図8を参照して、道路平面のフローパラメータを設定する処理の変形例について説明する。図8には、道路平面のフローパラメータを設定する処理のフローチャートが示されている。図8に示されるフローチャートは、図5のステップ504に対応している。 Next, with reference to FIG. 8, a modified example of the process for setting the flow parameter of the road plane will be described. FIG. 8 shows a flowchart of the process for setting the flow parameter of the road plane. The flowchart shown in FIG. 8 corresponds to step 504 in FIG.
先ず、画像処理装置20は、ステップ503で算出されたフローパラメータであって、所定時間前(例えば3秒前)の時刻Tn−kに撮像された画像の各中領域のフローパラメータ{Un−k,Vn−k,An−k,Bn−k,Cn−k,Dn−k,En−k,Fn−k}を取得する(S801)。次に、画像処理装置20は、同じくステップ503で算出されたフローパラメータであって、現在時刻Tnに撮像された画像の各中領域のフローパラメータ{Un,Vn,An,Bn,Cn,Dn,En,Fn}を取得する(S802)。
First, the
そして、画像処理装置20は、画像の各中領域について、現在時刻Tnのフローパラメータ{Un,Vn,An,Bn,Cn,Dn,En,Fn}を、所定時間前の時刻Tn−kのフローパラメータ{Un−k,Vn−k,An−k,Bn−k,Cn−k,Dn−k,En−k,Fn−k}と比較して、両フローパラメータが類似する中領域を判別する(S803)。具体的には、画像処理装置20は、次の数式(5.1)又は数式(5.2)を用いて両フローパラメータの差分ΔFPnを求め、この差分ΔFPnが予め設定された閾値THよりも小さい中領域を判別する。
Then, the
建築物や他車両などに対応する中領域のフローパラメータは著しく変化する。一方、道路平面に対応する中領域のフローパラメータはほとんど変化しない。よって、ステップ703において、両フローパラメータの差分FPnが予め設定された閾値THより小さい場合には、このようにフローパラメータの変化が小さい中領域は道路平面である可能性が高い。よって、画像処理装置20は、差分FPnが閾値THより小さい中領域のフローパラメータを、道路平面のフローパラメータとして設定する(S804)。
The flow parameters in the middle area corresponding to buildings and other vehicles change significantly. On the other hand, the flow parameter in the middle region corresponding to the road plane hardly changes. Therefore, when the difference FP n between the flow parameters is smaller than the preset threshold value TH in step 703, it is highly possible that the middle region where the change in the flow parameters is small is a road plane. Therefore, the
図18には、所定時間前の時刻Tn−kの画像が示されており、図19には、現在時刻Tnの画像が示されている。図18および図19において太線で囲われる中領域は、両時刻Tn−k,Tnにおいて道路平面に対応している。このように両時刻Tn−k,Tnにおいて道路平面を撮像した中領域のフローパラメータが、道路平面のフローパラメータとして設定される。なお、図18および図19に示されるように、両時刻Tn−k,Tnにおいて道路平面を撮像した中領域が複数ある場合には、これらの中領域のフローパラメータを平均した値を、道路平面のフローパラメータとして設定すればよい。 FIG. 18 shows an image at time T n−k before a predetermined time, and FIG. 19 shows an image at current time T n . In FIG. 18 and FIG. 19, the middle region surrounded by the thick line corresponds to the road plane at both times T n−k and T n . In this way, the flow parameter of the middle region obtained by imaging the road plane at both times T n−k and T n is set as the flow parameter of the road plane. As shown in FIGS. 18 and 19, when there are a plurality of middle areas obtained by imaging the road plane at both times T n−k and T n , the average value of the flow parameters of these middle areas is expressed as What is necessary is just to set as a flow parameter of a road plane.
なお、図7又は図8の処理により設定された道路平面のフローパラメータは、その後の処理において繰り返し利用することができる。即ち、画像処理装置は、画像の各中領域ごとにフローパラメータを算出すると、各中領域について算出されたフローパラメータが、過去に算出された道路平面のフローパラメータと類似する領域を、道路平面を構成する領域であると識別することが好ましい。この構成によれば、画像処理装置は、道路平面のフローパラメータが既に算出されているため、道路平面を構成する領域を簡易な処理で識別することができる。 The road plane flow parameters set by the processing of FIG. 7 or FIG. 8 can be used repeatedly in the subsequent processing. That is, when the image processing apparatus calculates the flow parameter for each middle region of the image, the flow parameter calculated for each middle region is compared with the flow parameter of the road plane calculated in the past. It is preferable to identify the region to be configured. According to this configuration, since the flow parameter of the road plane has already been calculated, the image processing apparatus can identify the area constituting the road plane with a simple process.
10…カメラ、20…画像処理装置、30…車両センサ、40…表示制御装置、50…車両動作制御装置。
DESCRIPTION OF
Claims (9)
前記オプティカルフロー算出手段により算出された少なくとも4つのオプティカルフローが同一平面上のオプティカルフローであると仮定して、画像の各領域ごとのフローパラメータを算出するフローパラメータ算出手段と、
前記フローパラメータ算出手段により算出されたフローパラメータが、道路平面のフローパラメータと類似する領域を、道路平面を構成する領域であると識別する領域識別手段と、
を備えることを特徴とする画像処理装置。 An optical flow calculation means for processing a plurality of image data captured at different times and calculating an optical flow for each area of the image;
Assuming that at least four optical flows calculated by the optical flow calculating means are optical flows on the same plane, a flow parameter calculating means for calculating a flow parameter for each region of the image;
An area identifying means for identifying an area where the flow parameter calculated by the flow parameter calculating means is similar to the flow parameter of the road plane as an area constituting the road plane;
An image processing apparatus comprising:
算出された少なくとも4つのオプティカルフローが同一平面上のオプティカルフローであると仮定して、画像の各領域ごとのフローパラメータを算出するフローパラメータ算出ステップと、
算出されたフローパラメータが、道路平面のフローパラメータと類似する領域を、道路平面を構成する領域であると識別する領域識別ステップと、
を含む画像処理方法。
An optical flow calculation step of processing a plurality of image data captured at different times and calculating an optical flow for each region of the image;
Assuming that the calculated at least four optical flows are optical flows on the same plane, a flow parameter calculating step for calculating a flow parameter for each region of the image;
An area identifying step for identifying an area in which the calculated flow parameter is similar to the flow parameter of the road plane as an area constituting the road plane;
An image processing method including:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006170239A JP2008003696A (en) | 2006-06-20 | 2006-06-20 | Image processing apparatus and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006170239A JP2008003696A (en) | 2006-06-20 | 2006-06-20 | Image processing apparatus and image processing method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008003696A true JP2008003696A (en) | 2008-01-10 |
Family
ID=39008042
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006170239A Pending JP2008003696A (en) | 2006-06-20 | 2006-06-20 | Image processing apparatus and image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2008003696A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010244323A (en) * | 2009-04-07 | 2010-10-28 | Toyota Central R&D Labs Inc | Road region estimating device and program |
JP2011521320A (en) * | 2008-04-15 | 2011-07-21 | オートリブ エー・エス・ピー・インク | Enhanced vision road detection system |
JP2013186660A (en) * | 2012-03-07 | 2013-09-19 | Alpine Electronics Inc | Lane mark detection device and lane mark search range setting method |
WO2016151978A1 (en) * | 2015-03-26 | 2016-09-29 | パナソニックIpマネジメント株式会社 | Image processing device, driving assistance system, and image processing method |
WO2019092913A1 (en) * | 2017-11-08 | 2019-05-16 | クラリオン株式会社 | Road surface area detection device |
-
2006
- 2006-06-20 JP JP2006170239A patent/JP2008003696A/en active Pending
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011521320A (en) * | 2008-04-15 | 2011-07-21 | オートリブ エー・エス・ピー・インク | Enhanced vision road detection system |
JP2010244323A (en) * | 2009-04-07 | 2010-10-28 | Toyota Central R&D Labs Inc | Road region estimating device and program |
JP2013186660A (en) * | 2012-03-07 | 2013-09-19 | Alpine Electronics Inc | Lane mark detection device and lane mark search range setting method |
WO2016151978A1 (en) * | 2015-03-26 | 2016-09-29 | パナソニックIpマネジメント株式会社 | Image processing device, driving assistance system, and image processing method |
WO2019092913A1 (en) * | 2017-11-08 | 2019-05-16 | クラリオン株式会社 | Road surface area detection device |
JP2019087070A (en) * | 2017-11-08 | 2019-06-06 | クラリオン株式会社 | Road surface region detecting apparatus |
US11403770B2 (en) | 2017-11-08 | 2022-08-02 | Clarion Co., Ltd. | Road surface area detection device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4899424B2 (en) | Object detection device | |
JP3719095B2 (en) | Behavior detection apparatus and gradient detection method | |
JP2020064046A (en) | Vehicle position determining method and vehicle position determining device | |
EP2757527B1 (en) | System and method for distorted camera image correction | |
US10187630B2 (en) | Egomotion estimation system and method | |
JP2008168811A (en) | Traffic lane recognition device, vehicle, traffic lane recognition method, and traffic lane recognition program | |
JP2006234492A (en) | Object recognition device | |
JP6003673B2 (en) | 3D position estimation apparatus, vehicle control apparatus, and 3D position estimation method | |
JP6552448B2 (en) | Vehicle position detection device, vehicle position detection method, and computer program for vehicle position detection | |
JP5098563B2 (en) | Object detection device | |
KR20060021922A (en) | Two camera based obstacle detection method and device | |
JP2008003696A (en) | Image processing apparatus and image processing method | |
JP5107154B2 (en) | Motion estimation device | |
JP2000293693A (en) | Obstacle detecting method and device | |
KR20180047149A (en) | Apparatus and method for risk alarming of collision | |
JP2005156199A (en) | Vehicle detection method and vehicle detector | |
JP2015064735A (en) | Apparatus and method for estimating vehicle position | |
JP2007087203A (en) | Collision determination system, collision determination method, and computer program | |
KR102003387B1 (en) | Method for detecting and locating traffic participants using bird's-eye view image, computer-readerble recording medium storing traffic participants detecting and locating program | |
JP6488226B2 (en) | Runway parameter estimation apparatus and program | |
JP2010071942A (en) | Object detecting device | |
JP6841553B2 (en) | Imaging device | |
JP2012256159A (en) | Approaching object detecting device and method for detecting approaching object | |
JP6677141B2 (en) | Parking frame recognition device | |
JP6668740B2 (en) | Road surface estimation device |