JP2008003696A - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method Download PDF

Info

Publication number
JP2008003696A
JP2008003696A JP2006170239A JP2006170239A JP2008003696A JP 2008003696 A JP2008003696 A JP 2008003696A JP 2006170239 A JP2006170239 A JP 2006170239A JP 2006170239 A JP2006170239 A JP 2006170239A JP 2008003696 A JP2008003696 A JP 2008003696A
Authority
JP
Japan
Prior art keywords
flow
image
area
image processing
flow parameter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006170239A
Other languages
Japanese (ja)
Inventor
Toshihiko Suzuki
敏彦 鈴木
Makoto Honda
真 本多
Hiroshi Igata
弘 井形
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Toyota InfoTechnology Center Co Ltd
Original Assignee
Toyota Motor Corp
Toyota InfoTechnology Center Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp, Toyota InfoTechnology Center Co Ltd filed Critical Toyota Motor Corp
Priority to JP2006170239A priority Critical patent/JP2008003696A/en
Publication of JP2008003696A publication Critical patent/JP2008003696A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing apparatus which is capable of performing discrimination processing of a road plane with less computational complexity. <P>SOLUTION: An image processing apparatus 20 includes: an optical flow calculation means 22 which processes a plurality of pieces of image data picked up at different times to calculate optical flows of respective areas of an image; a flow parameter calculation means 24 which calculates flow parameters of respective areas of the image on the assumption that at least four optical flows calculated by the optical flow calculation means are on one plane; and an area discrimination means 26 which discriminates an area of which the flow parameters calculated by the flow parameter calculation means are similar to flow parameters of a road plane, as an area constituting the road plane. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、カメラが移動しながら撮像した画像を用いて、画像上の撮像された物体を識別する画像処理装置及び画像処理方法に関する。   The present invention relates to an image processing apparatus and an image processing method for identifying a captured object on an image using an image captured while a camera moves.

特許文献1には、車両に前方を監視する1台のカメラを搭載して、このカメラにより撮像された画像を処理して周辺の車両や障害物などを識別する装置が提案されている。より詳しく説明すると、この特許文献1に係る装置は、カメラが移動しながら路面を撮像し、第1の画像の路面上の特徴点と、第2の画像の路面上の特徴点とを重ね合わせるための変換行列を算出する。そして、当該装置は、画像の複数の特徴点にこの変換行列を適用し、重ね合わせに失敗した特徴点を立体物の特徴点として識別する。
特開2003−44996号公報
Japanese Patent Application Laid-Open No. 2004-133620 proposes a device that mounts a single camera for monitoring the front of a vehicle and processes images captured by the camera to identify surrounding vehicles and obstacles. More specifically, the apparatus according to Patent Document 1 captures the road surface while the camera moves, and superimposes the feature points on the road surface of the first image and the feature points on the road surface of the second image. To calculate a transformation matrix. Then, the apparatus applies this transformation matrix to a plurality of feature points of the image, and identifies feature points that have failed to be superimposed as feature points of a three-dimensional object.
JP 2003-44996 A

上述した従来技術に係る装置では、路面上の特徴点を重ね合わせるための変換行列を算出して画像にこの変換行列を適用する必要がある。しかしながら、この処理のための計算量は膨大であるため、障害物の識別処理の計算周期および精度は装置の計算能力により制限されてしまう。即ち、障害物の識別結果を高解像度・高精度で得たい場合には、障害物の識別処理の計算周期を遅くする必要がある。一方、障害物を識別結果を高い計算周期で得たい場合には、障害物の識別結果の解像度・精度が低下してしまう。   In the above-described device according to the related art, it is necessary to calculate a transformation matrix for superimposing feature points on the road surface and apply this transformation matrix to an image. However, since the amount of calculation for this process is enormous, the calculation cycle and accuracy of the obstacle identification process are limited by the calculation capability of the apparatus. That is, when it is desired to obtain the obstacle identification result with high resolution and high accuracy, it is necessary to delay the calculation period of the obstacle identification processing. On the other hand, when it is desired to obtain an obstacle identification result with a high calculation cycle, the resolution and accuracy of the obstacle identification result is lowered.

本発明は、このような問題を解決するためになされたものであり、画像上の撮像された物体の識別処理を少ない計算量で行うことが可能な画像処理装置及び画像処理方法を提供することを目的とする。   The present invention has been made to solve such a problem, and provides an image processing apparatus and an image processing method capable of identifying a captured object on an image with a small amount of calculation. With the goal.

上述した目的を達成するために、本発明に係る画像処理装置は、異なる時刻に撮像された複数の画像データを処理して、画像の各領域ごとのオプティカルフローを算出するオプティカルフロー算出手段と、オプティカルフロー算出手段により算出された少なくとも4つのオプティカルフローが同一平面上のオプティカルフローであると仮定して、画像の各領域ごとのフローパラメータを算出するフローパラメータ算出手段と、フローパラメータ算出手段により算出されたフローパラメータが、道路平面のフローパラメータと類似する領域を、道路平面を構成する領域であると識別する領域識別手段と、を備えることを特徴とする。この構成によれば、画像処理装置は、比較的に簡易な処理でフローパラメータを算出し、このフローパラメータを用いて画像の道路平面を構成する領域を識別するため、画像の各領域を識別するための処理を簡易なものとして、計算量を少なくすることができる。これにより、画像の各領域の識別処理における画像の解像度を向上したり、画像の各領域の識別処理を実行する周期を短くすることができる。   In order to achieve the above-described object, an image processing apparatus according to the present invention processes a plurality of image data captured at different times, and calculates an optical flow for each region of the image; Assuming that at least four optical flows calculated by the optical flow calculating means are optical flows on the same plane, the flow parameter calculating means for calculating the flow parameters for each region of the image, and the flow parameter calculating means And a region identifying means for identifying a region similar to the flow parameter of the road plane as a region constituting the road plane. According to this configuration, the image processing apparatus calculates the flow parameter by a relatively simple process, and identifies each region of the image in order to identify the region constituting the road plane of the image using the flow parameter. Therefore, the amount of calculation can be reduced by simplifying the process. Thereby, the resolution of the image in the identification process of each area | region of an image can be improved, or the period which performs the identification process of each area | region of an image can be shortened.

上述した画像処理装置において、オプティカルフロー算出手段は、道路平面上の特徴的な画像部分について基準オプティカルフローを算出し、基準オプティカルフローに基づいて画像の各領域ごとに探索範囲を設定し、探索範囲内を探索することで画像の各領域ごとのオプティカルフローを算出することが好ましい。この構成によれば、画像処理装置は、道路平面上の特徴的な領域について算出されたオプティカルフローに基づいて画像の一部に探索範囲の設定するため、探索範囲を適切な位置に設定することができ、オプティカルフローの精度を向上することができる。特に、基準オプティカルフローの大きさに基づいて前記探索範囲が設定される位置や面積を決定することにより、探索範囲を適切に設定することができ、オプティカルフローの精度を向上することができる。   In the above-described image processing apparatus, the optical flow calculation means calculates a reference optical flow for a characteristic image portion on the road plane, sets a search range for each area of the image based on the reference optical flow, It is preferable to calculate the optical flow for each area of the image by searching inside. According to this configuration, the image processing apparatus sets the search range to an appropriate position in order to set the search range in a part of the image based on the optical flow calculated for the characteristic region on the road plane. And the accuracy of the optical flow can be improved. In particular, by determining the position and area where the search range is set based on the size of the reference optical flow, the search range can be set appropriately, and the accuracy of the optical flow can be improved.

上述した画像処理装置において、オプティカルフロー算出手段は、画像において自車両の進行方向の領域を道路平面の領域とし、この領域に含まれる特徴的な画像部分について基準オプティカルフローを算出することが好ましい。この構成によれば、通常の走行状態では自車両の進行方向は道路平面であるため、画像において自車両の進行方向の領域を道路平面の領域とし、この領域に含まれる特徴的な画像部分について基準オプティカルフローを算出する。よって、基準オプティカルフローを適切に設定することができる。   In the above-described image processing apparatus, it is preferable that the optical flow calculation unit calculates a reference optical flow for a characteristic image portion included in an area in the image in which the traveling direction of the host vehicle is a road plane area. According to this configuration, since the traveling direction of the host vehicle is a road plane in a normal traveling state, the region in the traveling direction of the host vehicle is set as a road plane region in the image, and a characteristic image portion included in this region is determined. A reference optical flow is calculated. Accordingly, the reference optical flow can be set appropriately.

上述した画像処理装置において、領域識別手段は、フローパラメータ算出手段により算出されたフローパラメータが、過去に算出された道路平面のフローパラメータと類似する領域を、道路平面を構成する領域であると識別することが好ましい。この構成によれば、画像処理装置は、過去に算出された道路平面のフローパラメータを利用して道路平面を構成する領域を識別するため、道路平面を構成する領域を簡易な処理で識別することができる。   In the above-described image processing apparatus, the region identifying unit identifies a region in which the flow parameter calculated by the flow parameter calculating unit is similar to the flow parameter of the road plane calculated in the past as a region constituting the road plane. It is preferable to do. According to this configuration, since the image processing apparatus identifies the area constituting the road plane using the flow parameters of the road plane calculated in the past, the area constituting the road plane can be identified by simple processing. Can do.

上述した画像処理装置において、領域識別手段は、自車両の進行方向の領域のフローパラメータの経時変化が予め設定された閾値より小さい場合に、当該領域のフローパラメータを道路平面のフローパラメータとして設定することが好ましい。この構成によれば、画像処理装置は、自車両の進行方向の領域のフローパラメータの経時変化が小さい場合に、その領域のフローパラメータを道路平面のフローパラメータとして設定するため、より確実に道路平面である領域のフローパラメータを利用して画像内の道路平面を識別することができる。   In the above-described image processing device, the area identification unit sets the flow parameter of the area as the flow parameter of the road plane when the temporal change of the flow parameter of the area in the traveling direction of the host vehicle is smaller than a preset threshold value. It is preferable. According to this configuration, the image processing apparatus sets the flow parameter of the area as the flow parameter of the road plane when the change over time of the flow parameter of the area in the traveling direction of the host vehicle is small. The road plane in the image can be identified using the flow parameter of the area.

上述した画像処理装置において、領域識別手段は、自車両の進行方向の領域のフローパラメータが標準的な道路平面のフローパラメータと類似する場合に、当該領域のフローパラメータを道路平面のフローパラメータとして設定することが好ましい。この構成によれば、画像処理装置は、自車両の進行方向の領域のフローパラメータが標準的な道路平面のフローパラメータと類似する場合に、当該領域のフローパラメータを道路平面のフローパラメータとして設定するため、より確実に道路平面である領域のフローパラメータを利用して画像内の道路平面を識別することができる。   In the image processing apparatus described above, the area identification unit sets the flow parameter of the area as the flow parameter of the road plane when the flow parameter of the area in the traveling direction of the host vehicle is similar to the flow parameter of the standard road plane. It is preferable to do. According to this configuration, when the flow parameter of the area in the traveling direction of the host vehicle is similar to the flow parameter of the standard road plane, the image processing device sets the flow parameter of the area as the flow parameter of the road plane. Therefore, the road plane in the image can be identified more reliably using the flow parameter of the area that is the road plane.

また、上述した目的を達成するために、本発明に係る画像処理方法は、異なる時刻に撮像された複数の画像データを処理して、画像の各領域ごとのオプティカルフローを算出するオプティカルフロー算出ステップと、算出された少なくとも4つのオプティカルフローが同一平面上のオプティカルフローであると仮定して、画像の各領域ごとのフローパラメータを算出するフローパラメータ算出ステップと、算出されたフローパラメータが、道路平面のフローパラメータと類似する領域を、道路平面を構成する領域であると識別する領域識別ステップと、を含む。   In order to achieve the above-described object, an image processing method according to the present invention is a method for calculating an optical flow for each region of an image by processing a plurality of image data captured at different times. Assuming that the calculated at least four optical flows are optical flows on the same plane, a flow parameter calculating step for calculating a flow parameter for each area of the image, and the calculated flow parameter is a road plane And an area identifying step for identifying an area similar to the flow parameter as an area constituting a road plane.

本発明の画像処理装置及び画像処理方法によれば、画像上の撮像された物体の識別処理を少ない計算量で行うことができる。 According to the image processing apparatus and the image processing method of the present invention, identification processing of an imaged object on an image can be performed with a small amount of calculation.

以下、図面を参照して、本発明の画像処理装置の好適な実施形態について説明する。本実施形態において、画像処理装置は車両に搭載されている。   Hereinafter, preferred embodiments of an image processing apparatus of the present invention will be described with reference to the drawings. In the present embodiment, the image processing apparatus is mounted on a vehicle.

図1に示すように、画像処理装置20には、撮像手段としてカメラ10が接続されている。カメラ10は、例えば、CCD[Charge Coupled Device]カメラ10であり、画像処理装置20を搭載する自動車の前方かつ中央に取り付けられる。カメラ10は、所定時間が経過する度に、自動車の前方を撮像して、複数の画素データからなる画像データを生成する。カメラ10は、生成された画像データを、画像処理装置20に逐次出力する。   As shown in FIG. 1, a camera 10 is connected to the image processing apparatus 20 as an imaging unit. The camera 10 is, for example, a CCD [Charge Coupled Device] camera 10 and is attached to the front and center of an automobile on which the image processing device 20 is mounted. The camera 10 captures an image of the front of the automobile every time a predetermined time elapses and generates image data composed of a plurality of pixel data. The camera 10 sequentially outputs the generated image data to the image processing device 20.

画像処理装置20は、カメラ10から画像データを取り込むと、画像データを処理して画像上の物体を識別する処理を行う。特に、画像処理装置20は、画像上の被撮像物が道路平面であるか否かを識別する。画像処理装置20は、物理的には、CPU、ROM、RAM等で構成されている。また、画像処理装置20は、機能的には、オプティカルフロー算出手段22と、フローパラメータ算出手段24と、領域識別手段26とを備えている。これらの機能は、CPUおよびRAMが、ROMに記憶されたプログラムを実行することにより実現される。   When the image processing apparatus 20 captures image data from the camera 10, the image processing apparatus 20 processes the image data to identify an object on the image. In particular, the image processing device 20 identifies whether the object to be imaged on the image is a road plane. The image processing apparatus 20 is physically configured with a CPU, a ROM, a RAM, and the like. Functionally, the image processing apparatus 20 includes an optical flow calculation unit 22, a flow parameter calculation unit 24, and a region identification unit 26. These functions are realized by the CPU and RAM executing programs stored in the ROM.

オプティカルフロー算出手段22は、画像データをテンプレートマッチング法により処理することで、オプティカルフローベクトルを算出する。フローパラメータ算出手段24は、算出されたオプティカルフローベクトルに基づいて、一般的にフローパラメータと呼ばれる8つのパラメータを算出する。領域識別手段26は、算出されたフローパラメータに基づいて、画像上の被撮像物が道路平面であるか否かを識別する。   The optical flow calculation unit 22 calculates the optical flow vector by processing the image data by the template matching method. The flow parameter calculation unit 24 calculates eight parameters generally called flow parameters based on the calculated optical flow vector. The area identifying unit 26 identifies whether the object to be imaged on the image is a road plane based on the calculated flow parameter.

上述した画像上の物体を識別する処理を可能とするために、画像処理装置20には車両センサ30が接続されている。車両センサ30は、車両の挙動を検出するものであればよく、例えば、車速センサ、ハンドル角センサ、ヨーレートセンサ、ピッチセンサ、ロールセンサ、前後方向加速度センサ、横方向加速度センサ、上下方向加速度センサなどを含んで構成すればよい。これらのセンサによる検出値は、画像処理装置20により取り込まれ、画像上の被撮像物を識別する処理に利用される。   A vehicle sensor 30 is connected to the image processing device 20 to enable the above-described processing for identifying an object on the image. The vehicle sensor 30 only needs to detect the behavior of the vehicle. For example, a vehicle speed sensor, a handle angle sensor, a yaw rate sensor, a pitch sensor, a roll sensor, a longitudinal acceleration sensor, a lateral acceleration sensor, a vertical acceleration sensor, etc. May be included. The detection values obtained by these sensors are captured by the image processing apparatus 20 and used for processing for identifying an object to be imaged on the image.

画像処理装置20による物体識別処理の結果は、車室内に設けられたモニターの表示制御や車両の動作制御などに利用される。例えば、画像処理装置20による物体識別処理の結果が表示制御装置40に入力されると、表示制御装置40は、画像上の各領域の識別結果をモニターに表示したり、運転者への警告をモニターに表示する。また、画像処理装置20による物体識別処理の結果が車両制御装置50に入力されると、車両制御装置50は、車両前方の物体との衝突を回避するように、エンジン、ブレーキ、変速機、ステアリングなどを制御する。   The result of the object identification processing by the image processing device 20 is used for display control of a monitor provided in the vehicle interior, vehicle operation control, and the like. For example, when the result of the object identification processing by the image processing device 20 is input to the display control device 40, the display control device 40 displays the identification result of each region on the image on the monitor or gives a warning to the driver. Display on the monitor. When the result of the object identification processing by the image processing device 20 is input to the vehicle control device 50, the vehicle control device 50 causes the engine, brake, transmission, steering to avoid collision with an object in front of the vehicle. Control etc.

[物体識別の原理]
次に、画像処理装置20が画像上の物体を識別する原理について説明する。
[Principle of object identification]
Next, the principle by which the image processing apparatus 20 identifies an object on the image will be described.

先ず、図2を参照して、3つの座標系、即ち、画像座標系、カメラ座標系および車両座標系について説明する。画像座標系は、カメラ10の画像面に設定された2次元座標系であり、画像の中心を原点とし、画像の縦方向をx軸とし、画像の横方向をy軸としている。カメラ座標系は、カメラ10を中心に設定された3次元座標系であり、カメラ10の位置を原点とし、カメラ10の上下方向をXc軸とし、カメラ10の左右方向をYc軸とし、カメラ10の光軸方向をZc軸としている。車両座標系は、カメラ座標系を回転したものであり、車両の上下方向をXv軸とし、車両の左右方向をYv軸とし、車両の進行方向をZv軸としている。車両に対するカメラ10の姿勢が、図3に示されている。図3から理解できるように、カメラ座標系のZc軸と車両座標系のZv軸とがなす角度はθであり、カメラ座標系のYc軸と車両座標系のYz軸とがなす角度はφである。説明の便宜のため角度θ,φを大きく示しているが、実際にはカメラ座標系と車両座標系とはほぼ一致しており角度θ,φは微小である。なお、上述した画像座標系、カメラ座標系および車両座標系は、車両の移動に伴ってカメラ10と共に移動する。   First, with reference to FIG. 2, three coordinate systems, that is, an image coordinate system, a camera coordinate system, and a vehicle coordinate system will be described. The image coordinate system is a two-dimensional coordinate system set on the image plane of the camera 10, and the center of the image is the origin, the vertical direction of the image is the x axis, and the horizontal direction of the image is the y axis. The camera coordinate system is a three-dimensional coordinate system set with the camera 10 as the center, the position of the camera 10 is the origin, the vertical direction of the camera 10 is the Xc axis, and the horizontal direction of the camera 10 is the Yc axis. The optical axis direction is taken as the Zc axis. The vehicle coordinate system is a rotation of the camera coordinate system. The vertical direction of the vehicle is the Xv axis, the horizontal direction of the vehicle is the Yv axis, and the traveling direction of the vehicle is the Zv axis. The posture of the camera 10 with respect to the vehicle is shown in FIG. As can be understood from FIG. 3, the angle formed by the Zc axis of the camera coordinate system and the Zv axis of the vehicle coordinate system is θ, and the angle formed by the Yc axis of the camera coordinate system and the Yz axis of the vehicle coordinate system is φ. is there. For convenience of explanation, the angles θ and φ are shown to be large. However, in reality, the camera coordinate system and the vehicle coordinate system almost coincide with each other, and the angles θ and φ are very small. The image coordinate system, the camera coordinate system, and the vehicle coordinate system described above move together with the camera 10 as the vehicle moves.

次に、図4を参照して、オプティカルフローを生じさせるカメラ10の運動について説明する。車両が車両座標系のXv軸方向、Yv軸方向、Zv軸方向にそれぞれa,b,cの速度で並進運動し、Xv軸周り、Yv軸周り、Zv軸周りにそれぞれω1,ω2,ω3の角速度で回転運動する場合には、車両座標系を基準とするカメラ10の運動パラメータは{a,b,c,ω1,ω2,ω3}である。車両座標系を基準とするカメラ10の運動パラメータを、車両座標系からカメラ座標系に座標変換すると、カメラ座標系を基準とするカメラ10の運動パラメータ{a,b,c,ω1,ω2,ω3}となる。 Next, with reference to FIG. 4, the movement of the camera 10 causing the optical flow will be described. The vehicle translates at the speeds of a, b, and c in the Xv axis direction, Yv axis direction, and Zv axis direction of the vehicle coordinate system, respectively, and ω1, ω2, and ω3 around the Xv axis, the Yv axis, and the Zv axis, respectively. When rotating at an angular velocity, the motion parameters of the camera 10 with respect to the vehicle coordinate system are {a, b, c, ω1, ω2, ω3}. When the motion parameters of the camera 10 based on the vehicle coordinate system are coordinate-converted from the vehicle coordinate system to the camera coordinate system, the motion parameters {a c , b c , c c , ω1 c of the camera 10 based on the camera coordinate system are used. , Ω2 c , ω3 c }.

カメラ10が上記の運動パラメータ{a,b,c,ω1,ω2,ω3}で運動する場合に、画像上の位置(x,y)で、Zc=p・Xc+q・Yc+rで表される平面が撮像されると、次の数式(1)で表されるオプティカルフロー(u,v)が引き起こされる。なお、uはオプティカルフローベクトルのx方向成分であり、vはオプティカルフローベクトルのy方向成分である。 The camera 10 is the above motion parameters {a c, b c, c c, ω1 c, ω2 c, ω3 c} When movement, at a location on the image (x, y), Zc = p · Xc + q · Yc + r When the plane represented by is picked up, an optical flow (u, v) represented by the following equation (1) is caused. Note that u is an x-direction component of the optical flow vector, and v is a y-direction component of the optical flow vector.

Figure 2008003696
Figure 2008003696

なお、上の数式(1)において、fはカメラ10の焦点距離である。また、p,qおよびrは、平面を規定するための平面パラメータである。また、8つのパラメータU,V,A,B,C,D,E及びFは、一般にフローパラメータと呼ばれる数値であり、次の数式(2)で定義されている。なお、数式(1)および(2)については、「画像理解‐3次元認識の数理」(金谷健一著)に詳述されている。   In the above formula (1), f is the focal length of the camera 10. P, q, and r are plane parameters for defining the plane. The eight parameters U, V, A, B, C, D, E, and F are numerical values generally called flow parameters, and are defined by the following formula (2). The mathematical formulas (1) and (2) are described in detail in “Image Understanding—Mathematics of 3D Recognition” (by Kenichi Kanaya).

Figure 2008003696
Figure 2008003696

上述したように、オプティカルフローは、数式(1)および(2)により表されるものであるが、実際には連続撮像して得られる一連の画像を処理して算出される。即ち、あるタイミングの画像を多数の領域に分割してから、テンプレートマッチング法によりそれらの各領域と一致する領域を次のタイミングの画像から探索することにより、オプティカルフローは算出される。   As described above, the optical flow is expressed by the mathematical formulas (1) and (2), but is actually calculated by processing a series of images obtained by continuous imaging. That is, an optical flow is calculated by dividing an image at a certain timing into a large number of regions and then searching for regions that match those regions from the image at the next timing by the template matching method.

さらに、このように算出されたオプティカルフローから、フローパラメータ{U,V,A,B,C,D,E,F}を算出することができる。即ち、画像上の一部の領域を平面であると見做せば、その領域ではフローパラメータは同一であるため、その領域の4つ以上のオプティカルフローの情報(x,y,u,v)からフローパラメータを算出することができる。例えば、画像上の一部の領域の4つのオプティカルフロー情報(x,y,u,v)、(x,y,u,v)、(x,y,u,v)、(x,y,u,v)と、カメラ10の焦点距離fを上の数式(1)に代入すると、フローパラメータ{U,V,A,B,C,D,E,F}を未知数として含む数式が合計8つ得られる。よって、これらの8つの数式を周知の手法で処理することにより、フローパラメータの数値を求めることができる。フローパラメータの算出のために、5つ以上のオプティカルフロー情報を用いる場合には、最小自乗法などの近似法を用いればよい。なお、以下の説明では、画像上の位置(x,y)について算出されたフローパラメータを{Ux,y,Vx,y,Ax,y,Bx,y,Cx,y,Dx,y,Ex,y,Fx,y}と表す。 Furthermore, the flow parameters {U, V, A, B, C, D, E, F} can be calculated from the optical flow calculated in this way. That is, if a part of the area on the image is considered to be a plane, the flow parameters are the same in that area, so information on four or more optical flows in that area (x, y, u, v) From this, the flow parameter can be calculated. For example, four pieces of optical flow information (x 1 , y 1 , u 1 , v 1 ), (x 2 , y 2 , u 2 , v 2 ), (x 3 , y 3 , When u 3 , v 3 ), (x 4 , y 4 , u 4 , v 4 ) and the focal length f of the camera 10 are substituted into the above equation (1), flow parameters {U, V, A, B, A total of eight mathematical expressions including C, D, E, F} as unknowns are obtained. Therefore, the numerical values of the flow parameters can be obtained by processing these eight mathematical expressions by a known method. When five or more pieces of optical flow information are used for calculating the flow parameter, an approximation method such as a least square method may be used. In the following description, the flow parameters calculated for the position (x, y) on the image are represented by {U x, y , V x, y , A x, y , B x, y , C x, y , D x, y , Ex, y , Fx, y }.

上記の数式(2)から理解できるように、フローパラメータ{U,V,A,B,C,D,E,F}は、カメラ10の運動パラメータ{a,b,c,ω1,ω2,ω3}および平面パラメータ{p,q,r}によって一義的に定義される。よって、カメラ10の運動パラメータ{a,b,c,ω1,ω2,ω3}が一定値である場合には、フローパラメータ{U,V,A,B,C,D,E,F}は、撮像された物体表面の平面パラメータ{p,q,r}と等価な数値として用いることができる。本実施形態における物体識別の原理ではこのようなフローパラメータの特性が利用されており、画像上の各領域について算出されたフローパラメータに基づいて画像上の各領域の平面が識別されている。 As can be understood from the above formula (2), the flow parameters {U, V, A, B, C, D, E, F} are the motion parameters {a c , b c , c c , ω 1 c of the camera 10. , Ω2 c , ω3 c } and the plane parameters {p, q, r}. Therefore, the motion parameters of the camera 10 {a c, b c, c c, ω1 c, ω2 c, ω3 c} When is a constant value, the flow parameters {U, V, A, B , C, D, E, F} can be used as a numerical value equivalent to the planar parameter {p, q, r} of the imaged object surface. In the principle of object identification in the present embodiment, such characteristics of flow parameters are used, and the plane of each region on the image is identified based on the flow parameter calculated for each region on the image.

即ち、同一平面を撮像した画像領域については8つのフローパラメータはほぼ等しい値となる。よって、画像上の各領域のフローパラメータ{Ux,y,Vx,y,Ax,y,Bx,y,Cx,y,Dx,y,Ex,y,Fx,y}を互いに比較することにより、2つの画像領域が同一平面であるか否かを判定することができる。特に、本実施形態では、3次元座標系における幾何学的配置が既知である基準平面のフローパラメータとして、道路平面を基準とする平面のフローパラメータ{U,V,A,B,C,D,E,F}を求める。そして、画像上の各領域のフローパラメータを道路平面のフローパラメータと比較することにより、画像上の各領域が、道路平面あるか否かを識別している。ここで、両フローパラメータが類似する場合には、画像上のその領域は道路平面であると識別される。なお、両フローパラメータの類似とは、両フローパラメータが一致する場合、及び両フローパラメータの差分が所定の閾値より小さい場合である。 In other words, the eight flow parameters have substantially the same value for the image areas obtained by imaging the same plane. Therefore, the flow parameters { Ux, y , Vx , y , Ax, y , Bx, y , Cx, y , Dx, y , Ex, y , Fx, y of each region on the image } With each other, it can be determined whether or not the two image regions are on the same plane. In particular, in the present embodiment, the flow parameters {U r , V r , A r , B r , of the plane based on the road plane are used as the flow parameters of the reference plane whose geometrical arrangement in the three-dimensional coordinate system is known. C r , D r , E r , F r } are obtained. Then, by comparing the flow parameter of each area on the image with the flow parameter of the road plane, it is identified whether each area on the image is a road plane. Here, when both flow parameters are similar, the region on the image is identified as a road plane. The similarity between both flow parameters is when both flow parameters match and when the difference between both flow parameters is smaller than a predetermined threshold.

[物体識別処理]
次に、図5〜図8のフローチャートを参照して、本実施形態の画像処理装置20による物体識別処理について説明する。図5には、画像処理装置20による物体識別処理の全体的なフローが示されている。図6には、オプティカルフローを算出する処理のフローが示されている。図7には、道路平面のフローパラメータを設定する処理のフローが示されている。また、図8には、道路平面のフローパラメータを設定する別の処理のフローが示されている。
[Object identification processing]
Next, the object identification process by the image processing apparatus 20 according to the present embodiment will be described with reference to the flowcharts of FIGS. FIG. 5 shows an overall flow of object identification processing by the image processing apparatus 20. FIG. 6 shows a flow of processing for calculating an optical flow. FIG. 7 shows a flow of processing for setting a road plane flow parameter. FIG. 8 shows another processing flow for setting the flow parameter of the road plane.

図5のフローチャートに示されるように、画像処理装置20は、一定の時間間隔(例えば30msec)ごとのタイミングTに画像データを取り込む(S501)。画像処理装置20により取り込まれた画像データの一例を、図9に示す。この画像では、前方に道路が拡がっている。道路上には対向車両が存在し、道路の端には歩道が延びている。画像処理装置20は、取り込まれた画像データをLoGフィルタ(Laplacian of Gaussian Filter)で処理する。次に、画像処理装置20は、全画像面を矩形の小さな領域(例えば、8×8画素の領域、以下、小領域と呼ぶ)に網目状に分割し(図10参照)、テンプレートマッチング法により各小領域ごとにオプティカルフローベクトルを算出する(S502、図11参照)。オプティカルフローを算出する処理については、図6を参照して後に詳しく説明する。 As shown in the flowchart of FIG. 5, the image processing apparatus 20 takes in the image data to the timing T n for each predetermined time interval (e.g., 30 msec) (S501). An example of image data captured by the image processing apparatus 20 is shown in FIG. In this image, the road extends forward. There are oncoming vehicles on the road, and a sidewalk extends to the end of the road. The image processing device 20 processes the captured image data with a LoG filter (Laplacian of Gaussian Filter). Next, the image processing apparatus 20 divides the entire image surface into a rectangular small area (for example, an 8 × 8 pixel area, hereinafter referred to as a small area) in a mesh pattern (see FIG. 10), and performs template matching. An optical flow vector is calculated for each small region (S502, see FIG. 11). The process of calculating the optical flow will be described in detail later with reference to FIG.

次に、画像処理装置20は、隣接する4つの小領域を含む領域を一組の領域(以下、中領域と呼ぶ)として設定し、各中領域を一枚の平面であると仮定して各中領域のフローパラメータを算出する(S503)。中領域に含まれる4つの小領域のオプティカルフロー情報(x,y,u,v)、(x,y,u,v)、(x,y,u,v)、(x,y,u,v)から当該中領域のフローパラメータ{Ux,y,Vx,y,Ax,y,Bx,y,Cx,y,Dx,y,Ex,y,Fx,y}を算出する方法については既述のとおりである。 Next, the image processing apparatus 20 sets a region including four adjacent small regions as a set of regions (hereinafter referred to as a middle region), and assumes that each middle region is a single plane. The middle region flow parameters are calculated (S503). Optical flow information (x 1 , y 1 , u 1 , v 1 ), (x 2 , y 2 , u 2 , v 2 ), (x 3 , y 3 , u 3 ) of four small regions included in the middle region , V 3 ), (x 4 , y 4 , u 4 , v 4 ), the flow parameters {U x, y , V x, y , A x, y , B x, y , C x, y , D x, y , E x, y , F x, y } are calculated as described above.

次に、画像処理装置20は、確実に道路平面である中領域のフローパラメータ{U,V,A,B,C,D,E,F}を設定する(S504)。道路平面のフローパラメータを設定する処理については、図7及び図8を参照して後に詳しく説明する。そして、画像処理装置20は、画像上の各中領域のフローパラメータ{Ux,y,Vx,y,Ax,y,Bx,y,Cx,y,Dx,y,Ex,y,Fx,y}を、道路平面のフローパラメータ{U,V,A,B,C,D,E,F}と比較して、両フローパラメータが類似するか否かを判定する(S505)。具体的には、画像処理装置20は、次の数式(3.1)又は数式(3.2)を用いて両フローパラメータの差分ΔFPを求め、この差分ΔFPが予め設定された閾値THよりも大きいか否かを判定する。 Next, the image processing apparatus 20 reliably sets the flow parameters {U r , V r , A r , B r , C r , D r , E r , F r } in the middle region that is the road plane (S504). ). The process of setting the road plane flow parameter will be described in detail later with reference to FIGS. Then, the image processing apparatus 20, the flow parameters {U x of the middle region of the image, y, V x, y, A x, y, B x, y, C x, y, D x, y, E x , Y , F x, y } are compared with the flow parameters {U r , V r , A r , B r , C r , D r , E r , F r } on the road plane. It is determined whether or not to perform (S505). Specifically, the image processing apparatus 20 obtains a difference ΔFP r between both flow parameters using the following formula (3.1) or formula (3.2), and the difference ΔFP r is set to a preset threshold TH. It is judged whether it is larger than.

Figure 2008003696
Figure 2008003696

ここで、k,k,k,k,k,k,k,kは、各フローパラメータの重み係数である。各フローパラメータの重み係数k〜kとしては、道路平面に対応する領域を識別するために好適な値が設定されればよい。ここで、各フローパラメータの重み係数k〜kとしてそれぞれ異なる値が設定されてもよいし、共通する値が設定されてもよい。また、差分ΔFPと比較される閾値THは、道路平面に対応する領域を識別するために好適な値が設定される。例えば、閾値THは、自車両の走行速度やカメラ10から道路の被撮像位置までの距離に応じて異なる値としてもよい。 Here, k U , k V , k A , k B , k C , k D , k E , and k F are weighting factors for each flow parameter. As the weighting factors k U to k F of each flow parameter, a value suitable for identifying an area corresponding to the road plane may be set. Here, different values may be set as the weighting coefficients k U to k F of the flow parameters, or common values may be set. The threshold value TH to be compared with the difference ΔFP r is set to a value suitable for identifying an area corresponding to the road plane. For example, the threshold value TH may be a different value depending on the traveling speed of the host vehicle and the distance from the camera 10 to the imaging position on the road.

ステップ505において差分ΔFPが閾値THよりも小さいと判定された場合には、その中領域のフローパラメータが道路平面のフローパラメータと類似するため、その中領域が道路平面であると識別する(S506)。例えば、図12において斜線で示される領域が道路平面であると識別される。一方、ステップ505において差分ΔFPが閾値THよりも大きいと判定された場合には、その中領域のフローパラメータが道路平面のフローパラメータと類似しないため、その中領域が道路平面以外であると識別する。 If it is determined in step 505 that the difference ΔFP r is smaller than the threshold value TH, the flow parameter of the middle area is similar to the flow parameter of the road plane, so that the middle area is identified as the road plane (S506). ). For example, an area indicated by diagonal lines in FIG. 12 is identified as a road plane. On the other hand, if it is determined in step 505 that the difference ΔFP r is larger than the threshold value TH, the flow parameter of the middle area is not similar to the flow parameter of the road plane, and therefore the middle area is identified as other than the road plane. To do.

次に、図6を参照して、オプティカルフローを算出する処理について説明する。図6には、オプティカルフローを算出する処理のフローチャートが示されている。図6に示されるフローチャートは、図5のステップ502に対応している。   Next, processing for calculating an optical flow will be described with reference to FIG. FIG. 6 shows a flowchart of processing for calculating an optical flow. The flowchart shown in FIG. 6 corresponds to step 502 in FIG.

ステップ601〜ステップ607において、画像処理装置20は、道路平面のオプティカルフローとして基準となる基準オプティカルフローを算出する。先ず、画像処理装置20は、時刻Tに撮像された画像において、車両前方の領域であって道路平面であると推測される領域から、特徴的な画像部分を含む小領域を抽出する(S601)。画像処理装置20により抽出される小領域は、道路平面に描かれた横断歩道、白線、道路標識などの特徴的な画像部分を含む領域である。図13に示される処理例では、画像の道路平面に対応する領域から、特徴的な画像部分として丸印内にある横断歩道のエッジ部分が抽出されている。図14には、特徴的な画像部分を含む小領域が拡大して示されている。このような特徴的な画像部分を含む小領域はパターンマッチング処理に適しており、この領域を利用することでオプティカルフローベクトルを高精度に算出できる。 In step 601 to step 607, the image processing apparatus 20 calculates a reference optical flow serving as a reference as an optical flow on the road plane. First, the image processing apparatus 20 extracts a small area including a characteristic image portion from an area presumed to be a road plane in the image captured at time T n (S601). ). The small area extracted by the image processing device 20 is an area including characteristic image portions such as a pedestrian crossing, a white line, and a road sign drawn on the road plane. In the processing example shown in FIG. 13, the edge part of the pedestrian crossing within the circle is extracted as a characteristic image part from the region corresponding to the road plane of the image. FIG. 14 is an enlarged view of a small area including a characteristic image portion. Such a small region including a characteristic image portion is suitable for pattern matching processing, and an optical flow vector can be calculated with high accuracy by using this region.

道路平面であると推測される領域には特徴的な画像部分が複数あるため、画像処理装置20は、これらの特徴的な画像部分を含む複数の小領域を抽出すればよい。但し、画像処理装置20は、前方を走行する他車両に対応する小領域が抽出されることを回避する必要がある。このために、画像処理装置20は、車両速度ごとに標準的な車間距離のデータを予め記憶しておく。そして、画像処理装置20は、車両センサ30から車両速度の検出値を取り込んで、車両前方の領域であってその車両速度に応じた車間距離内の領域から、道路平面の特徴的な画像部分を含む小領域を抽出することが好ましい。   Since there are a plurality of characteristic image portions in the region estimated to be a road plane, the image processing apparatus 20 may extract a plurality of small regions including these characteristic image portions. However, the image processing device 20 needs to avoid extracting a small region corresponding to another vehicle traveling ahead. For this purpose, the image processing apparatus 20 stores in advance standard inter-vehicle distance data for each vehicle speed. Then, the image processing device 20 takes in the detected value of the vehicle speed from the vehicle sensor 30 and extracts a characteristic image portion of the road plane from the area in front of the vehicle and within the inter-vehicle distance corresponding to the vehicle speed. It is preferable to extract a small area to be included.

次に、画像処理装置20は、特徴的な画像部分を含む小領域の中心(x,y)を、オプティカルフローベクトルの始点として設定する(S602)。さらに、画像処理装置20は、図14に示されるように、時刻Tに撮像された画像において、特徴的な画像部分を含む小領域と中心を同じくする範囲であって特徴的な画像部分を含む小領域よりも一回り大きな範囲を、テンプレートマッチング処理の対象となる探索範囲として決定する。そして、画像処理装置20は、時刻Tn+1に撮像された画像において、画像座標系の同位置に探索範囲を設定する(S603、図15参照)。 Next, the image processing apparatus 20 sets the center (x n , y n ) of the small region including the characteristic image portion as the start point of the optical flow vector (S602). Furthermore, as shown in FIG. 14, the image processing apparatus 20 displays a characteristic image portion in a range that is the same as the center of the small region including the characteristic image portion in the image captured at the time T n. A range that is slightly larger than the included small region is determined as a search range to be subjected to template matching processing. Then, the image processing device 20 sets a search range at the same position in the image coordinate system in the image captured at time Tn + 1 (S603, see FIG. 15).

次に、画像処理装置20は、時刻Tの特徴的な画像部分を含む小領域をテンプレートとして用いて、時刻Tn+1の画像に設定された探索範囲に対してテンプレートマッチング処理を行って、時刻Tn+1における探索範囲に含まれる各小領域について相関値を演算する(S604)。そして、画像処理装置20は、各小領域について演算された相関値を互いに比較して、相関値が最大となる小領域を求める(S605)。この結果、図15に示されるように、タイミングTの画像の小領域と適合する小領域が、時刻Tn+1の画像の探索範囲内から探索される。 Next, the image processing apparatus 20 uses a small area including the characteristic image portion of the time T n as a template, performing template matching processing for the set search range at time T n + 1 of the image, time A correlation value is calculated for each small region included in the search range at T n + 1 (S604). Then, the image processing apparatus 20 compares the correlation values calculated for each small region with each other to obtain a small region with the maximum correlation value (S605). As a result, as shown in FIG. 15, the small region compatible small region of the image of the timing T n is searched from the search range of the time T n + 1 of the image.

次に、画像処理装置20は、時刻Tn+1の画像で特徴的な画像部分を含む小領域の中心(xn+1,yn+1)を、オプティカルフローベクトルの終点として設定する(S606)。そして、画像処理装置20は、オプティカルフローベクトルの始点から終点までのベクトルを、道路平面のオプティカルフローとして基準となる基準オプティカルフローベクトル(xn+1−x,yn+1−y)として算出する(S607)。 Next, the image processing apparatus 20 sets the center (x n + 1 , y n + 1 ) of the small region including the characteristic image portion in the image at time T n + 1 as the end point of the optical flow vector (S606). Then, the image processing apparatus 20 calculates a vector from the start point to the end point of the optical flow vector as a reference optical flow vector (x n + 1 −x n , y n + 1 −y n ) serving as a reference as an optical flow on the road plane ( S607).

次に、画像処理装置20は、ステップ607で算出された特徴的な画像部分のオプティカルフローベクトルに基づいて探索範囲を調節しつつ、画像上の各小領域ごとに探索範囲を設定する(S608)。具体的には、画像処理装置20は、先ず、画像上の各小領域の夫々について、小領域と中心を同じくする範囲であってこの小領域よりも一回り大きな範囲を、テンプレートマッチング処理の対象となる探索範囲として仮設定する。そして、このように仮設定された探索範囲の夫々を、基準オプティカルフローベクトル(xn+1−x,yn+1−y)の距離及び方向に従って移動させる。 Next, the image processing apparatus 20 sets the search range for each small region on the image while adjusting the search range based on the optical flow vector of the characteristic image portion calculated in step 607 (S608). . Specifically, the image processing apparatus 20 first applies, for each of the small regions on the image, a range that is the same as the small region and has a center that is slightly larger than the small region. Is temporarily set as a search range. Then, each of the temporarily set search ranges is moved according to the distance and direction of the reference optical flow vector (x n + 1 −x n , y n + 1 −y n ).

図16には、車両速度が大きい場合に設定される探索範囲が示されている。車両速度が大きい場合には、基準オプティカルフローベクトルは大きいため、探索範囲は当初設定された位置(破線)から大きくずらされた位置(実線)に設定されている。一方、図17には、車両速度が小さい場合に設定される探索範囲が示されている。車両速度が小さい場合には、基準オプティカルフローベクトルは小さいため、探索範囲は当初設定された位置(破線)に近い位置(実線)に設定されている。このように探索範囲の位置を調節することにより、移動後の小領域が確実に探索範囲に入るため、移動後の小領域を確実に探索することができ、オプティカルフローベクトルを高精度に算出することが可能となる。   FIG. 16 shows a search range that is set when the vehicle speed is high. When the vehicle speed is high, the reference optical flow vector is large, and therefore the search range is set to a position (solid line) that is largely shifted from the initially set position (dashed line). On the other hand, FIG. 17 shows a search range set when the vehicle speed is low. When the vehicle speed is low, the reference optical flow vector is small, so the search range is set at a position (solid line) close to the initially set position (broken line). By adjusting the position of the search range in this way, the small region after movement surely enters the search range, so that the small region after movement can be reliably searched, and the optical flow vector is calculated with high accuracy. It becomes possible.

なお、上記の探索範囲の設定に際して、基準オプティカルフローベクトルに応じて探索範囲の面積を調節してもよい。例えば、基準オプティカルフローベクトルが大きい場合には探索範囲の面積を大きくし、基準オプティカルフローベクトルが小さい場合には探索範囲の面積を小さくすればよい。このように探索範囲の面積を調節することにより、探索範囲を必要最小限な大きさに調節することができるため、オプティカルフローベクトルの算出処理の演算時間を短くすることができる。また、探索範囲を必要最小限な大きさに調節することにより、誤った小領域が探索される確率が小さくなるため、オプティカルフローベクトルを高精度に算出することが可能となる。   In setting the search range, the area of the search range may be adjusted according to the reference optical flow vector. For example, the area of the search range may be increased when the reference optical flow vector is large, and the area of the search range may be decreased when the reference optical flow vector is small. By adjusting the area of the search range in this way, the search range can be adjusted to the minimum necessary size, so that the calculation time of the optical flow vector calculation process can be shortened. Further, by adjusting the search range to the minimum necessary size, the probability that an erroneous small area is searched is reduced, so that the optical flow vector can be calculated with high accuracy.

最後に、画像処理装置20は、時刻Tの画像の各小領域をテンプレートとして用いて、時刻Tn+1の画像に設定された探索範囲に対してテンプレートマッチング処理を行って、時刻Tn+1の画像に設定された探索範囲から相関値が最大となる小領域を求める。そして、画像処理装置20は、時刻Tにおける各小領域の中心を始点とし、時刻Tn+1における移動後の各小領域の中心を終点とするベクトルを、各領域ごとのオプティカルフローベクトルとして算出する(S609)。 Finally, the image processing apparatus 20, with each small area of the time T n of the image as a template by performing a template matching process with respect to the set search range at time T n + 1 of the image, the time T n + 1 of the image A small region having the maximum correlation value is obtained from the search range set to. Then, the image processing apparatus 20 starting from the center of each small area at time T n, the vector and ending the center of each small region after movement at time T n + 1, is calculated as the optical flow vector for each area (S609).

次に、図7を参照して、道路平面のフローパラメータを設定する処理について説明する。図7には、道路平面のフローパラメータを設定する処理のフローチャートが示されている。図7に示されるフローチャートは、図5のステップ504に対応している。   Next, with reference to FIG. 7, a process for setting the flow parameters of the road plane will be described. FIG. 7 shows a flowchart of a process for setting a flow parameter for a road plane. The flowchart shown in FIG. 7 corresponds to step 504 in FIG.

先ず、画像処理装置20は、車両進行方向の複数の中領域を道路平面に対応するものと推測し、これらの中領域について算出されたフローパラメータを監視して、フローパラメータの経時変化の大きさを求める(S701)。ここで、経時変化の大きさは、フローパラメータ{Ux,y,Vx,y,Ax,y,Bx,y,Cx,y,Dx,y,Ex,y,Fx,y}のそれぞれについて算出される。次に、画像処理装置20は、各フローパラメータの経時変化の大きさを予め設定された閾値T,T,T,T,T,T,T,Tと比較して、フローパラメータの経時変化の大きさが閾値T〜Tより小さい中領域を判別する(S702)。 First, the image processing apparatus 20 estimates that a plurality of middle regions in the vehicle traveling direction correspond to the road plane, monitors the flow parameters calculated for these middle regions, and determines the magnitude of the change over time of the flow parameters. Is obtained (S701). Here, the magnitude of the change over time is determined by the flow parameters {U x, y , V x, y , A x, y , B x, y , C x, y , D x, y , E x, y , F x. , Y }. Next, the image processing apparatus 20 compares the magnitude of the change over time of each flow parameter with preset thresholds T U , T V , T A , T B , T C , T D , T E , and T F. Then, a middle region in which the magnitude of the flow parameter change with time is smaller than the thresholds T U to T F is determined (S702).

ここで、閾値T〜Tは、フローパラメータの安定度合いを判定するためのものである。ある中領域についてフローパラメータの経時変化が計測されている間に、その中領域が継続して道路平面である場合には、その中領域のフローパラメータは安定しており、フローパラメータの経時変化の大きさは閾値T〜Tより小さくなる。一方、その中領域が道路平面以外である場合には、その中領域のフローパラメータは変化して不安定となり、フローパラメータの経時変化の大きさは閾値T〜Tより大きくなる。よって、フローパラメータの経時変化の大きさが閾値T〜Tより小さい場合に、その中領域が道路平面であることを判別することが可能となる。 Here, the thresholds T U to T F are for determining the degree of stability of the flow parameter. If the middle area continues to be a road plane while the flow parameter change over time is measured for a middle area, the middle area flow parameter is stable and the flow parameter changes over time. The magnitude is smaller than the thresholds T U to T F. On the other hand, when the middle area is other than the road plane, the flow parameter of the middle area changes and becomes unstable, and the magnitude of the change of the flow parameter with time becomes larger than the thresholds T U to T F. Therefore, when the magnitude of the change over time of the flow parameter is smaller than the threshold values T U to T F , it is possible to determine that the middle region is a road plane.

但し、車両の走行状態によっては、車両に角速度変化ω1,ω2,ω3が発生することもある。このように角速度変化ω1,ω2,ω3が発生する場合には、実際には車両進行方向の中領域が道路平面に対応していても、角速度変化ω1,ω2,ω3を数式(2)に含むフローパラメータについては角速度の変化に伴ってその経時変化が大きくなるため、車両進行方向の中領域が道路平面に対応することを判別できなくなってしまう。そこで、角速度変化ω1,ω2,ω3が発生する走行状態である場合には、角速度変化を数式(2)に含まないフローパラメータを選択して、選択されたフローパラメータの経時変化と閾値T〜Tを比較する。 However, depending on the running state of the vehicle, angular velocity changes ω1, ω2, and ω3 may occur in the vehicle. Thus, when the angular velocity changes ω1, ω2, and ω3 occur, the angular velocity changes ω1, ω2, and ω3 are included in Equation (2) even though the middle region of the vehicle traveling direction actually corresponds to the road plane. As the flow parameter changes with time according to the change in the angular velocity, it becomes impossible to determine that the middle region in the vehicle traveling direction corresponds to the road plane. Therefore, when the vehicle is in a traveling state in which the angular velocity changes ω1, ω2, and ω3 are generated, a flow parameter that does not include the angular velocity change in Equation (2) is selected, and the temporal change of the selected flow parameter and the threshold value T U. Compare TF .

実際の処理では、画像処理装置20は、フローパラメータA,B,C,Dを選択して、フローパラメータA,B,C,Dの経時変化を閾値T,T,T,Tと比較することが好ましい。ここで、フローパラメータA,Dは、数式(2)にヨーレートω1,ピッチレートω2,ロールレートω3を含まない。また、フローパラメータB,Cは、数式(2)にヨーレートω1,ピッチレートω2を含まない。よって、ヨーレートω1やピッチレートω2が発生する走行状態であっても、フローパラメータA,B,C,Dの経時変化は閾値T,T,T,Tより小さくなるため、車両進行方向の中領域が道路平面に対応することを判別できる。なお、フローパラメータB,Cは、数式(2)にロールレートω3を含むものの、車両に生じるロールレートの値は小さいため、フローパラメータB,Cの経時変化は小さい。 In actual processing, the image processing apparatus 20 selects the flow parameters A, B, C, and D, and changes the flow parameters A, B, C, and D over time with the thresholds T A , T B , T C , and T D. It is preferable to compare with. Here, the flow parameters A and D do not include the yaw rate ω1, the pitch rate ω2, and the roll rate ω3 in the equation (2). Further, the flow parameters B and C do not include the yaw rate ω1 and the pitch rate ω2 in the equation (2). Therefore, even in a traveling state in which the yaw rate ω1 and the pitch rate ω2 are generated, the change over time in the flow parameters A, B, C, and D is smaller than the threshold values T A , T B , T C , and T D. It can be determined that the middle area of the direction corresponds to the road plane. Although the flow parameters B and C include the roll rate ω3 in the formula (2), since the value of the roll rate generated in the vehicle is small, the change over time of the flow parameters B and C is small.

ステップ703において、画像処理装置20は、車両進行方向の中領域のフローパラメータ{Ux,y,Vx,y,Ax,y,Bx,y,Cx,y,Dx,y,Ex,y,Fx,y}を、標準的な道路平面のフローパラメータ{Uav,Vav,Aav,Bav,Cav,Dav,Eav,Fav}と比較して、両フローパラメータが類似する中領域を判別する(S703)。ここで、標準的な道路平面のフローパラメータとは、図3に示されるように標準的な位置及び向きでカメラ10が配置された場合に発生する道路平面のフローパラメータであり、計算又は実測により予め求められる値である。具体的には、画像処理装置20は、次の数式(4.1)又は数式(4.2)を用いて両フローパラメータの差分ΔFPavを求め、この差分ΔFPavが予め設定された閾値THよりも小さい中領域を判別する。 In step 703, the image processing apparatus 20 determines the flow parameters { Ux, y , Vx , y , Ax, y , Bx, y , Cx, y , Dx, y , Compare E x, y , F x, y } with standard road plane flow parameters {U av , V av , A av , B av , C av , D av , E av , F av } A middle region where both flow parameters are similar is determined (S703). Here, the standard road plane flow parameter is a road plane flow parameter generated when the camera 10 is placed at a standard position and orientation as shown in FIG. This is a value obtained in advance. Specifically, the image processing apparatus 20 obtains a difference ΔFP av between the flow parameters using the following formula (4.1) or formula (4.2), and the difference ΔFP av is set to a preset threshold value TH. A middle region that is smaller than is determined.

Figure 2008003696
Figure 2008003696

ステップ703において、両フローパラメータの差分FPavが予め設定された閾値THより小さい場合には、車両進行方向の中領域のフローパラメータは道路平面として妥当な値である。よって、画像処理装置20は、車両進行方向の当該中領域のフローパラメータを、道路平面のフローパラメータとして設定する(S704)。 In step 703, if the difference FP av between both flow parameters is smaller than a preset threshold value TH, the flow parameter in the middle region of the vehicle traveling direction is a reasonable value for the road plane. Therefore, the image processing apparatus 20 sets the flow parameter of the middle region in the vehicle traveling direction as the flow parameter of the road plane (S704).

次に、図8を参照して、道路平面のフローパラメータを設定する処理の変形例について説明する。図8には、道路平面のフローパラメータを設定する処理のフローチャートが示されている。図8に示されるフローチャートは、図5のステップ504に対応している。   Next, with reference to FIG. 8, a modified example of the process for setting the flow parameter of the road plane will be described. FIG. 8 shows a flowchart of the process for setting the flow parameter of the road plane. The flowchart shown in FIG. 8 corresponds to step 504 in FIG.

先ず、画像処理装置20は、ステップ503で算出されたフローパラメータであって、所定時間前(例えば3秒前)の時刻Tn−kに撮像された画像の各中領域のフローパラメータ{Un−k,Vn−k,An−k,Bn−k,Cn−k,Dn−k,En−k,Fn−k}を取得する(S801)。次に、画像処理装置20は、同じくステップ503で算出されたフローパラメータであって、現在時刻Tに撮像された画像の各中領域のフローパラメータ{U,V,A,B,C,D,E,F}を取得する(S802)。 First, the image processing apparatus 20 is the flow parameter calculated in step 503, which is a flow parameter {U n for each middle region of an image captured at a time T n−k before a predetermined time (for example, 3 seconds before). -k, V n-k, a n-k, B n-k, C n-k, D n-k, E n-k, to obtain the F n-k} (S801) . Next, the image processing apparatus 20 also uses the flow parameters {U n , V n , A n , B n for the middle region of the image captured at the current time T n , which are the flow parameters similarly calculated in step 503. , C n , D n , E n , F n } are acquired (S802).

そして、画像処理装置20は、画像の各中領域について、現在時刻Tのフローパラメータ{U,V,A,B,C,D,E,F}を、所定時間前の時刻Tn−kのフローパラメータ{Un−k,Vn−k,An−k,Bn−k,Cn−k,Dn−k,En−k,Fn−k}と比較して、両フローパラメータが類似する中領域を判別する(S803)。具体的には、画像処理装置20は、次の数式(5.1)又は数式(5.2)を用いて両フローパラメータの差分ΔFPを求め、この差分ΔFPが予め設定された閾値THよりも小さい中領域を判別する。 Then, the image processing device 20 determines the flow parameters {U n , V n , A n , B n , C n , D n , E n , F n } at the current time T n for each middle region of the image. Flow parameters {U n−k , V n−k , A n−k , B n−k , C n−k , D n−k , E n−k , F n− at time T n−k before time k }, a middle region in which both flow parameters are similar is discriminated (S803). Specifically, the image processing apparatus 20 obtains a difference ΔFP n between both flow parameters using the following formula (5.1) or formula (5.2), and the difference ΔFP n is set to a preset threshold value TH. A middle region that is smaller than is determined.

Figure 2008003696
Figure 2008003696

建築物や他車両などに対応する中領域のフローパラメータは著しく変化する。一方、道路平面に対応する中領域のフローパラメータはほとんど変化しない。よって、ステップ703において、両フローパラメータの差分FPが予め設定された閾値THより小さい場合には、このようにフローパラメータの変化が小さい中領域は道路平面である可能性が高い。よって、画像処理装置20は、差分FPが閾値THより小さい中領域のフローパラメータを、道路平面のフローパラメータとして設定する(S804)。 The flow parameters in the middle area corresponding to buildings and other vehicles change significantly. On the other hand, the flow parameter in the middle region corresponding to the road plane hardly changes. Therefore, when the difference FP n between the flow parameters is smaller than the preset threshold value TH in step 703, it is highly possible that the middle region where the change in the flow parameters is small is a road plane. Therefore, the image processing apparatus 20 sets the flow parameter for the middle region where the difference FP n is smaller than the threshold value TH as the flow parameter for the road plane (S804).

図18には、所定時間前の時刻Tn−kの画像が示されており、図19には、現在時刻Tの画像が示されている。図18および図19において太線で囲われる中領域は、両時刻Tn−k,Tにおいて道路平面に対応している。このように両時刻Tn−k,Tにおいて道路平面を撮像した中領域のフローパラメータが、道路平面のフローパラメータとして設定される。なお、図18および図19に示されるように、両時刻Tn−k,Tにおいて道路平面を撮像した中領域が複数ある場合には、これらの中領域のフローパラメータを平均した値を、道路平面のフローパラメータとして設定すればよい。 FIG. 18 shows an image at time T n−k before a predetermined time, and FIG. 19 shows an image at current time T n . In FIG. 18 and FIG. 19, the middle region surrounded by the thick line corresponds to the road plane at both times T n−k and T n . In this way, the flow parameter of the middle region obtained by imaging the road plane at both times T n−k and T n is set as the flow parameter of the road plane. As shown in FIGS. 18 and 19, when there are a plurality of middle areas obtained by imaging the road plane at both times T n−k and T n , the average value of the flow parameters of these middle areas is expressed as What is necessary is just to set as a flow parameter of a road plane.

なお、図7又は図8の処理により設定された道路平面のフローパラメータは、その後の処理において繰り返し利用することができる。即ち、画像処理装置は、画像の各中領域ごとにフローパラメータを算出すると、各中領域について算出されたフローパラメータが、過去に算出された道路平面のフローパラメータと類似する領域を、道路平面を構成する領域であると識別することが好ましい。この構成によれば、画像処理装置は、道路平面のフローパラメータが既に算出されているため、道路平面を構成する領域を簡易な処理で識別することができる。   The road plane flow parameters set by the processing of FIG. 7 or FIG. 8 can be used repeatedly in the subsequent processing. That is, when the image processing apparatus calculates the flow parameter for each middle region of the image, the flow parameter calculated for each middle region is compared with the flow parameter of the road plane calculated in the past. It is preferable to identify the region to be configured. According to this configuration, since the flow parameter of the road plane has already been calculated, the image processing apparatus can identify the area constituting the road plane with a simple process.

本実施形態の画像処理装置を示す概略図である。It is the schematic which shows the image processing apparatus of this embodiment. 画像座標系、カメラ座標系、車両座標系を説明するための模式図である。It is a schematic diagram for demonstrating an image coordinate system, a camera coordinate system, and a vehicle coordinate system. 車両に搭載されたカメラの姿勢を説明するための模式図である。It is a schematic diagram for demonstrating the attitude | position of the camera mounted in the vehicle. 車両の運動パラメータを説明するための模式図である。It is a schematic diagram for demonstrating the motion parameter of a vehicle. 物体識別処理の概略を示すフローチャートである。It is a flowchart which shows the outline of an object identification process. オプティカルフローの算出処理を示すフローチャートである。It is a flowchart which shows the calculation process of an optical flow. 道路平面のフローパラメータを設定する処理を示すフローチャートである。It is a flowchart which shows the process which sets the flow parameter of a road plane. 道路平面のフローパラメータを設定する処理を示す別のフローチャートである。It is another flowchart which shows the process which sets the flow parameter of a road plane. 画像処理装置に取り込まれた画像を示す図である。It is a figure which shows the image taken in by the image processing apparatus. 画像の小領域を示す図である。It is a figure which shows the small area | region of an image. 画像のオプティカルフローを示す図である。It is a figure which shows the optical flow of an image. 画像から識別された道路平面を示す図である。It is a figure which shows the road plane identified from the image. 画像から抽出される特徴的な画像部分を示す図である。It is a figure which shows the characteristic image part extracted from an image. 特徴的な画像部分を拡大して示す図である。It is a figure which expands and shows the characteristic image part. 移動後の特徴的な画像部分を拡大して示す図である。It is a figure which expands and shows the characteristic image part after a movement. 車速が大きい場合に設定される探索範囲を示す図である。It is a figure which shows the search range set when a vehicle speed is large. 車速が小さい場合に設定される探索範囲を示す図である。It is a figure which shows the search range set when a vehicle speed is small. 時刻Tn−kにおいて道路平面に対応する領域を示す図である。It is a figure which shows the area | region corresponding to a road plane in time Tn-k . 時刻Tにおいて道路平面に対応する領域を示す図である。It is a diagram showing a region corresponding to the road plane at time T n.

符号の説明Explanation of symbols

10…カメラ、20…画像処理装置、30…車両センサ、40…表示制御装置、50…車両動作制御装置。   DESCRIPTION OF SYMBOLS 10 ... Camera, 20 ... Image processing apparatus, 30 ... Vehicle sensor, 40 ... Display control apparatus, 50 ... Vehicle operation control apparatus.

Claims (9)

異なる時刻に撮像された複数の画像データを処理して、画像の各領域ごとのオプティカルフローを算出するオプティカルフロー算出手段と、
前記オプティカルフロー算出手段により算出された少なくとも4つのオプティカルフローが同一平面上のオプティカルフローであると仮定して、画像の各領域ごとのフローパラメータを算出するフローパラメータ算出手段と、
前記フローパラメータ算出手段により算出されたフローパラメータが、道路平面のフローパラメータと類似する領域を、道路平面を構成する領域であると識別する領域識別手段と、
を備えることを特徴とする画像処理装置。
An optical flow calculation means for processing a plurality of image data captured at different times and calculating an optical flow for each area of the image;
Assuming that at least four optical flows calculated by the optical flow calculating means are optical flows on the same plane, a flow parameter calculating means for calculating a flow parameter for each region of the image;
An area identifying means for identifying an area where the flow parameter calculated by the flow parameter calculating means is similar to the flow parameter of the road plane as an area constituting the road plane;
An image processing apparatus comprising:
前記オプティカルフロー算出手段は、道路平面上の特徴的な画像部分について基準オプティカルフローを算出し、前記基準オプティカルフローに基づいて画像の各領域ごとに探索範囲を設定し、前記探索範囲内を探索することで画像の各領域ごとのオプティカルフローを算出することを特徴とする請求項1に記載の画像処理装置。   The optical flow calculation means calculates a reference optical flow for a characteristic image portion on a road plane, sets a search range for each region of the image based on the reference optical flow, and searches within the search range. The image processing apparatus according to claim 1, wherein an optical flow for each region of the image is calculated. 前記オプティカルフロー算出手段は、画像において自車両の進行方向の領域を道路平面の領域とし、この領域に含まれる特徴的な画像部分について基準オプティカルフローを算出することを特徴とする請求項2に記載の画像処理装置。   3. The optical flow calculation unit according to claim 2, wherein an area in the traveling direction of the host vehicle in the image is a road plane area, and a reference optical flow is calculated for a characteristic image portion included in the area. Image processing apparatus. 前記オプティカルフロー算出手段は、前記基準オプティカルフローの大きさに基づいて前記探索範囲が設定される位置を決定することを特徴とする請求項2に記載の画像処理装置。   The image processing apparatus according to claim 2, wherein the optical flow calculation unit determines a position where the search range is set based on a size of the reference optical flow. 前記オプティカルフロー算出手段は、前記基準オプティカルフローの大きさに基づいて前記探索範囲が設定される面積を決定することを特徴とする請求項2に記載の画像処理装置。   The image processing apparatus according to claim 2, wherein the optical flow calculation unit determines an area in which the search range is set based on a size of the reference optical flow. 前記領域識別手段は、前記フローパラメータ算出手段により算出されたフローパラメータが、過去に算出された道路平面のフローパラメータと類似する領域を、道路平面を構成する領域であると識別することを特徴とする請求項1に記載の画像処理装置。   The area identifying means identifies an area in which the flow parameter calculated by the flow parameter calculating means is similar to a flow parameter of a road plane calculated in the past as an area constituting a road plane. The image processing apparatus according to claim 1. 前記領域識別手段は、自車両の進行方向の領域のフローパラメータの経時変化が予め設定された閾値より小さい場合に、当該領域のフローパラメータを前記道路平面のフローパラメータとして設定することを特徴とする請求項1に記載の画像処理装置。   The area identifying means sets the flow parameter of the area as the flow parameter of the road plane when the change over time of the flow parameter of the area in the traveling direction of the host vehicle is smaller than a preset threshold value. The image processing apparatus according to claim 1. 前記領域識別手段は、自車両の進行方向の領域のフローパラメータが標準的な道路平面のフローパラメータと類似する場合に、当該領域のフローパラメータを前記道路平面のフローパラメータとして設定することを特徴とする請求項1に記載の画像処理装置。   The area identification means sets the flow parameter of the area as the flow parameter of the road plane when the flow parameter of the area in the traveling direction of the own vehicle is similar to the flow parameter of the standard road plane. The image processing apparatus according to claim 1. 異なる時刻に撮像された複数の画像データを処理して、画像の各領域ごとのオプティカルフローを算出するオプティカルフロー算出ステップと、
算出された少なくとも4つのオプティカルフローが同一平面上のオプティカルフローであると仮定して、画像の各領域ごとのフローパラメータを算出するフローパラメータ算出ステップと、
算出されたフローパラメータが、道路平面のフローパラメータと類似する領域を、道路平面を構成する領域であると識別する領域識別ステップと、
を含む画像処理方法。
An optical flow calculation step of processing a plurality of image data captured at different times and calculating an optical flow for each region of the image;
Assuming that the calculated at least four optical flows are optical flows on the same plane, a flow parameter calculating step for calculating a flow parameter for each region of the image;
An area identifying step for identifying an area in which the calculated flow parameter is similar to the flow parameter of the road plane as an area constituting the road plane;
An image processing method including:
JP2006170239A 2006-06-20 2006-06-20 Image processing apparatus and image processing method Pending JP2008003696A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006170239A JP2008003696A (en) 2006-06-20 2006-06-20 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006170239A JP2008003696A (en) 2006-06-20 2006-06-20 Image processing apparatus and image processing method

Publications (1)

Publication Number Publication Date
JP2008003696A true JP2008003696A (en) 2008-01-10

Family

ID=39008042

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006170239A Pending JP2008003696A (en) 2006-06-20 2006-06-20 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP2008003696A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010244323A (en) * 2009-04-07 2010-10-28 Toyota Central R&D Labs Inc Road region estimating device and program
JP2011521320A (en) * 2008-04-15 2011-07-21 オートリブ エー・エス・ピー・インク Enhanced vision road detection system
JP2013186660A (en) * 2012-03-07 2013-09-19 Alpine Electronics Inc Lane mark detection device and lane mark search range setting method
WO2016151978A1 (en) * 2015-03-26 2016-09-29 パナソニックIpマネジメント株式会社 Image processing device, driving assistance system, and image processing method
WO2019092913A1 (en) * 2017-11-08 2019-05-16 クラリオン株式会社 Road surface area detection device

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011521320A (en) * 2008-04-15 2011-07-21 オートリブ エー・エス・ピー・インク Enhanced vision road detection system
JP2010244323A (en) * 2009-04-07 2010-10-28 Toyota Central R&D Labs Inc Road region estimating device and program
JP2013186660A (en) * 2012-03-07 2013-09-19 Alpine Electronics Inc Lane mark detection device and lane mark search range setting method
WO2016151978A1 (en) * 2015-03-26 2016-09-29 パナソニックIpマネジメント株式会社 Image processing device, driving assistance system, and image processing method
WO2019092913A1 (en) * 2017-11-08 2019-05-16 クラリオン株式会社 Road surface area detection device
JP2019087070A (en) * 2017-11-08 2019-06-06 クラリオン株式会社 Road surface region detecting apparatus
US11403770B2 (en) 2017-11-08 2022-08-02 Clarion Co., Ltd. Road surface area detection device

Similar Documents

Publication Publication Date Title
JP4899424B2 (en) Object detection device
JP3719095B2 (en) Behavior detection apparatus and gradient detection method
JP2020064046A (en) Vehicle position determining method and vehicle position determining device
EP2757527B1 (en) System and method for distorted camera image correction
US10187630B2 (en) Egomotion estimation system and method
JP2008168811A (en) Traffic lane recognition device, vehicle, traffic lane recognition method, and traffic lane recognition program
JP2006234492A (en) Object recognition device
JP6003673B2 (en) 3D position estimation apparatus, vehicle control apparatus, and 3D position estimation method
JP6552448B2 (en) Vehicle position detection device, vehicle position detection method, and computer program for vehicle position detection
JP5098563B2 (en) Object detection device
KR20060021922A (en) Two camera based obstacle detection method and device
JP2008003696A (en) Image processing apparatus and image processing method
JP5107154B2 (en) Motion estimation device
JP2000293693A (en) Obstacle detecting method and device
KR20180047149A (en) Apparatus and method for risk alarming of collision
JP2005156199A (en) Vehicle detection method and vehicle detector
JP2015064735A (en) Apparatus and method for estimating vehicle position
JP2007087203A (en) Collision determination system, collision determination method, and computer program
KR102003387B1 (en) Method for detecting and locating traffic participants using bird&#39;s-eye view image, computer-readerble recording medium storing traffic participants detecting and locating program
JP6488226B2 (en) Runway parameter estimation apparatus and program
JP2010071942A (en) Object detecting device
JP6841553B2 (en) Imaging device
JP2012256159A (en) Approaching object detecting device and method for detecting approaching object
JP6677141B2 (en) Parking frame recognition device
JP6668740B2 (en) Road surface estimation device