JP4555635B2 - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method Download PDF

Info

Publication number
JP4555635B2
JP4555635B2 JP2004252384A JP2004252384A JP4555635B2 JP 4555635 B2 JP4555635 B2 JP 4555635B2 JP 2004252384 A JP2004252384 A JP 2004252384A JP 2004252384 A JP2004252384 A JP 2004252384A JP 4555635 B2 JP4555635 B2 JP 4555635B2
Authority
JP
Japan
Prior art keywords
dimensional
image data
optical flow
image
pair
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004252384A
Other languages
Japanese (ja)
Other versions
JP2006072480A (en
Inventor
登 森光
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Fuji Jukogyo KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Jukogyo KK filed Critical Fuji Jukogyo KK
Priority to JP2004252384A priority Critical patent/JP4555635B2/en
Publication of JP2006072480A publication Critical patent/JP2006072480A/en
Application granted granted Critical
Publication of JP4555635B2 publication Critical patent/JP4555635B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像処理装置および画像処理方法に係り、ステレオ画像処理を併用した、オプティカルフローの検出手法に関する。   The present invention relates to an image processing apparatus and an image processing method, and to an optical flow detection method using stereo image processing together.

自車両に搭載されたカメラにより、前方の景色を撮像し、これにより得られた情報に基づいて、監視領域内の走行状況を監視する監視装置が広く知られている。この類の監視装置では、ステレオ画像処理、オプティカルフローといった周知の画像処理手法を用いて、走行状況の認識が行われる。また、車外監視装置において、認識精度の向上を図るといった観点から、画像情報のみならず、車両のヨーレート(角速度)等も参照される。車両に生じている角速度は、通常、センサ等を用いて直接的に検出される。しかしながら、センサ検出の場合、応答遅れ等により、認識精度が低下するといった不都合があるため、画像情報に基づいて、角速度を検出する手法も用いられている。例えば、特許文献1に開示された手法では、遠景が写し出された領域を便宜的に無限遠(無限に遠い点)と仮定し、無限遠のオプティカルフローに基づいて、角速度が算出される。
特開平11−51650号公報
2. Description of the Related Art A monitoring device that captures a scene in front by a camera mounted on a host vehicle and monitors a traveling state in a monitoring area based on information obtained thereby is widely known. In this type of monitoring device, the driving situation is recognized using a known image processing method such as stereo image processing or optical flow. In addition, not only image information but also the yaw rate (angular velocity) of the vehicle is referred to from the viewpoint of improving recognition accuracy in the outside monitoring apparatus. The angular velocity generated in the vehicle is usually directly detected using a sensor or the like. However, in the case of sensor detection, there is a disadvantage that the recognition accuracy is lowered due to a response delay or the like. Therefore, a method of detecting an angular velocity based on image information is also used. For example, in the method disclosed in Patent Document 1, an area where a distant view is projected is assumed to be infinity (a point far from infinity) for convenience, and the angular velocity is calculated based on the optical flow at infinity.
Japanese Patent Laid-Open No. 11-51650

しかしながら、撮像画像に写し出される景色には、必ずしも遠方の景色が含まれていない可能性もあり、このケースでは、無限遠におけるオプティカルフローの特定が困難になるという不都合がある。   However, the scenery projected in the captured image may not necessarily include a distant scenery, and in this case, there is an inconvenience that it becomes difficult to specify the optical flow at infinity.

本発明は、このような事情に鑑みてなされたものであり、その目的は、遠景や近景といった画像に写し出された景色に左右されず、無限遠におけるオプティカルフローを推定することである。   The present invention has been made in view of such circumstances, and an object of the present invention is to estimate an optical flow at infinity regardless of the scenery projected in an image such as a distant view or a close view.

かかる課題を解決するために、第1の発明は、画像処理装置を提供する。この画像処理装置は、移動体に搭載されており、移動体周囲の景色を撮像することにより、一対の画像データを時系列的に出力するステレオカメラと、一対の画像データを処理対象とした二次元マッチングに基づいて、視差を算出するとともに、1フレーム相当の画像データに関する視差群と、画像データにより規定される画像平面上の位置とが対応付けられた距離データを出力するステレオ画像処理部と、距離データに基づいて、複数の立体物を認識し、立体物のそれぞれの三次元位置を特定する認識部と、一対の画像データのうちの一方の画像データにおいて、時系列的な前後関係にある一対の画像データを処理対象とした二次元マッチングに基づいて、立体物のそれぞれのオプティカルフローを検出する検出部と、複数の立体物を投票対象として、一方の軸を視差、他方の軸をオプティカルフローとする二次元ヒストグラムを生成するとともに、複数の立体物の並びが直線状であることを拘束条件として、二次元ヒストグラムにおける投票パターンの傾向に基づき、無限遠におけるオフティカルフローを推定する演算部とを有する。 In order to solve this problem, the first invention provides an image processing apparatus. This image processing apparatus is mounted on a moving body, and captures a scene around the moving body to output a pair of image data in time series, and a pair of image data to be processed. A stereo image processing unit that calculates disparity based on dimensional matching and outputs distance data in which a disparity group related to image data corresponding to one frame is associated with a position on an image plane defined by the image data; Based on the distance data, a recognition unit that recognizes a plurality of three-dimensional objects and identifies each three-dimensional position of the three-dimensional object, and one image data of the pair of image data has a time-series context. based certain pair of image data into two-dimensional matching the processing target, voting a detection unit for detecting the respective optical flow of the three-dimensional object, a plurality of three-dimensional objects As an elephant, a two-dimensional histogram is generated with the parallax on one axis and the optical flow on the other axis. And an arithmetic unit for estimating an optical flow at infinity.

また、第1の発明において、演算部は、投票パターンを曲線で近似し、近似結果に基づいて、無限遠におけるオプティカルフローを推定してもよい。In the first invention, the calculation unit may approximate the voting pattern with a curve and estimate the optical flow at infinity based on the approximation result.

さらに、第1の発明において、演算部は、無限遠におけるオプティカルフローに基づいて、移動体の角速度を算出することが好ましい。   Furthermore, in the first invention, it is preferable that the calculation unit calculates an angular velocity of the moving body based on an optical flow at infinity.

第2の発明は、移動体に搭載され、移動体周囲の景色を撮像するステレオカメラから時系列的に出力される一対の画像データを処理対象とした画像処理方法を提供する。この画像処理方法は、一対の画像データを処理対象とした二次元マッチングに基づいて、視差を算出するとともに、1フレーム相当の画像データに関する視差群と、画像データにより規定される画像平面上の位置とが対応付けられた距離データを出力する第1のステップと、距離データに基づいて、複数の立体物を認識し、立体物のそれぞれの三次元位置を特定する第2のステップと、一対の画像データのうちの一方の画像データにおいて、時系列的な前後関係にある一対の画像データを処理対象とした二次元マッチングに基づいて、立体物のそれぞれのオプティカルフローを検出する第3のステップと、複数の立体物を投票対象として、一方の軸を視差、他方の軸をオプティカルフローとする二次元ヒストグラムを生成するステップと、複数の立体物の並びが直線状であることを拘束条件として、二次元ヒストグラムにおける投票パターンの傾向に基づき、無限遠におけるオプティカルフローを推定する第4のステップとを有する。 According to a second aspect of the present invention, there is provided an image processing method for processing a pair of image data mounted in a moving body and output in a time series from a stereo camera that captures a scene around the moving body. In this image processing method, a parallax is calculated based on two-dimensional matching with a pair of image data as processing targets, a parallax group related to image data corresponding to one frame, and a position on an image plane defined by the image data A first step of outputting distance data associated with each other, a second step of recognizing a plurality of three-dimensional objects based on the distance data, and specifying each three-dimensional position of the three-dimensional object, and a pair of A third step of detecting each optical flow of the three-dimensional object based on the two-dimensional matching in which one of the image data is processed in a pair of image data in a time-series context; as voting target multiple three-dimensional object, comprising the steps of: generating a two-dimensional histogram for the one axis parallax, the other axis and the optical flow, double As a constraint condition that the arrangement of the three-dimensional object is linear, based on the tendency of the voting pattern in the two-dimensional histogram, and a fourth step of estimating the optical flow in the infinity.

本発明によれば、ステレオカメラから時系列的に出力される一対の撮像画像に基づいて、距離データが算出され、この距離データを用いて立体物の認識が行われる。また、この一対の撮像画像のうちの一方の撮像画像を処理対象として、立体物のオプティカルフローが検出される。そして、認識された立体部の並びと、立体物の視差と、立体物のオプティカルフローとを条件として、無限遠におけるオプティカルフローが推定される。そのため、これらの3つの条件を備えることにより、遠景が写し出されていないよう画像を用いる場合であっても、無限遠におけるオプティカルフローを推定することができる。これにより、遠景や近景といった画像に写し出された景色に左右されず、無限遠におけるオプティカルフローを推定することができる。   According to the present invention, distance data is calculated based on a pair of captured images output in time series from a stereo camera, and a three-dimensional object is recognized using the distance data. In addition, the optical flow of the three-dimensional object is detected using one of the pair of captured images as a processing target. Then, the optical flow at infinity is estimated on the condition of the recognized arrangement of three-dimensional parts, the parallax of the three-dimensional object, and the optical flow of the three-dimensional object. Therefore, by providing these three conditions, the optical flow at infinity can be estimated even when an image is used so that a distant view is not projected. Thereby, the optical flow at infinity can be estimated regardless of the scenery projected on the image such as a distant view or a close view.

(第1の実施形態)
図1は、本実施形態にかかる画像処理装置を適用した角速度演算機能付き監視装置のブロック構成図である。監視装置1は、車両(移動体)に搭載されており、画像認識により、前方の走行状況を監視する。また、この監視装置1は、撮像画像に基づいて、オプティカルフローOFを検出し、走行状況の認識において必要となる車両の角速度ωを算出する。
(First embodiment)
FIG. 1 is a block diagram of a monitoring apparatus with an angular velocity calculation function to which the image processing apparatus according to the present embodiment is applied. The monitoring device 1 is mounted on a vehicle (moving body) and monitors the traveling state ahead by image recognition. Further, the monitoring device 1 detects the optical flow OF based on the captured image, and calculates the angular velocity ω of the vehicle that is necessary for recognition of the driving situation.

監視領域を含む景色を撮像するステレオカメラは、例えば、ルームミラー近傍に取付けられている。このステレオカメラは一対のカメラ2,3で構成されており、それぞれのカメラ2,3には、イメージセンサ(例えば、CCDまたはCMOSセンサ等)が内蔵されている。メインカメラ2は、ステレオ画像処理を行う際に必要な基準画像を撮像し、サブカメラ3は、比較画像を撮像する。互いの同期が取れている状態において、カメラ2,3から時系列的に出力される各アナログ画像(ステレオ画像)は、A/Dコンバータ4,5により、所定の輝度階調(例えば、256階調のグレースケール)のデジタル画像に変換される。   A stereo camera that captures a scene including a monitoring area is attached in the vicinity of a room mirror, for example. This stereo camera is composed of a pair of cameras 2 and 3, and each of the cameras 2 and 3 includes an image sensor (for example, a CCD or CMOS sensor). The main camera 2 captures a reference image necessary for performing stereo image processing, and the sub camera 3 captures a comparative image. Each analog image (stereo image) output in time series from the cameras 2 and 3 in a state where they are synchronized with each other is converted into a predetermined luminance gradation (for example, 256th floor) by the A / D converters 4 and 5. Tones).

デジタル化された一対の画像データは、画像補正部6において、輝度の補正や画像の幾何学的な変換等が行われる。通常、一対のカメラ2,3の取付位置は、程度の差はあるものの誤差が存在するため、それに起因したずれが左右の各画像に生じている。このずれを補正するために、アフィン変換等を用いて、画像の回転や平行移動等の幾何学的な変換が行われる。   A pair of digitized image data is subjected to brightness correction, image geometric conversion, and the like in the image correction unit 6. Usually, there is an error in the mounting position of the pair of cameras 2 and 3 although there is a difference in degree. Therefore, a shift caused by the error occurs in the left and right images. In order to correct this deviation, geometrical transformation such as image rotation or translation is performed using affine transformation or the like.

このような画像処理を経て、メインカメラ2より基準画像データが得られ、サブカメラ3より比較画像データが得られる。これらの画像データは、各画素の輝度値(0〜255)の集合である。ここで、画像データによって規定される画像平面は、i−j座標系で表現され、例えば、画像の左下隅を原点として、水平方向をi座標軸、垂直方向をj座標軸とする。一フレーム相当のステレオ画像データは、後段のステレオ画像処理部7に出力されるとともに、画像データメモリ8に格納される。後述するように、時系列的な前後関係にある一対の画像データに基づいてオプティカルフローOFを検出する関係上、画像データメモリ8は、少なくとも2フレーム分のステレオ画像データを格納可能な記憶容量を有する。   Through such image processing, reference image data is obtained from the main camera 2, and comparison image data is obtained from the sub camera 3. These image data are a set of luminance values (0 to 255) of each pixel. Here, the image plane defined by the image data is expressed in an ij coordinate system. For example, the lower left corner of the image is the origin, the horizontal direction is the i coordinate axis, and the vertical direction is the j coordinate axis. Stereo image data corresponding to one frame is output to the subsequent stereo image processing unit 7 and stored in the image data memory 8. As will be described later, the image data memory 8 has a storage capacity capable of storing at least two frames of stereo image data in order to detect the optical flow OF based on a pair of image data in a time-series context. Have.

ステレオ画像処理部7は、基準画像データと比較画像データとに基づいて、一フレーム相当の撮像画像に関する距離データDを算出する。ここで、「距離データ」とは、画像データによって規定される画像平面において小領域毎に算出された視差dの集合であり、個々の視差dは画像平面における位置(i,j)と対応付けられている。それぞれの視差dは、基準画像の一部を構成する所定面積(例えば、4×4画素)の画素ブロック毎に1つ算出される。   The stereo image processing unit 7 calculates distance data D related to the captured image corresponding to one frame based on the reference image data and the comparison image data. Here, the “distance data” is a set of parallax d calculated for each small area on the image plane defined by the image data, and each parallax d is associated with a position (i, j) on the image plane. It has been. Each parallax d is calculated for each pixel block of a predetermined area (for example, 4 × 4 pixels) constituting a part of the reference image.

図2は、基準画像に設定される画素ブロックの説明図である。例えば、基準画像が512×200画素で構成されている場合、一フレーム相当の撮像画像から、画素ブロックPBijの個数相当(128×50個)の視差群が算出され得る。周知のように、視差dは、その算出単位である画素ブロックPBijに関する水平方向のずれ量であり、画素ブロックPBijに写し出された対象物までの距離と大きな相関がある。すなわち、画素ブロックPBij内に写し出されている対象物がカメラ2,3に近いほど、この画素ブロックPBijの視差dは大きくなり、対象物が遠いほど視差dは小さくなる(無限に遠い場合(無限遠)、視差dは0になる)。   FIG. 2 is an explanatory diagram of pixel blocks set in the reference image. For example, when the reference image is composed of 512 × 200 pixels, a disparity group corresponding to the number of pixel blocks PBij (128 × 50) can be calculated from a captured image corresponding to one frame. As is well known, the parallax d is the amount of horizontal displacement with respect to the pixel block PBij that is the calculation unit, and has a large correlation with the distance to the object projected in the pixel block PBij. In other words, the closer the object projected in the pixel block PBij is to the cameras 2 and 3, the larger the parallax d of the pixel block PBij is, and the farther the object is, the smaller the parallax d is (if the object is infinitely far (infinite Far) and parallax d becomes 0).

ある画素ブロックPBij(相関元)に関する視差dを算出する場合、基準画像と比較画像とを処理対象とした二次元マッチングに基づいて、この画素ブロックPBijの輝度特性と相関を有する領域(相関先)を比較画像において特定する。上述したように、カメラ2,3から対象物までの距離は、基準画像と比較画像との間における水平方向のずれ量として現れる。したがって、比較画像において相関先を探索する場合、相関元となる画素ブロックPBijのj座標と同じ水平線(エピポーラライン)上を探索すればよい。ステレオ画像処理部7は、相関元のi座標を基準に設定された所定の探索範囲内において、エピポーラライン上を一画素ずつシフトしながら、相関元と相関先の候補との間の相関性を順次評価する(ステレオマッチング)。そして、原則として、最も相関が高いと判断される相関先(相関先の候補の内のいずれか)の水平方向のずれ量を、その画素ブロックPBijの視差dとする。   When calculating the parallax d related to a certain pixel block PBij (correlation source), a region (correlation destination) having a correlation with the luminance characteristic of the pixel block PBij based on two-dimensional matching with the reference image and the comparison image as processing targets Is specified in the comparative image. As described above, the distance from the cameras 2 and 3 to the object appears as a horizontal shift amount between the reference image and the comparison image. Therefore, when searching for the correlation destination in the comparison image, it is only necessary to search on the same horizontal line (epipolar line) as the j coordinate of the pixel block PBij as the correlation source. The stereo image processing unit 7 shifts the correlation between the correlation source candidate and the correlation destination candidate while shifting one pixel at a time on the epipolar line within a predetermined search range set based on the i coordinate of the correlation source. Sequential evaluation (stereo matching). In principle, the amount of horizontal deviation of the correlation destination (one of the correlation destination candidates) determined to have the highest correlation is defined as the parallax d of the pixel block PBij.

2つの画素ブロックPBijの相関は、例えば、シティブロック距離CBを算出することにより評価することができる。数式1は、シティブロック距離CBの基本形を示す。同数式において、p1ijは一方の画素ブロックのij番目の画素の輝度値であり、p2ijは他方の画素ブロックのij番目の輝度値である。シティブロック距離CBは、位置的に対応した輝度値p1ij,p2ijの差(絶対値)の画素ブロック全体における総和であって、その差が小さいほど両画素ブロックの相関が大きいことを意味している。   The correlation between the two pixel blocks PBij can be evaluated by, for example, calculating the city block distance CB. Formula 1 shows the basic form of the city block distance CB. In the equation, p1ij is the luminance value of the ijth pixel of one pixel block, and p2ij is the ijth luminance value of the other pixel block. The city block distance CB is the total sum of the differences (absolute values) of the luminance values p1ij and p2ij corresponding to each other in the entire pixel block, and the smaller the difference, the greater the correlation between both pixel blocks. .

Figure 0004555635
Figure 0004555635

基本的に、エピポーラライン上に存在する画素ブロックPBij毎に算出されたシティブロック距離CBのうち、その値が最小となる画素ブロックPBijが相関先と判断される。このようにして特定された相関先と相関元との間のずれ量が視差dとなる。なお、シティブロック距離CBを算出するステレオ画像処理部7のハードウェア構成については、特開平5−114099号公報に開示されているので、必要ならば参照されたい。このような処理を経て算出された距離データD、すなわち、画像上の位置(i,j)と対応付けられた視差dの集合は、距離データメモリ9に格納される。   Basically, of the city block distances CB calculated for each pixel block PBij existing on the epipolar line, the pixel block PBij having the smallest value is determined as the correlation destination. The amount of deviation between the correlation destination specified in this way and the correlation source is the parallax d. Note that the hardware configuration of the stereo image processing unit 7 for calculating the city block distance CB is disclosed in Japanese Patent Laid-Open No. 5-1114099, so refer to it if necessary. The distance data D calculated through such processing, that is, a set of parallax d associated with the position (i, j) on the image is stored in the distance data memory 9.

マイクロコンピュータ10は、CPU、ROM、RAM、入出力インターフェース等で構成されており、これを機能的に捉えた場合、認識部11、検出部12および演算部13を有する。認識部11は、距離データDに基づいて、それぞれの立体物Onの三次元位置を特定する。検出部12は、時系列的に前後関係にある一対の基準画像データを対象とした二次元マッチングに基づいて、立体物Onに関するオプティカルフローOFを検出する。演算部13は、距離データDと、複数の立体物Onの実空間における並びと、検出されたオプティカルフローOFとに基づいて、無限遠におけるオプティカルフローOFinfを推定する。そして、演算部13は、この推定されたオプティカルフローOFinfに基づいて、ステレオカメラ、すなわち、このステレオカメラが搭載された車両の角速度ωを算出する。   The microcomputer 10 includes a CPU, a ROM, a RAM, an input / output interface, and the like, and includes a recognition unit 11, a detection unit 12, and a calculation unit 13 when functionally grasping this. The recognition unit 11 specifies the three-dimensional position of each three-dimensional object On based on the distance data D. The detection unit 12 detects the optical flow OF related to the three-dimensional object On based on two-dimensional matching for a pair of reference image data that are in chronological order. The calculation unit 13 estimates the optical flow OFinf at infinity based on the distance data D, the arrangement of the plurality of three-dimensional objects On in the real space, and the detected optical flow OF. Then, based on the estimated optical flow OFinf, the calculation unit 13 calculates the angular velocity ω of the stereo camera, that is, the vehicle on which the stereo camera is mounted.

このマイクロコンピュータ10は、自車両の角速度ωが算出されると、この角速度ωを考慮した上で、例えば、立体物Onの移動速度を算出し、これにより前方の走行状況を認識する。そして、前方の立体物Onが自車両にとって危険である判断した場合には、モニタやスピーカー等の警報装置(図示せず)を作動させて、ドライバーに注意を促す。また、必要に応じて制御装置(図示せず)を制御することにより、シフトダウン、或いは、ブレーキの作動といった制御を実行する。   When the angular speed ω of the host vehicle is calculated, the microcomputer 10 calculates, for example, the moving speed of the three-dimensional object On in consideration of the angular speed ω, thereby recognizing the traveling state ahead. If it is determined that the front three-dimensional object On is dangerous for the host vehicle, an alarm device (not shown) such as a monitor or a speaker is activated to alert the driver. Further, control such as downshifting or brake operation is executed by controlling a control device (not shown) as necessary.

図3は、本実施形態にかかる角速度ωの算出手順を示したフローチャートである。このフローチャートに示したルーチンは、所定間隔毎に呼び出され、マイクロコンピュータ10によって実行される。以下、角速度ωとして、車両の鉛直軸周りの角速度(以下「ヨーイング角速度」という)ωyを算出する手法について説明する。まず、ステップ1において、距離データメモリ9より、距離データDが読み込まれるとともに、画像データメモリ8より、直近の撮像タイミングにおいて撮像された基準画像データ(以下単に「画像データPn」という))が読み込まれる。   FIG. 3 is a flowchart showing a procedure for calculating the angular velocity ω according to the present embodiment. The routine shown in this flowchart is called at predetermined intervals and executed by the microcomputer 10. Hereinafter, a method for calculating an angular velocity around the vertical axis of the vehicle (hereinafter referred to as “yaw angular velocity”) ωy as the angular velocity ω will be described. First, in step 1, distance data D is read from the distance data memory 9, and reference image data (hereinafter simply referred to as “image data Pn”) captured at the latest imaging timing is read from the image data memory 8. It is.

ステップ2において、自車両前方の道路形状が認識される。この道路形状は、例えば、道路モデルを算出することにより、認識可能である。道路モデルは、実空間を規定する三次元座標系において、水平方向および垂直方向における直線式で表現され、この直線式のパラメータを実際の道路形状に合致するような値に設定することにより、算出される。例えば、路面に描かれた車線を規定する白線(または黄線)は、道路形状を認識する上で有効である。そこで、距離データDおよび画像データPnを参照して、白線の実空間上の位置を認識し、この位置を連結することにより、道路モデルが算出される。実空間を規定する座標系は、車両を基準に設定されており、ステレオカメラの中央真下の道路面を原点として、車幅方向をy軸、車高方向をz軸、車長方向をx軸とする。   In step 2, the road shape ahead of the host vehicle is recognized. This road shape can be recognized, for example, by calculating a road model. The road model is expressed by a straight line expression in the horizontal and vertical directions in the three-dimensional coordinate system that defines the real space, and is calculated by setting the parameters of the straight line expression to values that match the actual road shape. Is done. For example, a white line (or yellow line) defining a lane drawn on the road surface is effective in recognizing the road shape. Therefore, the road model is calculated by recognizing the position of the white line in the real space with reference to the distance data D and the image data Pn and connecting the positions. The coordinate system that defines the real space is set on the basis of the vehicle, with the road surface directly below the center of the stereo camera as the origin, the vehicle width direction is the y axis, the vehicle height direction is the z axis, and the vehicle length direction is the x axis. And

ステップ3において、立体物Onの認識が行われる。立体物Onの認識では、まず、三次元データが算出される。この三次元データは、監視領域内の三次元位置(実空間上の位置)を示すデータであり、周知の座標変換式を参照することで、距離データDに基づいて、一義的に算出される。算出された三次元データは、道路モデルと比較され、道路面より上にあるデータが立体物Onとして抽出される。なお、道路形状および立体物の認識に関する具体的な手法については、特開平5−265547号公報、特開平6−266828号公報、特開平10−283461号公報、特開平10−283477号公報、特開平11−213138号公報、特開2001−92970号公報などに開示されているので必要ならば参照されたい。   In step 3, the three-dimensional object On is recognized. In the recognition of the three-dimensional object On, first, three-dimensional data is calculated. This three-dimensional data is data indicating a three-dimensional position (a position in the real space) in the monitoring area, and is uniquely calculated based on the distance data D by referring to a known coordinate conversion formula. . The calculated three-dimensional data is compared with a road model, and data above the road surface is extracted as a three-dimensional object On. For specific methods regarding the recognition of the road shape and the three-dimensional object, JP-A-5-265547, JP-A-6-266828, JP-A-10-283461, JP-A-10-283477, Since it is disclosed in Japanese Laid-Open Patent Publication No. 11-213138, Japanese Patent Laid-Open No. 2001-92970, etc., please refer to it if necessary.

ステップ4において、時系列的な前後関係にある一対の画像データを用いて、オプティカルフローOFが検出される。オプティカルフローOFは、時系列的に撮像された画像において、フレーム間の画素の流れ(移動量)をベクトルで表現したものであり、一般に、撮像タイミングが前の画像からそれよりも後の画像への画素の流れを示す。そこで、まず、先のステップ1において読み込まれた画像データPnよりもタイミング的に前に撮像された基準画像データPn-1(以下、適宜「前画像データ」という)が、画像データメモリ8より読み込まれる。そして、時系列的な前後関係にある一対の画像データPn,Pn-1を処理対象として、オプティカルフローOFが検出される。後述するように、本実施形態では、立体物Onに関する視差dと、その立体物Onに関するオプティカルフローOFとに基づいて、無限遠におけるオプティカルフローOFinfが推定される。そのため、煩雑な演算処理は省略するという観点から、オプティカルフローOFの検出は、視差dの算出単位である画素ブロックPBijをベースとして行われる。換言すれば、このオプティカルフローOFは、画像データPnを構成する各画素ブロックPBijに関する、前画像データPn-1からの移動量を示す。   In step 4, an optical flow OF is detected using a pair of image data having a time-series context. The optical flow OF represents a flow (movement amount) of a pixel between frames in an image captured in time series as a vector. In general, the imaging timing is changed from a previous image to a later image. The flow of the pixel is shown. Therefore, first, reference image data Pn-1 (hereinafter referred to as “previous image data” as appropriate) captured before the image data Pn read in Step 1 is read from the image data memory 8. It is. Then, the optical flow OF is detected using the pair of image data Pn and Pn-1 that are in chronological order as a processing target. As will be described later, in this embodiment, the optical flow OFinf at infinity is estimated based on the parallax d regarding the three-dimensional object On and the optical flow OF regarding the three-dimensional object On. Therefore, from the viewpoint of omitting complicated calculation processing, the detection of the optical flow OF is performed based on the pixel block PBij which is a unit for calculating the parallax d. In other words, this optical flow OF indicates the amount of movement from the previous image data Pn-1 for each pixel block PBij constituting the image data Pn.

具体的には、各画素ブロックPBijを処理対象として、この画素ブロックPBij(相関元)の輝度特性と相関を有する領域(相関先)が前画像データPn-1において特定される。オプティカルフローOFを検出する場合、上述したステレオマッチング処理とは異なり、相関元となる画素ブロックPBijを前画像データPn-1の全域に亘り水平/垂直方向に一画素ずつオフセットさせながら、最も高い相関を有する相関先を特定する(二次元マッチング)。そして、相関元と相関先の座標位置(i,j)を比較し、前画像データPn-1から画像データPnへの垂直方向(j軸方向)における位置的なずれ量Δjと、水平方向(i軸方向)における位置的なずれ量Δiとが、その画素ブロックPBijに関するオプティカルフローOFとなる。そして、検出されたオプティカルフローOF(水平成分Δi,垂直成分Δj)は、画像平面の位置(i,j)と対応付けられる。なお、オプティカルフローOFの算出対象となる基準画像データPn,Pn-1は、撮像タイミングが時系列的に前後していればよく、それらの撮像タイミングが連続している必要はない。また、オプティカルフローOFの検出領域は、画像平面の全域である必要はなく、少なくとも認識された立体物Onに関するオプティカルフローOFが検出されていればよい。   Specifically, for each pixel block PBij, a region (correlation destination) having a correlation with the luminance characteristic of the pixel block PBij (correlation source) is specified in the previous image data Pn-1. When detecting the optical flow OF, unlike the stereo matching process described above, the highest correlation is obtained by offsetting the pixel block PBij as a correlation source one pixel at a time in the horizontal / vertical direction over the entire area of the previous image data Pn-1. (2D matching) is specified. Then, the coordinate position (i, j) of the correlation source and the correlation destination is compared, the positional deviation amount Δj in the vertical direction (j-axis direction) from the previous image data Pn-1 to the image data Pn, and the horizontal direction ( The positional deviation amount Δi in the i-axis direction) is the optical flow OF related to the pixel block PBij. The detected optical flow OF (horizontal component Δi, vertical component Δj) is associated with the position (i, j) on the image plane. Note that the reference image data Pn and Pn-1 that are targets of calculation of the optical flow OF need only have the imaging timings before and after in time series, and the imaging timings do not have to be continuous. Further, the detection area of the optical flow OF does not have to be the entire area of the image plane, and it is sufficient that at least the optical flow OF related to the recognized three-dimensional object On is detected.

図4は、二次元ヒストグラムの説明図である。ステップ5において、各画素ブロックPBijに関して算出された視差dと、オプティカルフローOFの水平成分Δiとの頻度分布を示す二次元ヒストグラムが生成される。このステップ4では、まず、一方の軸を視差d、他方の軸をオプティカルフローOFの水平成分Δiとする投票空間が用意される。そして、各画素ブロックPBijは、自己に関する視差dと、オプティカルフローOFの水平成分Δiとに基づいて、該当する投票空間へ順次投票される。この投票処理が全ての画素ブロックPBijについて行われると、ステップ5に進む。   FIG. 4 is an explanatory diagram of a two-dimensional histogram. In step 5, a two-dimensional histogram showing the frequency distribution between the parallax d calculated for each pixel block PBij and the horizontal component Δi of the optical flow OF is generated. In step 4, first, a voting space is prepared in which one axis is parallax d and the other axis is a horizontal component Δi of the optical flow OF. Then, each pixel block PBij is sequentially voted to the corresponding voting space based on the parallax d related to itself and the horizontal component Δi of the optical flow OF. When this voting process is performed for all the pixel blocks PBij, the process proceeds to step 5.

ステップ6では、生成された二次元ヒストグラムに基づいて、無限遠におけるオプティカルフローOFinf(本実施形態では、オプティカルフローOFの水平成分Δiinf)が推定される。具体的には、まず、二次元ヒストグラムに基づいて、各画素ブロックPBijに関する投票パターンが曲線(本実施形態では、二次式)で近似される。二次式への近似手法としては、ハフ変換を用いることができる。ハフ変換は、直線、或いは任意の形状を有する対象物を画像から検出する周知の画像処理手法である。ハフ変換を用いて曲線を抽出する場合、まず、二次元ヒストグラムを度数に応じて二値化する。そして、二値化されたパターンに、ハフ変換を施すことにより、投票パターンに応じた二次曲線が抽出される。なお、二次式への近似は、ハフ変換以外にも、最小二乗法などを用いることができる。   In Step 6, based on the generated two-dimensional histogram, the optical flow OFinf at infinity (in this embodiment, the horizontal component Δiinf of the optical flow OF) is estimated. Specifically, first, the voting pattern for each pixel block PBij is approximated by a curve (in the present embodiment, a quadratic expression) based on the two-dimensional histogram. As an approximation method to the quadratic expression, Hough transform can be used. The Hough transform is a well-known image processing technique for detecting an object having a straight line or an arbitrary shape from an image. When extracting a curve using the Hough transform, first, the two-dimensional histogram is binarized according to the frequency. Then, by applying Hough transform to the binarized pattern, a quadratic curve corresponding to the voting pattern is extracted. For approximation to the quadratic expression, a least square method or the like can be used in addition to the Hough transform.

図5は、抽出された二次曲線の説明図である。同図には、ハフ変換により抽出された4つの二次曲線が示されており、各々の二次曲線は下式で表現することができる。ここで、同数式において、Pn,Qn,Δiinfは、二次曲線における係数(曲線パラメータ)である。

Figure 0004555635
FIG. 5 is an explanatory diagram of the extracted quadratic curve. The figure shows four quadratic curves extracted by the Hough transform, and each quadratic curve can be expressed by the following equation. Here, in the equation, Pn, Qn, and Δiinf are coefficients (curve parameters) in a quadratic curve.
Figure 0004555635

そして、この抽出された二次曲線における0次項、すなわち、定数項Δiinfが、無限遠におけるオプティカルフローOFinfの水平成分となる。なお、同図に示すように、複数の二次曲線が抽出されている場合(n=1〜4)、この水平成分Δiinfは、各二次曲線における定数項Δiinfの傾向を反映するような特性値(平均値、最頻値など)として算出される。   Then, the 0th order term in the extracted quadratic curve, that is, the constant term Δiinf becomes the horizontal component of the optical flow OFinf at infinity. As shown in the figure, when a plurality of quadratic curves are extracted (n = 1 to 4), the horizontal component Δiinf has a characteristic that reflects the tendency of the constant term Δiinf in each quadratic curve. It is calculated as a value (average value, mode value, etc.).

そして、ステップ7では、推定されたオプティカルフローOFinf(水平成分Δiinf)に基づいて、ヨーイング角速度ωyが算出される(下式参照)。

Figure 0004555635
In step 7, the yawing angular velocity ωy is calculated based on the estimated optical flow OFinf (horizontal component Δiinf) (see the following equation).
Figure 0004555635

ここで、Wiは、カメラ2,3における撮像素子の一画素あたりの水平幅であり、fは、カメラ2,3の焦点距離である。また、Δtは、前画像データPn-1の撮像タイミングと、画像データPnの撮像タイミングとの撮像間隔である。   Here, Wi is a horizontal width per pixel of the image sensor in the cameras 2 and 3, and f is a focal length of the cameras 2 and 3. Δt is an imaging interval between the imaging timing of the previous image data Pn-1 and the imaging timing of the image data Pn.

図6は、無限遠におけるオプティカルフローOFinfの推定概念の説明図である。同図は、カメラ2,3から観測される立体物Onを黒点で示している。これらの立体物Onを、旋回する車両(前進方向の速度(以下「前進速度」という)u、右方向を正とした横方向への速度(以下「横進速度」という)v、ヨーイング角速度ωy)から観測した場合、ある時刻t0の撮像タイミングにおいて、立体物Onは位置P(t0)に存在する。この時刻t0から所定時間経過すると(その時刻t1=t0+Δt)、車両の旋回にともない、対象物Onは位置P(t1)に移動する。同図には、時刻t0から時刻t1における立体物Onの移動量が矢印で示されており、この立体物Onの移動量は、時刻t0,t1を撮像タイミングとするフレーム間のオプティカルフローOFに相当する。   FIG. 6 is an explanatory diagram of an estimation concept of the optical flow OFinf at infinity. In the figure, the three-dimensional object On observed from the cameras 2 and 3 is indicated by black dots. These three-dimensional objects On are made to turn a vehicle (speed in the forward direction (hereinafter referred to as “forward speed”) u, speed in the lateral direction positive in the right direction (hereinafter referred to as “transverse speed”) v, yawing angular speed ωy. ), The three-dimensional object On exists at the position P (t0) at the imaging timing at a certain time t0. When a predetermined time has elapsed from this time t0 (that time t1 = t0 + Δt), the object On moves to the position P (t1) as the vehicle turns. In the figure, the movement amount of the three-dimensional object On from the time t0 to the time t1 is indicated by an arrow, and the movement amount of the three-dimensional object On is represented by an optical flow OF between frames with the imaging timings at the times t0 and t1. Equivalent to.

車両が旋回している場合、検出される立体物OnのオプティカルフローOFには、車両の速度成分(前進速度u、横進速度v)に起因した画素の流れと、車両の回転成分(ヨーイング角速度ωy)に起因した画素の流れとが作用する。ところで、自車両と立体物Onとが位置的に近い場合、画素の流れの主要因は、車両の速度成分と見なすことができる。これに対して、自車両と立体物Onとが位置的に離れている場合には、その距離が遠ければ遠いほど、画素の流れに占める車両の速度成分の影響はほぼ0と見なすことができる。そのため、画像平面におけるオプティカルフローOFのうち、遠景を写し出した領域のオプティカルフローOFは、近景を写し出した領域のオプティカルフローOFと比較して、速度成分に起因した画素の流れが抑制され、回転成分に起因した画素の流れが顕著となる。すなわち、無限遠のオプティカルフローOFinfには、速度成分に起因した画素の流れは作用せず、カメラ2,3(或いは、カメラ2,3が搭載された移動体)の回転に起因した画素の流れが作用する(それ故に、ヨーイング角速度ωyが算出可能となる)。この場合、近景から遠景に亘り、ある直線上に並ぶ立体物On(或いは、複数の立体物群)に関しては、そのオプティカルフローOFに、速度成分の画素の抑制傾向が規則的に現れる。そこで、このようなオプティカルフローOFの規則性を特定することで、画像上に無限遠の景色が写し出されていないケースであっても、立体物Onの並びを拘束条件として、無限遠のオプティカルフローOFinfを推定することが可能となる。   When the vehicle is turning, the detected optical flow OF of the three-dimensional object On includes the pixel flow caused by the vehicle speed components (forward speed u, lateral speed v) and the rotational component of the vehicle (yawing angular velocity). pixel flow caused by ωy). By the way, when the host vehicle and the three-dimensional object On are close in position, the main factor of the pixel flow can be regarded as a speed component of the vehicle. On the other hand, when the own vehicle and the three-dimensional object On are separated from each other, the influence of the speed component of the vehicle on the pixel flow can be regarded as almost zero as the distance increases. . Therefore, out of the optical flow OF on the image plane, the optical flow OF in the region where the distant view is projected is compared with the optical flow OF in the region where the distant view is projected, and the flow of pixels due to the velocity component is suppressed, and the rotation component The pixel flow resulting from the above becomes remarkable. In other words, the pixel flow caused by the velocity component does not act on the optical flow OFinf at infinity, and the pixel flow caused by the rotation of the cameras 2 and 3 (or the moving body on which the cameras 2 and 3 are mounted). (Thus, the yawing angular velocity ωy can be calculated). In this case, regarding the three-dimensional object On (or a plurality of three-dimensional object groups) arranged on a certain straight line from the near view to the distant view, the suppression tendency of the pixels of the speed component regularly appears in the optical flow OF. Therefore, by specifying the regularity of such an optical flow OF, even if the scene at infinity is not projected on the image, the optical flow at infinity is bounded by the arrangement of the three-dimensional object On. OFinf can be estimated.

もっとも、車外監視において認識される立体物Onには、先行車や障害物といった立体物Onも存在するが、これ以外にも、ガードレールや側壁といった直線状に並ぶ立体物Onも存在する。車両を基準とした三次元座標系において、立体物Onがなす直線は、下式で表現できる。同数式において、Gn,Hnは、直線パラメータ(一次式の係数)であり、添え字nによりn個の直線群を表現することができる。

Figure 0004555635
Of course, the three-dimensional object On recognized in the outside monitoring includes a three-dimensional object On such as a preceding vehicle and an obstacle, but there are also three-dimensional objects On arranged in a straight line such as a guardrail and a side wall. In the three-dimensional coordinate system based on the vehicle, the straight line formed by the three-dimensional object On can be expressed by the following equation. In the equation, Gn and Hn are straight line parameters (coefficients of a linear expression), and n straight line groups can be expressed by the subscript n.
Figure 0004555635

これらの直線群を構成する立体物Onを、画像の水平座標iと、視差dとで構成される二次元平面上で観測すると、上記のn個の直線は、下式で表現される。下式において、Lは、ステレオカメラにおけるカメラ基線長である。

Figure 0004555635
When the three-dimensional object On constituting these straight line groups is observed on a two-dimensional plane composed of the horizontal coordinate i of the image and the parallax d, the above n straight lines are expressed by the following equation. In the following formula, L is the camera baseline length in the stereo camera.
Figure 0004555635

この直線上に並ぶ立体物OnのオプティカルフローOFを、前進速度u、右横進速度v、ヨーイング角速度ωyで運動するカメラ2,3から観測する。この場合、この対象物Onの視差dと、オプティカルフローOFの水平成分Δiとは、以下に示す2次式で表現される。

Figure 0004555635
The optical flow OF of the three-dimensional object On aligned on the straight line is observed from the cameras 2 and 3 that move at the forward speed u, the right lateral speed v, and the yawing angular speed ωy. In this case, the parallax d of the object On and the horizontal component Δi of the optical flow OF are expressed by the following quadratic expression.
Figure 0004555635

本実施形態では、このような概念を踏まえ、直線状に並ぶ立体物Onがカメラ2,3から観測されるという前提のもと(拘束条件)、二次元ヒストグラムが生成される。そして、このヒストグラムにおける投票パターンから、数式6(すなわち、数式2)の曲線パラメータを同定する。これにより、無限遠(d=0)におけるオプティカルフローOFinfを推定することができる。換言すれば、立体物Onの視差d(二次元ヒストグラムの一方の軸)と、この立体物のオプティカルフローOF(二次元ヒストグラムの他方の軸)と、立体物の並びとに基づいて、無限遠におけるオプティカルフローOFinfを推定することができる。これにより、遠景が写し出されていないよう画像を用いる場合であっても、無限遠におけるオプティカルフローOFinfを推定することができる。また、無限遠におけるオプティカルフローOFinfを推定することにより、車両、すなわち、カメラ2,3が搭載された移動体のヨーイング角速度ωyを算出することができる。   In the present embodiment, based on such a concept, a two-dimensional histogram is generated on the assumption that the solid objects On aligned in a straight line are observed from the cameras 2 and 3 (constraint conditions). And the curve parameter of Formula 6 (namely, Formula 2) is identified from the vote pattern in this histogram. Thereby, the optical flow OFinf at infinity (d = 0) can be estimated. In other words, based on the parallax d of the three-dimensional object On (one axis of the two-dimensional histogram), the optical flow OF of the three-dimensional object (the other axis of the two-dimensional histogram), and the arrangement of the three-dimensional object, it is infinite. The optical flow OFinf at can be estimated. Thereby, even if it is a case where an image is used so that a distant view is not projected, the optical flow OFinf at infinity can be estimated. Further, by estimating the optical flow OFinf at infinity, the yawing angular velocity ωy of the vehicle, that is, the moving body on which the cameras 2 and 3 are mounted can be calculated.

(第2の実施形態)
第1の実施形態の特徴の一つは、投票パターンを曲線で近似し、この近似結果に基づいて、無限遠におけるオプティカルフローOFinfを推定することにある。これに対して、第2の実施形態の特徴の一つは、第1の実施形態よりも簡単な構成を用いて無限遠におけるオプティカルフローOFinfを推定する点にある。具体的には、第2の実施形態では、上述した二次元ヒストグラムに基づいて、投票パターンの重み付け平均値を算出し(下式参照)、この算出結果に基づいて、無限遠におけるオプティカルフローOFinfが推定される。

Figure 0004555635
(Second Embodiment)
One of the features of the first embodiment is that the voting pattern is approximated by a curve, and the optical flow OFinf at infinity is estimated based on this approximation result. On the other hand, one of the features of the second embodiment is that the optical flow OFinf at infinity is estimated using a simpler configuration than the first embodiment. Specifically, in the second embodiment, the weighted average value of the voting pattern is calculated based on the above-described two-dimensional histogram (see the following formula), and the optical flow OFinf at infinity is calculated based on the calculation result. Presumed.
Figure 0004555635

第1の実施形態で示すように、二次元ヒストグラムにおいて、直線状に並ぶ立体物Onの投票パターンは、無限遠におけるオプティカルフローOFinfに収束する傾向にある。そこで、同数式は、二次元ヒストグラムの頻度h(d、Δi)と重みw(d)を用い、遠景のデータ程重みを増やし、これにより、近景のデータの影響を抑制し、遠景のデータに基づいて、無限遠におけるオプティカルフローOFinfを推定する。この重みw(d)は、例えば、下式に示す如く設定することができる。下式において、D1は、遠景と中近景との境界を示す第1の視差の値であり、D2は、中近景と近景との境界を示す第2の視差であり、二次元ヒストグラムにおける投票総数などを考慮した上で、予め設定されている。 As shown in the first embodiment, in the two-dimensional histogram, the voting pattern of the three-dimensional objects On arranged in a straight line tends to converge to the optical flow OFinf at infinity. Therefore, this equation uses the frequency h (d, Δi) and the weight w (d) of the two-dimensional histogram to increase the weight of the distant view data, thereby suppressing the influence of the distant view data and converting the distant view data into the distant view data. Based on this, the optical flow OFinf at infinity is estimated. This weight w (d) can be set as shown in the following equation, for example. In the following equation, D1 is a first parallax value indicating a boundary between a distant view and a middle foreground, D2 is a second parallax indicating a boundary between the middle and foreground, and the total number of votes in the two-dimensional histogram Is set in advance in consideration of the above.

このように、投票パターンの重み付け平均値(正確には、オプティカルフローOFの重み付け平均値)に基づいて、無限遠(視差d=0)におけるオプティカルフローOFinfが推定される。この手法によれば、第1の実施形態と同様に、無限遠におけるオプティカルフローOFinfを推定することができるとともに、二次式への近似処理を省略することができるので、その処理を簡素化することができる。これにより、コンピュータによる処理負荷を軽減することができる。   As described above, the optical flow OFinf at infinity (parallax d = 0) is estimated based on the weighted average value of the voting pattern (more precisely, the weighted average value of the optical flow OF). According to this method, as in the first embodiment, the optical flow OFinf at infinity can be estimated, and the approximation process to the quadratic expression can be omitted, so that the process is simplified. be able to. Thereby, the processing load by the computer can be reduced.

なお、第1および第2の実施形態では、角速度としてはヨーレート角速度ωyを算出する手法について説明した。しかしながら、本発明は、これに限定されず、無限遠におけるオプティカルフローOFinfに基づいて、車両の横軸周り、すなわち、ピッチング方向の角速度(以下「ピッチング角速度」という)を算出することもできる。上述した実施形態では、ヨーイング角速度ωyを検出する前提として、二次元ヒストグラムの一方の軸を、回転成分(ヨーイング成分)の画素の流れ、すなわち、オプティカルフローOFの水平成分Δiに設定した。しかしながら、ピッチング角速度を算出する場合には、この軸を、回転成分(ピッチング成分)の画素の流れ、すなわち、オプティカルフローOFの垂直成分Δjに設定する。そして、この二次元ヒストグラムにおいて、投票パターンを二次式で近似し、無限遠におけるオプティカルフローOFinfの垂直成分が推定される。そのため、この推定されたオプティカルフローOFの垂直成分に基づいて、ピッチング角速度を一義的に算出することが可能となる。   In the first and second embodiments, the method for calculating the yaw rate angular velocity ωy as the angular velocity has been described. However, the present invention is not limited to this, and based on the optical flow OFinf at infinity, the angular velocity around the horizontal axis of the vehicle, that is, the angular velocity in the pitching direction (hereinafter referred to as “pitching angular velocity”) can also be calculated. In the above-described embodiment, as a premise for detecting the yawing angular velocity ωy, one axis of the two-dimensional histogram is set to the rotation component (yaw component) pixel flow, that is, the horizontal component Δi of the optical flow OF. However, when calculating the pitching angular velocity, this axis is set to the pixel flow of the rotation component (pitching component), that is, the vertical component Δj of the optical flow OF. In this two-dimensional histogram, the voting pattern is approximated by a quadratic expression, and the vertical component of the optical flow OFinf at infinity is estimated. Therefore, the pitching angular velocity can be uniquely calculated based on the estimated vertical component of the optical flow OF.

また、数式6に示すように、二次元ヒストグラムに基づいて、投票パターンを二次式で近似することにより、各次数の係数もそれぞれ同定される。これにより、その係数のうちの未知数、例えば、前進速度uや、横進速度vをも推定することが可能となる。   Further, as shown in Formula 6, the coefficients of the respective orders are also identified by approximating the voting pattern by a quadratic expression based on the two-dimensional histogram. This makes it possible to estimate an unknown number of the coefficients, for example, the forward speed u and the lateral speed v.

なお、上述した各実施形態では、車外を監視する監視装置を前提とした関係上、無限遠におけるオプティカルフローOFinfに基づいて、車両の角速度を算出したが、本発明はこれに限定されない。すなわち、カメラ2,3が搭載されるケースとしては、車両に限定されるものではなく、飛行体などを含め種々の移動体に搭載され、この角速度算出に広く適用することができる。また、無限遠におけるオプティカルフローOFinfは、カメラの回転成分を有効に抽出することができるので、本発明にかかる画像処理装置は、動画像や静止画像の撮影における、カメラの手ぶれ補正機能として適用することができる。すなわち、本発明において、カメラ2,3が搭載される移動体は、カメラ2,3にぶれを生じさせる要素を広く含むこととする。   In each of the above-described embodiments, the angular velocity of the vehicle is calculated based on the optical flow OFinf at infinity on the premise of a monitoring device that monitors the outside of the vehicle, but the present invention is not limited to this. That is, the case where the cameras 2 and 3 are mounted is not limited to the vehicle, but can be mounted on various moving bodies including a flying body and can be widely applied to the angular velocity calculation. In addition, since the optical flow OFinf at infinity can effectively extract the rotation component of the camera, the image processing apparatus according to the present invention is applied as a camera shake correction function for shooting moving images and still images. be able to. That is, in the present invention, the moving body on which the cameras 2 and 3 are mounted widely includes elements that cause the cameras 2 and 3 to shake.

本実施形態にかかる画像処理装置を適用した角速度演算機能付き車外監視装置のブロック構成図Block configuration diagram of a vehicle exterior monitoring device with an angular velocity calculation function to which the image processing device according to the present embodiment is applied. 基準画像に設定される画素ブロックの説明図Explanatory drawing of the pixel block set to the reference image 角速度の算出手順を示したフローチャートFlow chart showing the calculation procedure of angular velocity 二次元ヒストグラムの説明図Illustration of two-dimensional histogram 抽出された二次曲線の説明図Illustration of the extracted quadratic curve 無限遠におけるオプティカルフローOFinfの推定概念の説明図Illustration of optical flow OFinf estimation concept at infinity

符号の説明Explanation of symbols

1 監視装置
2 メインカメラ
3 サブカメラ
4,5 A/Dコンバータ
6 画像補正部
7 ステレオ画像処理部
8 画像データメモリ
9 距離データメモリ
10 マイクロコンピュータ
11 認識部
12 検出部
13 演算部
OF オプティカルフロー
Δi 水平成分
Δj 垂直成分
D 距離データ
u 前進速度
v 横進速度
DESCRIPTION OF SYMBOLS 1 Monitoring apparatus 2 Main camera 3 Sub camera 4,5 A / D converter 6 Image correction part 7 Stereo image processing part 8 Image data memory 9 Distance data memory 10 Microcomputer 11 Recognition part 12 Detection part 13 Calculation part OF Optical flow (DELTA) i Horizontal Component Δj Vertical component D Distance data u Forward speed v Lateral speed

Claims (4)

画像処理装置において、
移動体に搭載されており、前記移動体周囲の景色を撮像することにより、一対の画像データを時系列的に出力するステレオカメラと、
前記一対の画像データを処理対象とした二次元マッチングに基づいて、視差を算出するとともに、1フレーム相当の画像データに関する視差群と、当該画像データにより規定される画像平面上の位置とが対応付けられた距離データを出力するステレオ画像処理部と、
前記距離データに基づいて、複数の立体物を認識し、前記立体物のそれぞれの三次元位置を特定する認識部と、
前記一対の画像データのうちの一方の画像データにおいて、時系列的な前後関係にある一対の画像データを処理対象とした二次元マッチングに基づいて、前記立体物のそれぞれのオプティカルフローを検出する検出部と、
前記複数の立体物を投票対象として、一方の軸を視差、他方の軸をオプティカルフローとする二次元ヒストグラムを生成するとともに、前記複数の立体物の並びが直線状であることを拘束条件として、当該二次元ヒストグラムにおける投票パターンの傾向に基づき、無限遠におけるオフティカルフローを推定する演算部と
を有することを特徴とする画像処理装置。
In the image processing apparatus,
A stereo camera that is mounted on a moving body and outputs a pair of image data in a time series by imaging the scenery around the moving body,
The parallax is calculated based on the two-dimensional matching with the pair of image data as processing targets, and the parallax group related to the image data corresponding to one frame is associated with the position on the image plane defined by the image data. A stereo image processing unit for outputting the obtained distance data;
A recognition unit that recognizes a plurality of three-dimensional objects based on the distance data, and identifies each three-dimensional position of the three-dimensional object;
Detection that detects the optical flow of each of the three-dimensional objects based on two-dimensional matching in which one of the pair of image data is a processing target of a pair of image data in a time-series context. And
While generating a two-dimensional histogram with the plurality of three-dimensional objects as voting targets, with one axis being parallax and the other axis being an optical flow, the constraint that the arrangement of the plurality of three-dimensional objects is linear, An image processing apparatus comprising: an arithmetic unit that estimates an optical flow at infinity based on a tendency of a voting pattern in the two-dimensional histogram .
前記演算部は、前記投票パターンを曲線で近似し、当該近似結果に基づいて、前記無限遠におけるオプティカルフローを推定することを特徴とする請求項に記載された画像処理装置。 The image processing apparatus according to claim 1 , wherein the arithmetic unit approximates the voting pattern with a curve and estimates an optical flow at the infinity based on the approximation result. 前記演算部は、前記無限遠におけるオプティカルフローに基づいて、前記移動体の角速度を算出することを特徴とする請求項1または2のいずれかに記載された画像処理装置。 The arithmetic unit, based on the optical flow in the infinity, the image processing apparatus according to claim 1 or 2, characterized in that to calculate the angular velocity of the moving body. 移動体に搭載され、前記移動体周囲の景色を撮像するステレオカメラから時系列的に出力される一対の画像データを処理対象とした画像処理方法において、
前記一対の画像データを処理対象とした二次元マッチングに基づいて、視差を算出するとともに、1フレーム相当の画像データに関する視差群と、当該画像データにより規定される画像平面上の位置とが対応付けられた距離データを出力する第1のステップと、
前記距離データに基づいて、複数の立体物を認識し、前記立体物のそれぞれの三次元位置を特定する第2のステップと、
前記一対の画像データのうちの一方の画像データにおいて、時系列的な前後関係にある一対の画像データを処理対象とした二次元マッチングに基づいて、前記立体物のそれぞれのオプティカルフローを検出する第3のステップと、
前記複数の立体物を投票対象として、一方の軸を視差、他方の軸をオプティカルフローとする二次元ヒストグラムを生成するステップと、前記複数の立体物の並びが直線状であることを拘束条件として、当該二次元ヒストグラムにおける投票パターンの傾向に基づき、無限遠におけるオフティカルフローを推定する第4のステップと
を有することを特徴とする画像処理方法。
In an image processing method for processing a pair of image data mounted in a moving body and output in a time series from a stereo camera that captures the scenery around the moving body,
The parallax is calculated based on the two-dimensional matching with the pair of image data as processing targets, and the parallax group related to the image data corresponding to one frame is associated with the position on the image plane defined by the image data. A first step of outputting the obtained distance data;
A second step of recognizing a plurality of three-dimensional objects based on the distance data and specifying the three-dimensional position of each of the three-dimensional objects;
A first optical data of the three-dimensional object is detected based on two-dimensional matching in which one of the pair of image data is a processing target of a pair of image data having a time-series context. 3 steps,
The step of generating a two-dimensional histogram in which the plurality of three-dimensional objects are to be voted, one axis is parallax and the other axis is an optical flow, and the arrangement of the plurality of three-dimensional objects is linear. And a fourth step of estimating an optical flow at infinity based on the tendency of the voting pattern in the two-dimensional histogram .
JP2004252384A 2004-08-31 2004-08-31 Image processing apparatus and image processing method Expired - Fee Related JP4555635B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004252384A JP4555635B2 (en) 2004-08-31 2004-08-31 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004252384A JP4555635B2 (en) 2004-08-31 2004-08-31 Image processing apparatus and image processing method

Publications (2)

Publication Number Publication Date
JP2006072480A JP2006072480A (en) 2006-03-16
JP4555635B2 true JP4555635B2 (en) 2010-10-06

Family

ID=36153081

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004252384A Expired - Fee Related JP4555635B2 (en) 2004-08-31 2004-08-31 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP4555635B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006134035A (en) * 2004-11-05 2006-05-25 Fuji Heavy Ind Ltd Moving object detecting device and moving object detecting method
JP2017102832A (en) * 2015-12-04 2017-06-08 株式会社Soken Vehicle pitch angle estimation device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07162845A (en) * 1993-12-02 1995-06-23 Honda Motor Co Ltd Mobile object detector
JP2000251199A (en) * 1999-03-01 2000-09-14 Yazaki Corp Rear side part monitoring device for vehicle
JP2000315255A (en) * 1999-03-01 2000-11-14 Yazaki Corp Back side direction monitoring device for vehicle and back side direction monitoring alarm device for vehicle
JP2001213254A (en) * 2000-01-31 2001-08-07 Yazaki Corp Side monitoring device for vehicle
JP2004013400A (en) * 2002-06-05 2004-01-15 Fuji Heavy Ind Ltd Object recognition device and object recognition method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07162845A (en) * 1993-12-02 1995-06-23 Honda Motor Co Ltd Mobile object detector
JP2000251199A (en) * 1999-03-01 2000-09-14 Yazaki Corp Rear side part monitoring device for vehicle
JP2000315255A (en) * 1999-03-01 2000-11-14 Yazaki Corp Back side direction monitoring device for vehicle and back side direction monitoring alarm device for vehicle
JP2001213254A (en) * 2000-01-31 2001-08-07 Yazaki Corp Side monitoring device for vehicle
JP2004013400A (en) * 2002-06-05 2004-01-15 Fuji Heavy Ind Ltd Object recognition device and object recognition method

Also Published As

Publication number Publication date
JP2006072480A (en) 2006-03-16

Similar Documents

Publication Publication Date Title
JP5926228B2 (en) Depth detection method and system for autonomous vehicles
JP3719095B2 (en) Behavior detection apparatus and gradient detection method
JP4956452B2 (en) Vehicle environment recognition device
EP3176013B1 (en) Predictive suspension control for a vehicle using a stereo camera sensor
JP4803927B2 (en) Distance correction apparatus and distance correction method for monitoring system
JP4876080B2 (en) Environment recognition device
JP4714104B2 (en) Object tilt detection device
EP2757527B1 (en) System and method for distorted camera image correction
US9513108B2 (en) Sensor system for determining distance information based on stereoscopic images
JP4032843B2 (en) Monitoring system and monitoring method, distance correction device and distance correction method in the monitoring system
JP2019066302A (en) Object estimation device
JP4956099B2 (en) Wall detector
JP4067340B2 (en) Object recognition device and object recognition method
JP6543935B2 (en) PARALLEL VALUE DERIVING DEVICE, DEVICE CONTROL SYSTEM, MOBILE OBJECT, ROBOT, PARALLEL VALUE DERIVING METHOD, AND PROGRAM
JP2005214914A (en) Traveling speed detecting device and traveling speed detection method
JP2009239485A (en) Vehicle environment recognition apparatus and preceding-vehicle follow-up control system
JP2001076128A (en) Device and method for detecting obstacle
JP4555635B2 (en) Image processing apparatus and image processing method
JP2006072757A (en) Object detection system
JP3951734B2 (en) Vehicle external recognition device
JP4531366B2 (en) Approach determination device and approach determination method
KR102002228B1 (en) Apparatus and Method for Detecting Moving Object
JP2004102323A (en) Image processing device and method
JP6836350B2 (en) Movement speed arithmetic unit
JP2004220281A (en) Obstacle detecting device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070625

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100426

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100506

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100624

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100713

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100716

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130723

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4555635

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees