JP2007257026A - Mobile object monitoring device - Google Patents

Mobile object monitoring device Download PDF

Info

Publication number
JP2007257026A
JP2007257026A JP2006076964A JP2006076964A JP2007257026A JP 2007257026 A JP2007257026 A JP 2007257026A JP 2006076964 A JP2006076964 A JP 2006076964A JP 2006076964 A JP2006076964 A JP 2006076964A JP 2007257026 A JP2007257026 A JP 2007257026A
Authority
JP
Japan
Prior art keywords
image
template
moving body
optical flow
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006076964A
Other languages
Japanese (ja)
Other versions
JP4675808B2 (en
Inventor
Hirotaka Iwano
博隆 岩野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
HCX Corp
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Hitachi Ltd
HCX Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd, Hitachi Ltd, HCX Corp filed Critical Clarion Co Ltd
Priority to JP2006076964A priority Critical patent/JP4675808B2/en
Publication of JP2007257026A publication Critical patent/JP2007257026A/en
Application granted granted Critical
Publication of JP4675808B2 publication Critical patent/JP4675808B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To perform precise matching while suppressing the elongation of time necessary for computation processing in a mobile object monitoring device. <P>SOLUTION: The device comprises a mobile object detection means 10 for detecting a plurality of blocks Bij including an approaching another vehicle 200 on the basis of images P(n), P(n+1) consecutive in time series composing a video photographed by a camera 80; a correlation method computing means 40 for obtaining an optical flow OF through a correlation method. The computing means 40 has a compensation interpolating means 41 for applying subpixelization to local sections in which the differences from averaged brightness of the blocks Bij are larger than a prescribed threshold among the blocks Bij as templates T and the whole of the next image P(n+1) as a search range, and template matching is implemented at pixel intervals obtained by the subpixelization. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、移動体監視装置に関し、詳細には、カメラから得られた映像に基づいたオプティカルフローの検出の改良に関する。   The present invention relates to a moving object monitoring apparatus, and more particularly to an improvement in optical flow detection based on video obtained from a camera.

近年、カメラにより撮像された映像に基づいて、このカメラに接近する移動体のオプティカルフローを求める移動体監視装置が提案されている。   In recent years, there has been proposed a moving body monitoring apparatus that obtains an optical flow of a moving body that approaches the camera based on an image captured by the camera.

ここで、オプティカルフローとは、移動体解析手法の一つであり、カメラに対する移動体の相対的な動きによって生じる画像状の各点の速度場を意味し、画像の輝度情報あるいは濃度情報(画像信号)に基づいて画像中の各部分の動きを解析し、この動きを速度ベクトルによって表現することで、移動体の運動を表し、相関法(テンプレートマッチング(ブロックマッチング)法)と勾配法とがある。   Here, the optical flow is one of moving body analysis methods, and means the velocity field of each point of the image generated by the relative movement of the moving body with respect to the camera. The motion of each part in the image is analyzed based on the signal), and this motion is expressed by the velocity vector to express the motion of the moving body. The correlation method (template matching (block matching) method) and the gradient method are is there.

相関法は、特徴的なテクスチャが存在する等の移動体のオプティカルフローの検出に好適であり、映像を構成する時系列的に連続する複数の画像のうち任意の画像(第Nフレーム)における移動体を含む画像部分(第Nフレームの画像の一部分)をテンプレートとし、この任意の画像(第Nフレーム)に時系列的に後続した画像(第(N+1)フレーム)を探索範囲としたテンプレートマッチングにより、テンプレートと同一または類似の画像部分(第(N+1)フレームの画像の一部分)を、後続した画像(第(N+1)フレーム)から検出し、両画像間(第Nフレームの画像と第(N+1)フレーム)で対応する画像部分同士(第Nフレームの画像の一部分と第(N+1)フレームの画像の一部分)の、空間的な位置関係(第Nフレームにおける位置(Xn,Yn)→第(N+1)フレームにおける位置(X(n+1),Y(n+1)))に基づいて、当該画像部分の速度ベクトルを求める手法である。   The correlation method is suitable for detection of an optical flow of a moving object such as the presence of a characteristic texture, and movement in an arbitrary image (Nth frame) among a plurality of time-sequential images constituting a video. By template matching using an image portion including a body (a part of an image of the Nth frame) as a template and an image (the (N + 1) th frame) following this arbitrary image (Nth frame) in time series as a search range , An image portion identical to or similar to the template (a part of the image of the (N + 1) th frame) is detected from the subsequent image (the (N + 1) th frame), and between both images (the image of the Nth frame and the (N + 1) th frame). Spatial positional relationship (the Nth frame) between the corresponding image parts in the frame) (a part of the image of the Nth frame and a part of the image of the (N + 1) th frame) Definitive position (Xn, Yn) → position in the (N + 1) frame based on (X (n + 1), Y (n + 1))), a method of obtaining the velocity vector of the image part.

一方、勾配法は、外表面が比較的滑らかで、かつ外表面の彩度変化が少ない移動体のオプティカルフローの検出に好適であり、画像部分の局所の濃度パターンは運動(移動)後も不変に保たれるという仮定の下に、任意の画像(第Nフレーム)中の画像部分(第Nフレームの画像の一部分)の濃度パターンを空間的に線形近似して、濃度勾配を有する平面(空間的な濃度勾配平面)として把握し、この濃度勾配平面上の任意の画素(Xpn,Yqn)に注目して、当該注目画素(Xpn,Yqn)の濃度値(画像信号値)Spqnを求め、この画像(第Nフレーム)に時系列的に後続する画像(第(N+1)フレーム)の対応画像部分(第(N+1)フレームの画像の一部分)において、当該注目画素(Xpn,Yqn)と空間的に対応する画素(対応注目画素(Xp(n+1),Yq(n+1)))の濃度値Spq(n+1)を求め、上記任意の画像(第Nフレーム)における上記濃度勾配平面上において、対応注目画素(Xp(n+1),Yq(n+1))の濃度値Spq(n+1)と同一の濃度値Sp′q′nの画素の位置(Xp′n,Yq′n)を求め、この任意の画像(第Nフレーム)における画素(Xp′n,Yq′n)が、後続する画像(第(N+1)フレーム)における同一濃度値(Sp′q′n=Spq(n+1))の対応注目画素(Xp(n+1),Yq(n+1))に一致するように、任意の画像(第Nフレーム)の濃度勾配平面を、後続する画像(第(N+1)フレーム)の濃度勾配平面に向けて変位させる向き、および大きさにより、当該画像部分の速度ベクトルを求める手法である。   On the other hand, the gradient method is suitable for detecting the optical flow of a moving body whose outer surface is relatively smooth and whose outer surface has little saturation change, and the local density pattern of the image portion remains unchanged after movement (movement). The density pattern of an image portion (a part of the image of the Nth frame) in an arbitrary image (Nth frame) is spatially linearly approximated to obtain a plane (space) having a density gradient. The density value (image signal value) Spqn of the target pixel (Xpn, Yqn) is obtained by paying attention to an arbitrary pixel (Xpn, Yqn) on the density gradient plane. In the corresponding image portion (a part of the (N + 1) th frame image) of the image ((N + 1) th frame) time-sequentially following the image (Nth frame), spatially with the pixel of interest (Xpn, Yqn) Corresponding The density value Spq (n + 1) of the element (corresponding target pixel (Xp (n + 1), Yq (n + 1))) is obtained, and the corresponding target pixel (Xp ( n + 1), Yq (n + 1)) is obtained as a pixel position (Xp′n, Yq′n) having the same density value Sp′q′n as the density value Spq (n + 1), and this arbitrary image (Nth frame) Pixel (Xp′n, Yq′n) corresponds to the corresponding pixel of interest (Xp (n + 1), Yq) of the same density value (Sp′q′n = Spq (n + 1)) in the subsequent image ((N + 1) th frame). (N + 1)) according to the direction and magnitude of displacement of the density gradient plane of an arbitrary image (Nth frame) toward the density gradient plane of the subsequent image (N + 1) frame, The speed of the image part It is a method of obtaining the vector.

なお、上述した濃度勾配平面の変位方向や大きさは、上述した一画素の濃度値の一致のみに基づいて一通りに特定することはできないため、実際には、この他に所定の拘束条件を設けて、速度ベクトルを一意に特定する(特許文献1,2)。   Note that the displacement direction and size of the above-described density gradient plane cannot be specified in a single manner based only on the above-described coincidence of density values of one pixel. Provided to uniquely identify the velocity vector (Patent Documents 1 and 2).

また、これら特許文献1,2には、演算の高速化や、検出精度の高精度化を目的として、階層化処理や相関値の内挿処理など、各種の提案もなされている。
特開2005−209155号公報 特開2004−56763号公報
Also, in these Patent Documents 1 and 2, various proposals such as hierarchization processing and correlation value interpolation processing have been made for the purpose of speeding up the calculation and increasing the detection accuracy.
JP 2005-209155 A Japanese Patent Laid-Open No. 2004-56763

ところで、相関法は、テンプレートマッチングによって相関の高い画像部分を探索する処理であるから、精密なマッチングを得るためには、テンプレートを用いた探索を、空間的により細かい間隔で行うのが効果的である。   By the way, since the correlation method is a process of searching for a highly correlated image portion by template matching, it is effective to perform a search using a template at a spatially finer interval in order to obtain precise matching. is there.

その場合、テンプレートとしての画像部分と探索対象の画像全体をそれぞれ補間処理してサブピクセル化し、マッチングの画素間隔を狭くすればよい。   In this case, the image portion as a template and the entire search target image may be interpolated to form subpixels, and the matching pixel interval may be narrowed.

しかし、画像部分の全体をサブピクセル化したのでは、補間演算処理に要する時間が長く掛かり過ぎ、移動体のオプティカルフローを略リアルタイムに(タイムラグ少なく)求めるのが困難になる。   However, if the entire image portion is converted into subpixels, the time required for the interpolation calculation process is too long, and it is difficult to obtain the optical flow of the moving object in substantially real time (less time lag).

なお、このことは移動体が自動車に限定された問題ではなく、鋼材やその他の物体等においても同様である。すなわち、例えばクレーンやコンベアで搬送されている鋼板や木板等を移動体として検出し、そのオプティカルフローを相関法によって求める場合には、同様に生じうる問題である。   This is not a problem in which the moving body is limited to an automobile, and the same applies to steel materials and other objects. That is, for example, when a steel plate or a wooden plate transported by a crane or a conveyor is detected as a moving body, and its optical flow is obtained by a correlation method, there is a problem that can occur in the same manner.

本発明は上記事情に鑑みなされたものであって、演算処理に要する時間の延長を抑制しつつ、精密なマッチングを行うことができる移動体監視装置を提供することを目的とする。   The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a mobile monitoring apparatus capable of performing precise matching while suppressing an increase in time required for arithmetic processing.

本発明に係る移動体監視装置は、相関法により移動体のオプティカルフローを求めるに際して、探索範囲としての後続画像の全体をサブピクセル化するとともに、テンプレートに用いる画像部分のうちの一部(局所部分)だけをサブピクセル化することで演算処理に要する時間の延長を抑制しつつ、探索の画素間隔を細かくすることで精密なマッチングを行うものである。   The mobile monitoring apparatus according to the present invention subtracts the entire subsequent image as a search range when subtracting an optical flow of a mobile by the correlation method, and a part (local part) of an image part used for a template. ) Only as subpixels, while suppressing an increase in the time required for arithmetic processing, and by making the search pixel interval fine, precise matching is performed.

すなわち、本発明に係る移動体監視装置は、カメラにより撮影された映像に基づいて、該カメラに接近する移動体のオプティカルフローを求める移動体監視装置において、前記映像を構成する時系列的に連続する複数の画像に基づいて前記移動体を含む画像部分を検出する移動体検出手段と、任意の画像における前記画像部分をテンプレートとして、該任意の画像に時系列的に後続した画像を探索範囲としたテンプレートマッチングにより、前記移動体のオプティカルフローを求める相関法演算手段とを備え、前記相関法演算手段は、前記テンプレートとしての前記画像部分のうち、該画像部分の平均明度との差が所定の閾値よりも大きい局所部分と、前記探索範囲としての前記後続画像の全体とについて、それぞれサブピクセル化処理する補間処理手段を有し、前記テンプレートマッチングは、前記サブピクセル化により得られた画素間隔で行うことを特徴とする。   That is, the moving body monitoring device according to the present invention is a time-series continuous image forming the video in the moving body monitoring device that obtains the optical flow of the moving body approaching the camera based on the video captured by the camera. Moving body detecting means for detecting an image portion including the moving body based on a plurality of images, and using the image portion in an arbitrary image as a template, an image time-sequentially following the arbitrary image as a search range Correlation method calculating means for obtaining an optical flow of the moving body by performing template matching, wherein the correlation method calculating means has a predetermined difference in average brightness of the image portion of the image portion as the template. Sub-pixelization processing is performed on the local portion larger than the threshold and the entire subsequent image as the search range. It has between treatment means, the template matching, and performs the pixel interval obtained by the sub-pixelation.

ここで、移動体検出手段による、自動車等の移動体を含む画像部分(テンプレート用のブロック)の検出は、例えば、映像を構成する時系列的に連続する2つの画像に関し、空間的に対応する(同一位置の)画素間で信号値の差分を演算することにより、実現することができる。   Here, the detection of an image portion (block for a template) including a moving body such as an automobile by the moving body detection unit corresponds spatially with respect to two images that are continuous in time series, for example. This can be realized by calculating a difference in signal value between pixels (at the same position).

すなわち、移動体以外の画像部分(静止している物体についての画像部分)は、2つの画像間で、その信号値が略等しい。したがって、その差分は、略ゼロになる。一方、移動体の画像部分は、特にその輪郭に近い部分に関して、2つの画像間で、その信号値差が大きい。   That is, the signal values of the image portions other than the moving body (image portions of the stationary object) are approximately equal between the two images. Therefore, the difference becomes substantially zero. On the other hand, the image portion of the moving body has a large signal value difference between the two images, particularly in the portion close to the contour.

したがって、差分が所定値を超えた範囲が、移動体の画像部分であると判定することができ、移動体の画像部分を検出することができる。   Therefore, it is possible to determine that the range where the difference exceeds the predetermined value is the image portion of the moving body, and it is possible to detect the image portion of the moving body.

移動体を含む画像部分は、移動体の全体を含むような大きな領域の画像部分を意味するものではなく、画像全体と比較して小さなブロック領域を意味する。例えば、画像全体の大きさに対して、その縦方向については1/30程度画素数、横方向については1/40程度の画素数からなる、例えば縦と横の画素数が同一のブロックなどである。   The image portion including the moving body does not mean an image portion of a large area including the entire moving body, but means a small block area as compared with the entire image. For example, the size of the entire image is about 1/30 pixels in the vertical direction and about 1/40 pixels in the horizontal direction. For example, in a block having the same vertical and horizontal pixel numbers. is there.

移動体検出手段は、画像全体の中の、互いに異なる複数の位置から、そのような画像部分を検出するが、例えばマトリックス状に配置されている。ただし、各画像部分は必ず移動体を含むため、移動体が全く含まれないような、移動体から遠く離れた画像部分は、移動体検出手段による検出対象とはならない。   The moving body detecting means detects such an image portion from a plurality of different positions in the entire image, but is arranged in a matrix, for example. However, since each image part always includes a moving object, an image part far from the moving object that does not include any moving object is not a detection target by the moving object detecting means.

相関法演算手段は、相関法によりオプティカルフローを求める演算処理を行い、具体的には、映像を構成する時系列的に連続する複数の画像のうち任意の画像(第Nフレームの画像)における移動体を含む画像部分(第Nフレームの画像の一部分)をテンプレートとし、この任意の画像(第Nフレームの画像)に時系列的に後続した画像(第(N+1)フレームの画像)を探索範囲としたテンプレートマッチングにより、テンプレートと同一または類似である相関の高い画像部分(第(N+1)フレームの画像の一部分)を、後続した画像(第(N+1)フレームの画像)から検出し、両画像(第Nフレームの画像と第(N+1)フレームの画像)間で対応する画像部分同士(第Nフレームの画像の一部分と第(N+1)フレームの画像の一部分)の、空間的な位置関係(第Nフレームの画像の一部分(ブロック)における位置(Xn,Yn)→第(N+1)フレームの画像の一部分における位置(X(n+1),Y(n+1)))に基づいて、当該画像部分のオプティカルフロー(速度ベクトル)を求める。   The correlation method calculation means performs a calculation process for obtaining an optical flow by the correlation method, and specifically, movement in an arbitrary image (image of the Nth frame) among a plurality of time-series continuous images constituting the video. An image portion including a body (a part of an image of the Nth frame) is used as a template, and an image (image of the (N + 1) th frame) following this arbitrary image (image of the Nth frame) in time series is set as a search range. By performing the template matching, a highly correlated image portion (a part of the image of the (N + 1) th frame) that is the same or similar to the template is detected from the subsequent image (image of the (N + 1) frame), and both images (the first image) N-frame image and (N + 1) -th frame image) corresponding to each other (one part of N-th frame image and one of (N + 1) -th frame image) Min)) (position (Xn, Yn) in a part (block) of an image of the Nth frame → position (X (n + 1), Y (n + 1)) in a part of the image of the (N + 1) th frame) ) To obtain the optical flow (velocity vector) of the image portion.

なお、オプティカルフローを相関法によって求める場合、特徴的なテクスチャが存在する移動体の画像部分を対象とするのが好ましく、画像部分の分散値を予め算出するなどして、テクスチャの有無を判定するようにしてもよい。   When the optical flow is obtained by the correlation method, it is preferable to target the image portion of the moving object in which a characteristic texture exists, and the presence / absence of the texture is determined by calculating the variance value of the image portion in advance. You may do it.

補間処理手段によるサブピクセル化すなわち画素の内挿処理は、バイリニア(一次補間処理)法によるものや、バイキュービック(三次補間処理)法によるものが好ましい。   Subpixel conversion by the interpolation processing means, that is, pixel interpolation processing, is preferably performed by a bilinear (primary interpolation processing) method or a bicubic (tertiary interpolation processing) method.

一方、ニアレストネイバー(最近傍点補間処理)法によるものでは、サブピクセル化により得られた画素間隔でテンプレートマッチングを行う効果が少ないため、好ましい適用ではない。   On the other hand, the method based on the nearest neighbor (nearest neighbor interpolation process) method is not a preferred application because it has little effect of performing template matching at the pixel interval obtained by subpixel conversion.

本発明に係る移動体監視装置によれば、移動体検出手段が、映像を構成する時系列的に連続する複数の画像に基づいて移動体を含む画像部分を検出する。   According to the moving body monitoring apparatus according to the present invention, the moving body detecting means detects an image portion including the moving body based on a plurality of time-sequential images constituting a video.

そして、相関法演算手段が、移動体検出手段が検出した移動体を含む画像部分をテンプレートとして、相関法により、移動体のオプティカルフローを求めるが、相関法演算手段に備えられた補間処理手段が、テンプレートとしての画像部分のうち、この画像部分の平均明度との差が所定の閾値よりも大きい局所部分と、探索範囲としての後続画像の全体とを、補間処理によって新たな画素を内挿することでサブピクセル化し、相関法演算手段が、このサブピクセル化により得られた画素間隔でテンプレートマッチングを行うことにより、サブピクセル化する以前の画素の間隔でテンプレートマッチングを行う場合に比べて、空間的により細かくマッチング処理を行うことができ、サブピクセル化しない場合に比べて、精度のよいマッチング結果を得ることができる。   Then, the correlation method calculating means obtains the optical flow of the moving object by the correlation method using the image portion including the moving object detected by the moving object detecting means as a template. The interpolation processing means provided in the correlation method calculating means includes In the image portion as the template, a new pixel is interpolated by interpolation processing between the local portion whose difference from the average brightness of the image portion is larger than a predetermined threshold and the entire subsequent image as the search range. Compared to the case where the template matching is performed at the pixel interval before sub-pixelization by performing the template matching at the pixel interval obtained by the sub-pixel conversion. Compared with the case where subpixels are not used, the matching process can be performed more precisely. It is possible to obtain.

しかも、テンプレートとしての画像部分の全体をサブピクセル化するのではなく、当該画像部分のうち当該画像部分全体の平均明度との差が所定の閾値よりも大きい局所部分だけをサブピクセル化しているため、テンプレートマッチングの回数は、画像部分全体をサブピクセル化した場合と同じであるが、サブピクセル化による内挿画素の数は、画像部分全体をサブピクセル化した場合に比べて大幅に減らすことができるため、内挿される画素の値を算出するのに要する演算時間を大幅に減らすことができる。   In addition, since the entire image portion as a template is not subpixelized, only the local portion of the image portion whose difference from the average brightness of the entire image portion is larger than a predetermined threshold is subpixelized. The number of template matching is the same as when the entire image portion is subpixelized, but the number of interpolated pixels by subpixelization is greatly reduced compared to the case where the entire image portion is subpixelated. Therefore, the calculation time required to calculate the value of the interpolated pixel can be greatly reduced.

また、個々の画像部分のテンプレートマッチングにおいては、マッチングを行う画素数も、画像部分全体をサブピクセル化した場合に比べて大幅に少なくすることができるため、この点からも、演算処理時間を短縮することができる。   In addition, in template matching of individual image parts, the number of pixels to be matched can be significantly reduced compared to the case where the entire image part is converted into sub-pixels, which also shortens the processing time. can do.

なお、以上の効果は、演算処理に要する時間が比較的長いバイキュービック法を適用した場合に特に顕著である。   The above effects are particularly remarkable when the bicubic method in which the time required for the arithmetic processing is relatively long is applied.

以下、本発明に係る移動体監視装置の最良の実施形態について、図面を参照して説明する。   DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, a mobile object monitoring apparatus according to an embodiment of the invention will be described with reference to the drawings.

図1は、本発明の一実施形態に係る移動体監視装置100を示すブロック図、図2は図1に示した移動体監視装置100を搭載した自車両90に、他車両200(移動体)が右方向から接近している状態を、上方からの平面視として表す模式図である。   FIG. 1 is a block diagram showing a mobile object monitoring apparatus 100 according to an embodiment of the present invention. FIG. 2 is a diagram showing another vehicle 200 (mobile object) on a host vehicle 90 equipped with the mobile object monitoring apparatus 100 shown in FIG. It is a schematic diagram showing the state which is approaching from the right direction as planar view from upper direction.

図示の移動体監視装置100は、自車両90に取り付けられているカメラ80によって撮影された映像に基づいて、このカメラ80に接近する、すなわち自車両90に右方から接近する他車両200のオプティカルフローOFを求める移動体監視装置であり、映像を構成する時系列的に連続する複数の画像P(n−1),P(n),P(n+1),…に基づいて、接近する他車両200を含む画像部分であるブロックBijを複数検出する移動体検出手段10と、移動体検出手段10によって検出された各ブロックBijを構成する縦4画素×横4画素(=16画素)の画素値(明度や濃度等の信号値)の分散値(特徴量)をそれぞれ求める移動体特徴量算出手段20と、任意の画像(第(N)フレームの画像)P(n)における各ブロックBijをテンプレートTとして、この任意の画像P(n)に時系列的に後続した画像(第(N+1)フレームの画像)P(n+1)を探索範囲としたテンプレートマッチングにより、他車両200のブロックBijについてのオプティカルフローOFを求める相関法演算手段40と、任意の画像P(n)におけるブロックBijと空間的に位置関係が対応する、この任意の画像P(n)よりも時系列的に後続する画像P(n+1)における対応画像部分Cijにおける局所の画像信号の変動に基づいて、接近する他車両200のブロックBijについてのオプティカルフローOFを求める勾配法演算手段50と、移動体特徴量算出手段30によって求められた分散値に基づいて、相関法演算手段40によりオプティカルフローOFを求める処理と勾配法演算手段50によりオプティカルフローOFを求める処理とを択一的に切り替える演算切替手段30と、求められたオプティカルフローOFに対して、予測の分散値と実測の分散値とを用いた所定の予測フィルタ処理によりオプティカルフローOFの補正を行い、この補正後のオプティカルフローOFを自車両90の車室内に取り付けられているモニタ85に出力する予測フィルタ70とを備えた構成である。   The mobile monitoring apparatus 100 shown in the figure is based on an image taken by a camera 80 attached to the host vehicle 90, and approaches the camera 80, that is, the optical of the other vehicle 200 that approaches the host vehicle 90 from the right side. Other vehicles approaching based on a plurality of time-sequential images P (n−1), P (n), P (n + 1),... The moving body detecting means 10 for detecting a plurality of blocks Bij that are image parts including 200, and the pixel value of 4 vertical pixels × 4 horizontal pixels (= 16 pixels) constituting each block Bij detected by the moving body detecting means 10 The moving body feature amount calculation means 20 for obtaining the variance value (feature amount) of each (signal value such as brightness and density) and each block Bij in an arbitrary image (image of the (N) frame) P (n) As a template T, the block Bij of the other vehicle 200 is obtained by template matching using an image (image of the (N + 1) th frame) P (n + 1) following the arbitrary image P (n) in time series as a search range. Correlation method computing means 40 for obtaining the optical flow OF of the image, and an image succeeding in time series from the arbitrary image P (n) corresponding to the block Bij in the arbitrary image P (n) spatially. Based on the fluctuation of the local image signal in the corresponding image portion Cij in P (n + 1), the gradient method calculating means 50 for obtaining the optical flow OF for the block Bij of the approaching other vehicle 200 and the moving object feature value calculating means 30 Based on the obtained dispersion value, processing for obtaining the optical flow OF by the correlation method computing means 40 and the gradient method computing means 5 The operation switching means 30 for selectively switching the processing for obtaining the optical flow OF by the optical switching OF 30 and the optical flow OF obtained by the predetermined prediction filter processing using the predicted variance value and the measured variance value. The configuration includes a prediction filter 70 that corrects the flow OF and outputs the corrected optical flow OF to a monitor 85 attached to the interior of the host vehicle 90.

ここで、カメラ80およびモニタ85は、移動体監視装置100の使用目的とは異なる目的のために自車両90に予め取り付けられているもの(兼用するもの)であってもよいし、移動体監視装置100の使用目的のための専用品であってもよい。本実施形態の移動体監視装置100においては、カメラ80およびモニタ85は、移動体監視装置100の構成要素ではないもの(兼用品)として説明しているが、カメラ80やモニタ85が移動体監視装置100の専用品のときは、移動体監視装置100の構成要素とすることができる。   Here, the camera 80 and the monitor 85 may be those attached in advance to the host vehicle 90 for a purpose different from the purpose of use of the mobile object monitoring device 100 (also used as a mobile object monitor). It may be a dedicated item for the intended use of the device 100. In the moving body monitoring apparatus 100 of the present embodiment, the camera 80 and the monitor 85 are described as those that are not constituent elements (combined items) of the moving body monitoring apparatus 100. However, the camera 80 and the monitor 85 are monitored by the moving body. When the device 100 is a dedicated product, it can be a component of the mobile object monitoring device 100.

また、カメラ80は、図2に示すように、自車両90の、主として右方向を視野とするように、例えば前側右端部に固定されて、自車両90と一体的に移動する。   Further, as shown in FIG. 2, the camera 80 is fixed to, for example, the front right end of the host vehicle 90 so as to mainly view the right direction, and moves integrally with the host vehicle 90.

そして、カメラ80は、このカメラ80の視野に入った映像を、時系列的に所定の時間間隔ごとに撮影された第(1)フレームの静止画像、…、第(N−1)フレームの静止画像P(n−1)、第(N)フレームの静止画像P(n)、第(N+1)フレームの静止画像P(n+1)、…として、移動体監視装置100の移動体検出手段10に順次入力する。   Then, the camera 80 captures the video that has entered the field of view of the camera 80 in a time-series manner at a predetermined time interval, the still image of the (1) th frame, ..., the still image of the (N-1) th frame. An image P (n−1), a still image P (n) in the (N) th frame, a still image P (n + 1) in the (N + 1) th frame,... input.

ここで、図3(a),(b)、図4は、時系列的に相前後する第(N−1)フレームの静止画像P(n−1)、第(N)フレームの静止画像P(n)、第(N+1)フレームの静止画像P(n+1)であり、第(N−1)フレームの静止画像P(n−1)の次に、第(N)フレームの静止画像P(n)が入力され、第(N)フレームの静止画像P(n)の次に、、第(N+1)フレームの静止画像P(n+1)が入力される。   Here, FIGS. 3A, 3B, and 4 show the still image P (n−1) of the (N−1) th frame and the still image P of the (N) th frame that are in chronological order. (N), still image P (n + 1) in the (N + 1) th frame, and still image P (n) in the (N) th frame after the still image P (n-1) in the (N-1) th frame. ) And the still image P (n + 1) of the (N + 1) th frame is input next to the still image P (n) of the (N) th frame.

なお、自車両90は、交差点等の手前で一時停止状態にあるものとする。したがって、各画像P(n−1)、P(n)、P(n+1)において、カメラ80に対する相対的な動きのない交通標識300や、図示しない路面自体(または、路面に描かれた文字・記号・模様)などは、各画像P(n−1)、P(n)、P(n+1)間で差異無く同一の位置に現れている。   It is assumed that the host vehicle 90 is in a temporarily stopped state before an intersection or the like. Accordingly, in each of the images P (n−1), P (n), and P (n + 1), the traffic sign 300 having no relative movement with respect to the camera 80, the road surface itself not shown (or characters / characters drawn on the road surface) The symbols / patterns and the like appear at the same position without any difference between the images P (n−1), P (n), and P (n + 1).

一方、図2に示す矢印方向に進行して、自車両200に接近しつつある他車両200は、カメラ80に対して相対的な動きがあるため、各画像P(n−1)、P(n)、P(n+1)間で現れる位置に差異が生じる。   On the other hand, the other vehicle 200 traveling in the direction of the arrow shown in FIG. 2 and approaching the host vehicle 200 has a relative movement with respect to the camera 80, so each image P (n−1), P ( n) and P (n + 1) appear at different positions.

そこで、移動体検出手段10は、映像を構成する時系列的に相前後する2つの画像P(n−1)、P(n)間で、空間的に対応する(同一位置の)画素間で信号値の差分を演算することにより、標識300と同様の静止している物体と、他車両200と同様の移動体とを、明確に峻別することができる。   Therefore, the moving body detection means 10 is between two spatially corresponding pixels (at the same position) between two images P (n−1) and P (n) that are in chronological order. By calculating the difference between the signal values, the stationary object similar to the sign 300 and the moving object similar to the other vehicle 200 can be clearly distinguished.

すなわち、移動体以外の画像部分(静止している物体についての画像部分)は、2つの画像P(n−1)、P(n)間で動きがないため、その信号値が略等しい。したがって、その差分は、略ゼロになる。一方、移動体の画像部分は、特にその輪郭に近い部分に関して、2つの画像P(n−1)、P(n)間で、その信号値差が大きい。   That is, since the image part other than the moving body (the image part of the stationary object) does not move between the two images P (n−1) and P (n), the signal values thereof are substantially equal. Therefore, the difference becomes substantially zero. On the other hand, the image portion of the moving body has a large signal value difference between the two images P (n−1) and P (n) particularly in the portion close to the contour.

したがって、差分が所定値を超えた画像領域が、移動体の画像部分であると判定することにより、移動体の画像部分を的確に検出(抽出)することが可能となる。   Therefore, it is possible to accurately detect (extract) the image portion of the moving body by determining that the image area whose difference exceeds a predetermined value is the image portion of the moving body.

図5は、2つの画像P(n)、P(n+1)の差分ΔP(n)=P(n+1)−P(n)を明暗反転した模式図であり、二点鎖線で示す標識300等の静止している物体は消去され、移動体の画像部分、すなわち他車両200のみを浮き上がらせる。   FIG. 5 is a schematic diagram in which a difference ΔP (n) = P (n + 1) −P (n) between two images P (n) and P (n + 1) is brightly and darkly inverted, such as a marker 300 indicated by a two-dot chain line. The stationary object is deleted, and only the image portion of the moving object, that is, the other vehicle 200 is lifted.

なお、明暗反転させているのは、差分画像の明暗イメージを図3,4と共通化して理解を容易にするために過ぎず、移動体検出手段10による移動体の検出処理そのものには影響はなく、反転処理を施さない状態でも検出することができる。   Note that the light / dark reversal is merely to make the light / dark image of the difference image common with that in FIGS. 3 and 4 for easy understanding, and the moving object detection process itself by the moving object detecting means 10 is not affected. In addition, it is possible to detect even in a state where the inversion process is not performed.

また、差分画像ΔP(n)を生成するために用いた各画像P(n)、P(n+1)は、後の処理のために、一時的にメモリ等に記憶しておく。   In addition, the images P (n) and P (n + 1) used for generating the difference image ΔP (n) are temporarily stored in a memory or the like for later processing.

移動体検出手段10は、さらに、図6に示す縦4画素×横4画素からなるブロックBijを、差分の画像(図5)の全域に等間隔でマトリックス状に分布するように複数(例えば、i=1,2,…,9、j=1,2,…,9とした81個)設定する(図7)。   The moving body detection means 10 further includes a plurality (for example, for example) of blocks Bij each consisting of 4 vertical pixels × 4 horizontal pixels shown in FIG. 6 so as to be distributed in a matrix at equal intervals over the entire difference image (FIG. 5). (i = 1, 2,..., 9 and j = 1, 2,..., 9) (FIG. 7).

ここで、すべてのブロックBijのうち、ブロックBijを構成する16画素のうち画素値が所定の値以上の画素を含むブロックBij(図7においては、B55,B65,B75,B85,B46,B56,B76,B86,B96,B47,B57,B67,B77,B87,B97)だけを注目ブロックとして検出する。   Here, among all the blocks Bij, among the 16 pixels constituting the block Bij, a block Bij (in FIG. 7, B55, B65, B75, B85, B46, B56, which includes pixels having a pixel value equal to or larger than a predetermined value). Only B76, B86, B96, B47, B57, B67, B77, B87, B97) are detected as the target block.

この注目ブロックBijの検出は、移動体である他車両200が存在するブロックBijだけを選択する処理となり、以後は、この選択されたブロックBijだけを処理の対象とし、残りのブロックBijについては、処理の対象としない。   The detection of the target block Bij is a process of selecting only the block Bij in which the other vehicle 200 that is a moving body exists, and thereafter, only the selected block Bij is targeted for processing, and the remaining blocks Bij are Not subject to processing.

そして、これらの検出されたブロックBijを、メモリに記憶されていた元の画像P(n)の対応位置に設定する(図8)。   Then, these detected blocks Bij are set at corresponding positions of the original image P (n) stored in the memory (FIG. 8).

移動体特徴量算出手段20は、移動体検出手段10によって検出された各ブロックBijを構成する縦4画素×横4画素(=16画素)の画素値の分散値をそれぞれ求め、各ブロックBij内のテクスチャの有無を評価する。   The moving object feature value calculating means 20 obtains a variance value of the pixel values of 4 vertical pixels × 4 horizontal pixels (= 16 pixels) constituting each block Bij detected by the moving object detecting means 10, respectively, Evaluate the presence or absence of texture.

すなわち、分散値が所定値よりも大きいときは、ブロックBij内の明度変動が大きく、テクスチャが存在すると判定することができ、分散値が所定値よりも小さいときは、ブロックBij内の明度変動がなだらかであり、テクスチャが存在しないと判定することができる。   That is, when the variance value is larger than the predetermined value, it can be determined that the brightness variation in the block Bij is large and the texture exists, and when the variance value is smaller than the predetermined value, the brightness variation in the block Bij is It is gentle and it can be determined that there is no texture.

このようにして、移動体特徴量算出手段30は各ブロックBijごとに分散値を求め、演算切替手段30は、所定値より大きい分散値のブロックBijについては相関法演算手段40によりオプティカルフローOFを求める処理を適用し、所定値より小さい分散値のブロックBijについては勾配法演算手段50によりオプティカルフローOFを求める処理を適用するように、処理を切り替える。   In this way, the moving body feature value calculating unit 30 obtains a variance value for each block Bij, and the calculation switching unit 30 performs the optical flow OF on the block Bij having a variance value larger than a predetermined value by the correlation method calculating unit 40. The processing to be obtained is applied, and the processing is switched so that the processing for obtaining the optical flow OF by the gradient method computing unit 50 is applied to the block Bij having a variance value smaller than the predetermined value.

相関法演算手段40は、相関法によりオプティカルフローOFを求める演算処理を行うが、具体的には、第(N)フレームの画像P(n)における各ブロックBijをそれぞれテンプレートTとし、各テンプレートTごとに、時系列的に後続した第(N+1)フレームの画像P(n+1)を探索範囲としたテンプレートマッチングにより、テンプレートと相関の高い画像部分(第(N+1)フレームの画像P(n+1)の一部分)をそれぞれ検出し、両画像(第Nフレームの画像P(n)と第(N+1)フレームの画像P(n+1))間で対応する画像部分同士(第Nフレームの画像P(n)のブロックBijと第(N+1)フレームの画像P(n+1)の一部分)の、空間的な位置関係(第Nフレームの画像P(n)のブロックBijにおける位置(Xn,Yn)→第(N+1)フレームの画像P(n+1)の一部分における位置(X(n+1),Y(n+1)))に基づいて、ブロックBijのオプティカルフロー(速度ベクトル)を求める。   The correlation method calculation means 40 performs calculation processing for obtaining the optical flow OF by the correlation method. Specifically, each block Bij in the image P (n) of the (N) th frame is set as a template T, and each template T Each time, a part of the image P (n + 1) in the (N + 1) th frame is highly correlated with the template by template matching using the image P (n + 1) in the (N + 1) th frame following in time series as the search range. ), And corresponding image portions (blocks of Nth frame image P (n)) between both images (Nth frame image P (n) and (N + 1) th frame image P (n + 1)). Spatial positional relationship between Bij and a part of the image P (n + 1) of the (N + 1) th frame (position of the image P (n) of the Nth frame in the block Bij) Xn, Yn) → (N + 1) -th position in a portion of the frame of the image P (n + 1) (X (n + 1), based on Y (n + 1))), determine the optical flow (velocity vector) of the block Bij.

一方、勾配法演算手段50は、勾配法によりオプティカルフローOFを求める3つの代表的な演算処理(空間的大域最適化法(SGO;オプティカルフローOFが滑らかに変化すると仮定した手法)、空間的局所最適化法(SLO;複数ブロックBij間でオプティカルフローOFが同一と仮定した手法)、時間的局所最適化法(TLO;オプティカルフローOF検出点のオプティカルフローOFが時間変化しないと仮定した手法))のうち、時間的局所最適化法によってオプティカルフローOFを求める演算処理を行うが、具体的には、ブロックBijの明度パターンが移動後も不変に保たれるという仮定の下に、第Nフレームの画像P(n)中のブロックBijの明度パターンを空間的に線形近似して、明度勾配を有する平面(空間的な明度勾配平面)として把握し、この明度勾配平面上の任意の画素(Xpn,Yqn)に注目して、当該注目画素(Xpn,Yqn)の明度値Spqnを求め、この第Nフレームの画像P(n)に時系列的に後続する第(N+1)フレームの画像P(n+1)の対応ブロックCijにおいて、当該注目画素(Xpn,Yqn)と空間的に対応する画素(対応注目画素(Xp(n+1),Yq(n+1)))の明度値Spq(n+1)を求め、第Nフレームの画像P(n)における明度勾配平面上において、対応注目画素(Xp(n+1),Yq(n+1))の明度値Spq(n+1)と同一の明度値Sp′q′nの画素の位置(Xp′n,Yq′n)を求め、この第Nフレームの画像P(n)における画素(Xp′n,Yq′n)が、後続する第(N+1)フレームの画像P(n+1)における同一明度値(Sp′q′n=Spq(n+1))の対応注目画素(Xp(n+1),Yq(n+1))に一致するように、第Nフレームの画像P(n)のブロックBijの明度勾配平面を、第(N+1)フレームの画像P(n+1)の明度勾配平面に向けて変位させる向き、および大きさにより、ブロックBijのオプティカルフローOFを求める。   On the other hand, the gradient method computing means 50 includes three typical computation processes for obtaining the optical flow OF by the gradient method (a spatial global optimization method (SGO; a method assuming that the optical flow OF changes smoothly), a spatial local Optimization method (SLO; method assuming that the optical flow OF is the same among a plurality of blocks Bij), temporal local optimization method (TLO; method assuming that the optical flow OF at the optical flow OF detection point does not change over time)) Among them, the arithmetic processing for obtaining the optical flow OF is performed by the temporal local optimization method. Specifically, under the assumption that the lightness pattern of the block Bij is kept unchanged after the movement, A plane having a lightness gradient (spatial lightness gradient) is obtained by spatially linearly approximating the lightness pattern of the block Bij in the image P (n). The brightness value Spqn of the target pixel (Xpn, Yqn) is obtained by paying attention to an arbitrary pixel (Xpn, Yqn) on the brightness gradient plane, and this Nth frame image P (n) In the corresponding block Cij of the image P (n + 1) of the (N + 1) -th frame following in time series, a pixel (corresponding target pixel (Xp (n + 1), Yq) spatially corresponding to the target pixel (Xpn, Yqn). (N + 1))) brightness value Spq (n + 1) is obtained, and the brightness value Spq () of the corresponding pixel of interest (Xp (n + 1), Yq (n + 1)) on the brightness gradient plane in the image P (n) of the Nth frame. n + 1) is obtained as the position (Xp′n, Yq′n) of the pixel having the same brightness value Sp′q′n as the pixel (Xp′n, Yq′n) in the image P (n) of the Nth frame. , Following (N + 1) The image P of the Nth frame so as to coincide with the corresponding target pixel (Xp (n + 1), Yq (n + 1)) of the same lightness value (Sp′q′n = Spq (n + 1)) in the image P (n + 1) of the frame The optical flow OF of the block Bij is obtained based on the direction and the magnitude of displacing the lightness gradient plane of the block Bij of (n) toward the lightness gradient plane of the image P (n + 1) of the (N + 1) th frame.

また、相関法演算手段40は、テンプレートTとしてのブロックBijのうち、このブロックBijの平均明度との差が所定の閾値よりも大きい局所部分と、探索範囲としての第(N+1)フレームの画像P(n+1)の全体とについて、それぞれサブピクセル化処理する補間処理手段41を備えており、相関法演算手段40によるテンプレートマッチングは、このサブピクセル化処理により得られた画素間隔で行う。   Correlation method computing means 40 also includes a local portion of block Bij serving as template T whose difference from the average brightness of block Bij is greater than a predetermined threshold, and image P of the (N + 1) th frame serving as the search range. Interpolation processing means 41 for performing subpixel conversion processing is provided for the entire (n + 1), and template matching by the correlation method calculation means 40 is performed at pixel intervals obtained by this subpixel processing.

補間処理手段41によるサブピクセル化処理、すなわち画素の内挿処理は、バイリニア(一次補間処理)法によるものや、バイキュービック(三次補間処理)法によるものが好ましい。ニアレストネイバー(最近傍点補間処理)法によるものでは、サブピクセル化により得られた画素間隔でテンプレートマッチングを行う効果が少ないからである。   The subpixel conversion processing by the interpolation processing means 41, that is, the pixel interpolation processing, is preferably performed by a bilinear (primary interpolation processing) method or a bicubic (third order interpolation processing) method. This is because the nearest neighbor (nearest neighbor interpolation process) method has little effect of performing template matching at the pixel interval obtained by subpixel conversion.

図8の検出されたブロックBijのうち、分散値が所定値よりも大きいブロックB46を例に採ると、サブピクセル化処理前は、図9(a)に示すように、縦4画素×横4画素のブロックであり、左上の画素b11が、隣接する画素b21,b12に比べて明度が高く、かつその明度変化が急峻で、ブロックBijの平均明度との差が所定の閾値よりも大きくなっている。   Taking the block B46 having a variance value larger than a predetermined value as an example among the detected blocks Bij in FIG. 8, before the subpixel conversion process, as shown in FIG. This is a block of pixels, and the upper left pixel b11 has higher brightness than the adjacent pixels b21 and b12, and its brightness change is steep, and the difference from the average brightness of the block Bij is larger than a predetermined threshold value. Yes.

このとき、補間処理手段41は、この明度変化が急峻となる画素b11を含む局所領域(画素b11,b21,b12,b22)の画素間隔が1/2倍となるように、この局所領域だけを図9(b)に示すようにサブピクセル化処理する。   At this time, the interpolation processing means 41 determines only this local region so that the pixel interval of the local region (pixels b11, b21, b12, b22) including the pixel b11 where the brightness change is steep is halved. As shown in FIG. 9B, the subpixel processing is performed.

サブピクセル化は、例えば一次補間処理法を適用し、元の1つの画素b11が、新たな4つの画素b11(1),b11(2),b11(3),b11(4)に分割されたことになる。他の画素b21,b12,b22についても同様にそれぞれ4つの画素に分割されて、この局所領域だけ、空間的な画素間隔が1/2倍となる。   For example, the first pixel b11 is divided into four new pixels b11 (1), b11 (2), b11 (3), and b11 (4) by applying a primary interpolation method, for example. It will be. Similarly, the other pixels b21, b12, and b22 are each divided into four pixels, and the spatial pixel interval is halved only in this local region.

残りの12個の画素b31,b41,b32,b42,b13,b23,b33,b43,b14,b24,b34,b44についてはサブピクセル化しない。   The remaining 12 pixels b31, b41, b32, b42, b13, b23, b33, b43, b14, b24, b34, b44 are not converted into subpixels.

したがって、図9(c)に示すように、ブロックB46内の全画素b11,…,b44をサブピクセル化する場合に比べて、補間処理に要する演算時間を短縮することが可能である。   Therefore, as shown in FIG. 9C, the calculation time required for the interpolation processing can be shortened as compared with the case where all the pixels b11,..., B44 in the block B46 are converted into subpixels.

一方、図10に示すように、探索範囲としての第(N+1)フレームの画像P(n+1)については、画像P(n+1)の全体を、その画素間隔が1/2倍となるようにサブピクセル化処理する。   On the other hand, as shown in FIG. 10, for the image P (n + 1) of the (N + 1) th frame as the search range, the entire image P (n + 1) is sub-pixel so that the pixel interval is ½ times. Process.

この結果、相関法演算手段40は、探索範囲を画像P(n+1)の全体とし、ブロックB46をテンプレートTとするテンプレートマッチングのマッチング間隔を、サブピクセル化する前のマッチング間隔よりも、空間的に細かく行うことができる。   As a result, the correlation method calculating means 40 spatially sets the matching interval of the template matching in which the search range is the entire image P (n + 1) and the block B46 is the template T as compared to the matching interval before subpixel conversion. Can be done finely.

ここで、テンプレートTには、サブピクセル化されていない画素もあるため、これらサブピクセル化されていない画素と、全画素がサブピクセル化された画像P(n+1)の画素とのマッチングは、図11に示すように、例えばテンプレートTのサブピクセル化されていない大きな画素b31に対応する大きさの画像P(n+1)の領域(サブピクセル化される前の画素c31)を、単一のサブピクセル化された画素c31(1)で代表させて、マッチングを行うようにすればよい。   Here, since there are pixels that are not sub-pixelated in the template T, matching between the pixels that are not sub-pixelated and the pixels of the image P (n + 1) in which all pixels are sub-pixelated is shown in FIG. 11, for example, a region of the image P (n + 1) having a size corresponding to the large non-subpixel pixel b31 of the template T (the pixel c31 before being subpixelated) is converted into a single subpixel. Matching may be performed by representing the pixel c31 (1) as a representative.

同様に、テンプレートTの画素b41,b13,b14は、画像P(n+1)の画素c41(1),c13(1),c14(1)と、それぞれマッチングを行えばよく、テンプレートTの他の大きな画素についても、同様に行えばよい。   Similarly, the pixels b41, b13, and b14 of the template T may be matched with the pixels c41 (1), c13 (1), and c14 (1) of the image P (n + 1), respectively. The same applies to the pixels.

なお、補間処理手段41の演算処理能力に応じて、一次補間処理法と三次補間処理法とを択一的に切り替えることによりサブピクセル化処理するようにしてもよい。   Note that subpixel conversion processing may be performed by selectively switching between the primary interpolation processing method and the tertiary interpolation processing method according to the arithmetic processing capability of the interpolation processing means 41.

三次補間処理法は、滑らかな内挿が可能であり、肉眼視によっても自然な印象を与える点で、一次補間処理法よりも好ましいが、一方で、三次補間処理法は、三次の多項式を、連続性の条件に基づいて解法する演算処理を行う必要があるため、一次補間処理法とは比べものにならないほどの演算処理時間を要する。   The cubic interpolation processing method is preferable to the primary interpolation processing method in that smooth interpolation is possible and gives a natural impression even with the naked eye. On the other hand, the cubic interpolation processing method uses a cubic polynomial, Since it is necessary to perform an arithmetic processing that solves based on the continuity condition, an arithmetic processing time that is incomparable to the primary interpolation processing method is required.

したがって、特に接近車両である他車両200を検出しようとする場合には、略リアルタイムでの演算能力が要求される。   Therefore, particularly when trying to detect the other vehicle 200 that is an approaching vehicle, a calculation capability in substantially real time is required.

よって、補間処理手段41が、略リアルタイムで三次補間処理法の演算能力を満たしている状況下では、三次補間処理法によるサブピクセル化を行い、略リアルタイムで三次補間処理法の演算能力を満たしていないが一次補間処理法の演算能力を満たしている状況下では、一次補間処理法によるサブピクセル化を行うように、一次補間処理法と三次補間処理法とを切り替えて適用することで、演算処理時間の短縮と補間精度の高さとを、状況に応じて的確に切り替えることができる。   Therefore, in a situation where the interpolation processing means 41 satisfies the calculation capability of the cubic interpolation processing method in substantially real time, sub-pixelization is performed by the cubic interpolation processing method, and the calculation capability of the cubic interpolation processing method is satisfied in substantially real time. However, in the situation where the calculation capability of the primary interpolation processing method is not satisfied, the calculation processing can be performed by switching between the primary interpolation processing method and the cubic interpolation processing method so as to perform subpixel conversion by the primary interpolation processing method. It is possible to accurately switch between time reduction and high interpolation accuracy according to the situation.

また、相関法演算手段40は、テンプレートTによる、後続する画像P(n+1)に対する探索範囲を、画像P(n)におけるブロックBijの配置位置に応じて設定する。   Further, the correlation method calculating means 40 sets the search range for the subsequent image P (n + 1) based on the template T according to the arrangement position of the block Bij in the image P (n).

つまり、本実施形態の移動体監視装置100は、全ての移動体を検出することを目的とするものではなく、カメラ80(カメラ80が固定された自車両90(被接近体))に接近してくる他車両200のオプティカルフローOFを求めることを主たる使用目的としているたため、現実の空間上で他車両200がカメラ80に接近する方向と、そのカメラ80によって撮影された画像P(n)上における他車両200の移動方向とは対応しており、その移動方向は、所定の範囲に限定される。   That is, the moving body monitoring apparatus 100 of the present embodiment is not intended to detect all moving bodies, but approaches the camera 80 (the host vehicle 90 (an approached body) to which the camera 80 is fixed). Since the main purpose of use is to obtain the optical flow OF of the other vehicle 200 coming, the direction in which the other vehicle 200 approaches the camera 80 in the real space and the image P (n) taken by the camera 80 Corresponds to the moving direction of the other vehicle 200 in the vehicle, and the moving direction is limited to a predetermined range.

例えば、本実施形態のように、カメラ80が、このカメラ80の取り付けられている自車両90の前右方の映像を撮影するように設置されている状態においては、カメラ80に接近する他車両200は、このカメラ80で撮影された画像P(n)では、図12に示すように、左右方向については、この略右Rから左Lに向かって変位する。したがって、左右方向については、テンプレートTによる次画像P(n+1)に対するマッチングの探索範囲を、左L方向の範囲に限定することができる。   For example, as in the present embodiment, in a state where the camera 80 is installed so as to capture a front right image of the host vehicle 90 to which the camera 80 is attached, the other vehicle approaching the camera 80 In the image P (n) photographed by the camera 80, 200 is displaced from the substantially right R to the left L in the left-right direction as shown in FIG. Therefore, in the left-right direction, the matching search range for the next image P (n + 1) by the template T can be limited to the range in the left L direction.

さらに、画像P(n)全体の上下方向の中央部Cより上側Uの領域RUに存在するブロックBij(例えば、ブロックB55)内の他車両200の部分は、カメラ80への接近により、上下方向の上側U方向に拡大されて写るため、上下方向については、上Uに向かって変位する。したがって、探索範囲を、このブロックBijの存在する位置よりも左方Lかつ上方Uの領域に限定することができる。   Further, the portion of the other vehicle 200 in the block Bij (for example, block B55) existing in the region RU above the central portion C in the vertical direction of the entire image P (n) is moved in the vertical direction due to the approach to the camera 80. Since the image is magnified in the upper U direction, the vertical direction is displaced toward the upper U. Accordingly, the search range can be limited to a region L to the left and U above the position where the block Bij exists.

これとは反対に、上下方向の中央部Cより下側Dの領域RDに存在するブロックBij(例えば、ブロックB47)内の他車両200の部分は、カメラ80への接近により、上下方向の下側D方向に拡大されて写るため、上下方向については、下Dに向かって変位する。したがって、探索範囲を、このブロックBijの存在する位置よりも左方Lかつ下方Dの領域に限定することができる。   On the other hand, the portion of the other vehicle 200 in the block Bij (for example, the block B47) existing in the region RD below the central portion C in the vertical direction is lowered in the vertical direction due to the approach to the camera 80. Since the image is magnified in the side D direction, the vertical direction is displaced toward the bottom D. Therefore, the search range can be limited to a region left L and below D from the position where the block Bij exists.

このように、テンプレートマッチングの探索範囲の限定により、探索時間を短縮することができる。   Thus, the search time can be shortened by limiting the search range of template matching.

なお、カメラ80が、このカメラ80の取り付けられている自車両90の前左方Lの映像を撮影するように設置されている状態(例えば、右側通行の国向けの場合や、左右両方の接近車両を監視する目的の移動体監視装置の場合など)において、左方Lからカメラ80に接近する他車両200のブロックBijのうち、画像P(n)全体の上下方向の中央部Cより上側Uの領域RUに存在するブロックBij内の他車両200の部分は、左右方向について右方Rに、上下方向については上方Uに変位するため、このブロックBijをテンプレートTとしたとき、時系列的に後続する画像P(n+1)における探索範囲は、このブロックBijの存在する位置よりも右R方向かつ上方Uの領域に限定することができる。   It should be noted that the camera 80 is installed so as to shoot an image of the front left L of the host vehicle 90 to which the camera 80 is attached (for example, for a right-handed country or for both left and right approaches). In the case of a moving body monitoring device for monitoring a vehicle, etc., among the blocks Bij of the other vehicle 200 approaching the camera 80 from the left L, the upper portion U of the entire image P (n) above the central portion C in the vertical direction U The portion of the other vehicle 200 in the block Bij existing in the area RU is displaced to the right R in the left-right direction and upward U in the up-down direction. The search range in the subsequent image P (n + 1) can be limited to a region in the right R direction and above U from the position where the block Bij exists.

反対に、画像P(n)全体の上下方向の中央部Cより下側Dの領域RDに存在するブロックBij内の他車両200の部分は、左右方向について右方Rに、上下方向については下方Dに変位するため、このブロックBijをテンプレートTとしたとき、時系列的に後続する画像P(n+1)における探索範囲は、このブロックBijの存在する位置よりも右R方向かつ下方Dの領域に限定することができる。   On the contrary, the part of the other vehicle 200 in the block Bij existing in the region RD below the central portion C in the up-down direction of the entire image P (n) is downward R in the left-right direction and downward in the up-down direction. Therefore, when this block Bij is a template T, the search range in the subsequent image P (n + 1) in the time series is in the region in the right R direction and below D from the position where this block Bij exists. It can be limited.

予測フィルタ70による処理としては、例えばカルマンフィルタ処理などを適用することができるが、カルマンフィルタ処理に限定されるものではなく、他の適切な予測フィルタ処理を適用することもできる。   As the processing by the prediction filter 70, for example, Kalman filter processing or the like can be applied, but is not limited to Kalman filter processing, and other appropriate prediction filter processing can also be applied.

カメラ80により撮影された映像は、通常、フレーム間の時間間隔が、33[msec]程度であり、数フレームに要する期間中は、接近する他車両200(近接移動体)の動きを略一定にする仮定が成立しやすい状況にある。   In the video imaged by the camera 80, the time interval between frames is usually about 33 [msec], and the movement of the approaching other vehicle 200 (proximity moving body) is substantially constant during the period required for several frames. This assumption is easy to hold.

このように、近接移動体の動きを略一定とする仮定の下では、現在以前のオプティカルフローOFに基づいて現在のオプティカルフローOFを予測することが可能である。   As described above, under the assumption that the movement of the proximity moving body is substantially constant, it is possible to predict the current optical flow OF based on the optical flow OF before the present time.

この場合、予測フィルタ処理により補正を行うことで、処理結果を高精度化することができる。   In this case, the accuracy of the processing result can be improved by performing the correction by the prediction filter processing.

例えばカルマンフィルタ処理を適用した予測フィルタ70は、予測の分散値と実測の分散値との両値を用いて平均処理を行うため、これらの値を予め定めておく必要がある。   For example, since the prediction filter 70 to which the Kalman filter process is applied performs an averaging process using both the predicted variance value and the actually measured variance value, these values need to be determined in advance.

実測の分散値は、実験により予め定めることができるが、この実測の分散値は、相関法演算手段40によるものと勾配法演算手段50によるものとで実験値が異なるため、それぞれに対応した値を準備し、相関法と勾配法との処理の切替えに応じて、相関法用の実測の分散値と勾配法用の実測の分散値とを動的に切り替えることで、最適化を図ることができる。   The actually measured dispersion value can be determined in advance by experiment. Since the measured dispersion value differs depending on whether the correlation method calculating means 40 and the gradient method calculating means 50 are different from each other, the values corresponding to the measured dispersion values. Can be optimized by dynamically switching the measured variance value for the correlation method and the measured variance value for the gradient method according to the switching of the processing between the correlation method and the gradient method. it can.

一方、予測の分散値は、その効果として時間変化の最大値を与えることになる。具体的には、接近する他車両200を初めて検出した時点から、正しいオプティカルフローOFの値を得るまでの間に、所要とするフレーム数を決めることになる。   On the other hand, the predicted variance value gives the maximum value of time change as its effect. Specifically, the required number of frames is determined from the time when the approaching other vehicle 200 is detected for the first time until the correct value of the optical flow OF is obtained.

この分散値が、上記実験値に比べて大きいほど、早く収束させることができるが、オプティカルフローOFの値が振れ易くなる。これとは反対に、予測の分散値と実測の分散値との差がゼロに近いほど、オプティカルフローOFの値は安定し易いが、収束させるのに要する時間が長くかかる。   As the variance value is larger than the experimental value, the convergence can be made faster, but the value of the optical flow OF tends to fluctuate. On the other hand, the closer the difference between the predicted variance value and the actually measured variance value is to zero, the easier it is to stabilize the optical flow OF value, but the longer it takes to converge.

したがって、この値は、この実験的に得られた分散値に対する比率を調整して、移動体監視装置100のシステムの要件に適合させるように定めることが必要である。この場合、移動体監視装置100のシステムの許容遅延時間等を目安にすることができる。   Therefore, this value needs to be determined so that the ratio to the experimentally obtained dispersion value is adjusted to meet the system requirements of the mobile monitoring device 100. In this case, the allowable delay time of the system of the mobile monitoring apparatus 100 can be used as a guide.

以上のように構成された本実施形態の移動体監視装置100の作用を、図13および図14を参照して説明する。   The operation of the moving object monitoring apparatus 100 of the present embodiment configured as described above will be described with reference to FIGS. 13 and 14.

まず、移動体検出手段10が、自車両90に取り付けられているカメラ80によって撮影された映像を構成する時系列的に連続する複数の画像P(n),P(n+1),…を順次メモリに記憶し(図13における#1)、時系列的に相前後する2つの画像P(n),P(n+1)に基づいて、両画像P(n),P(n+1)の差分画像ΔP(n)を求め、この差分画像ΔP(n)に基づいて移動体である他車両200を検出する(#2、図5)。このとき、元の画像P(n),P(n+1)はメモリに一時記憶させる(#3)。   First, the moving body detecting means 10 sequentially stores a plurality of time-sequential images P (n), P (n + 1),... Constituting a video taken by the camera 80 attached to the host vehicle 90. (# 1 in FIG. 13), and based on the two images P (n) and P (n + 1) that follow each other in time series, the difference image ΔP () between the images P (n) and P (n + 1) n) is obtained, and the other vehicle 200 as a moving body is detected based on the difference image ΔP (n) (# 2, FIG. 5). At this time, the original images P (n) and P (n + 1) are temporarily stored in the memory (# 3).

移動体検出手段10は、この差分画像ΔP(n)にブロックBijを設定し(#4、図7)、差分画像ΔP(n)に基づいて、他車両200に対応するブロックBijだけ選択する(#5、図8)。   The moving body detection means 10 sets the block Bij in the difference image ΔP (n) (# 4, FIG. 7), and selects only the block Bij corresponding to the other vehicle 200 based on the difference image ΔP (n) ( # 5, FIG. 8).

次いで、移動体特徴量算出手段20が、選択された各ブロックBijの分散値を算出する(#6)。そして、演算切替手段30が、そのブロックBijの分散値が所定値以上のときはそのブロックBijについてのオプティカルフローOFを求める処理を相関法演算手段40による処理に切り替え(#7、#8)、そのブロックBijの分散値が所定値以下のときはそのブロックBijについてのオプティカルフローOFを求める処理を勾配法演算手段50による処理に切り替える(#7、#9)。   Next, the moving body feature value calculating means 20 calculates the variance value of each selected block Bij (# 6). Then, when the variance value of the block Bij is equal to or greater than a predetermined value, the calculation switching unit 30 switches the process for obtaining the optical flow OF for the block Bij to the process by the correlation method calculation unit 40 (# 7, # 8). When the variance value of the block Bij is less than or equal to a predetermined value, the processing for obtaining the optical flow OF for the block Bij is switched to the processing by the gradient method computing means 50 (# 7, # 9).

相関法演算手段40による処理に切り替えられたときは(#8)、探索範囲の対象である次画像P(n+1)に対して、前述した限定方向(図12)に探索領域を設定し(図14における#21)、画像P(n)からブロックBijをテンプレートTとして切り出す(#22)。   When the processing is switched to the processing by the correlation method calculating means 40 (# 8), the search area is set in the above-mentioned limited direction (FIG. 12) for the next image P (n + 1) that is the object of the search range (FIG. 12). 14), the block Bij is cut out as a template T from the image P (n) (# 22).

次いで、相関法演算手段40の補間処理手段41が、テンプレートTを局所サブピクセル化するとともに、次画像P(n+1)の全体をサブピクセル化し(図9(b)、#23)、相関法演算手段40が、このサブピクセル化されたテンプレートTを用いて、探索領域が限定された次画像P(n+1)に対してテンプレートマッチングを行って(図10、図11)、このブロックBijについてのオプティカルフローOFを求める(#24)。   Next, the interpolation processing means 41 of the correlation method calculating means 40 converts the template T into local subpixels and converts the entire next image P (n + 1) into subpixels (FIG. 9 (b), # 23), and the correlation method calculation. The means 40 performs template matching on the next image P (n + 1) in which the search area is limited using the template T converted into subpixels (FIGS. 10 and 11), and the optical for the block Bij. The flow OF is obtained (# 24).

一方、勾配法演算手段50による処理に切り替えられたときは(#9)、勾配法演算手段50が、勾配法の時間的局所最適化法(TLO)によって、このブロックBijについてのオプティカルフローOFを求める(#9)。   On the other hand, when the processing is switched to the processing by the gradient method computing means 50 (# 9), the gradient method computing means 50 performs the optical flow OF for this block Bij by the temporal local optimization method (TLO) of the gradient method. (# 9).

次いで、相関法または勾配法によって求められたブロックBijのオプティカルフローOFに対して、予測フィルタ70がカルマンフィルタ処理により補正し(#10)、この補正により得られた補正後のオプティカルフローOFが出力される(#12)。同時に、この出力された補正後のオプティカルフローOFは、所定のメモリに記録される(#11)。この記録された補正後のオプティカルフローOFは、予測フィルタ70による次回以後のカルマンフィルタ処理の補正に用いられる。   Next, the prediction filter 70 corrects the optical flow OF of the block Bij obtained by the correlation method or the gradient method by Kalman filter processing (# 10), and the corrected optical flow OF obtained by this correction is output. (# 12). At the same time, the output corrected optical flow OF is recorded in a predetermined memory (# 11). The recorded optical flow OF after correction is used for correction of the Kalman filter processing from the next time by the prediction filter 70.

オプティカルフローOFが出力された後、他のブロックBijについても、上述した作用と同様の処理(#5〜#12)を繰り返し(#13)、選択された全てのブロックBijについて、補正後のオプティカルフローOFが得られると(#13)、時系列的に相前後する2つの画像P(n),P(n+1)間での処理を終了する。   After the optical flow OF is output, the same processing (# 5 to # 12) as described above is repeated for other blocks Bij (# 13), and the corrected optical is applied to all selected blocks Bij. When the flow OF is obtained (# 13), the processing between the two images P (n) and P (n + 1) that follow each other in time series is finished.

以上、詳細に説明したように、本実施形態の移動体監視装置100によれば、移動体検出手段10が、映像を構成する時系列的に連続する複数の画像P(n)に基づいて、自車両90に接近してくる他車両200を含むブロックBijを検出し、移動体特徴量算出手段20が算出したブロックBijの分散値に応じて、演算切替手段30が、相関法演算手段40によりオプティカルフローOFを求める処理と勾配法演算手段50によりオプティカルフローOFを求める処理とを択一的に切り替えるため、他車両200の外表面の特徴に適した処理方法によってオプティカルフローOFを求めることができる。   As described above in detail, according to the moving body monitoring apparatus 100 of the present embodiment, the moving body detection means 10 is based on a plurality of time-sequential images P (n) constituting a video. The block Bij including the other vehicle 200 approaching the host vehicle 90 is detected, and the calculation switching unit 30 uses the correlation method calculation unit 40 according to the variance value of the block Bij calculated by the moving body feature amount calculation unit 20. Since the process for obtaining the optical flow OF and the process for obtaining the optical flow OF by the gradient method computing means 50 are selectively switched, the optical flow OF can be obtained by a processing method suitable for the feature of the outer surface of the other vehicle 200. .

また、本実施形態の移動体監視装置100によれば、移動体特徴量算出手段20が、ブロックBijの明度値の分散値を、当該ブロックBijの特徴量として求め、この分散値が、所定の値よりも大きいときは相関法演算手段40による処理を選択し、所定の値よりも小さいときは勾配法演算手段50による処理を選択するように、これら相関法演算手段40と勾配法演算手段50とを択一的に切り替えるため、移動体のブロックBijが、本実施形態の移動体監視装置100が監視対象とする自動車(他車両200)の輪郭部分以外のブロックBijのように、外表面が比較的滑らかで、かつ外表面の彩度変化が少ないもの(特徴的なテクスチャが存在しないもの)では、そのブロックBijについての分散値は小さい値となるため、演算切替手段30は、勾配法演算手段50によりオプティカルフローOFを求める処理を選択するが、このようなブロックBijは、明度パターンを空間的に線形近似し、濃度勾配を有する平面と仮定することができる勾配法によって、適切にオプティカルフローOFを求めることができる。   Further, according to the moving object monitoring apparatus 100 of the present embodiment, the moving object feature amount calculating unit 20 obtains the variance value of the lightness value of the block Bij as the feature amount of the block Bij, and this variance value is a predetermined value. The correlation method calculating means 40 and the gradient method calculating means 50 are selected so that the processing by the correlation method calculating means 40 is selected when the value is larger than the value, and the processing by the gradient method calculating means 50 is selected when the value is smaller than the predetermined value. Therefore, the outer surface of the block Bij of the moving body is similar to the block Bij other than the contour portion of the automobile (other vehicle 200) to be monitored by the moving body monitoring apparatus 100 of the present embodiment. Since the variance value for the block Bij is small in the case of relatively smooth and little change in the saturation of the outer surface (the characteristic texture does not exist), the operation switching means 30 is , The process for obtaining the optical flow OF is selected by the gradient method computing means 50. Such a block Bij can be assumed to be a plane having a density gradient by spatially linearly approximating the lightness pattern. The optical flow OF can be determined appropriately.

一方、自動車(他車両200)の輪郭部分のブロックBijのように、特徴的なテクスチャが存在するものについては、移動体特徴量算出手段20により求められた分散値は大きい値となるため、演算切替手段30は、相関法演算手段40によりオプティカルフローOFを求める処理を選択するが、特徴的なテクスチャが存在する等の移動体の画像部分をテンプレートマッチングで適切に検出することができる相関法によって、適切にオプティカルフローOFを求めることができる。   On the other hand, since the variance value obtained by the moving body feature value calculation means 20 is large for the case where a characteristic texture exists such as the block Bij of the contour portion of the automobile (other vehicle 200), the calculation is performed. The switching unit 30 selects the processing for obtaining the optical flow OF by the correlation method calculating unit 40, but the correlation unit can appropriately detect the image portion of the moving object such as a characteristic texture by template matching. The optical flow OF can be obtained appropriately.

また、相関法演算手段40は、局所的にサブピクセル化処理する補間処理手段41を備え、テンプレートマッチングは、サブピクセル化により得られた画素間隔で行うため、補間処理手段41が、テンプレートTとしてのブロックBijのうち、このブロックBijの平均明度との差が所定の閾値よりも大きい局所部分と、探索範囲としての後続画像P(n+1)の全体とを、補間処理によって新たな画素を内挿することでサブピクセル化し、相関法演算手段40が、このサブピクセル化により得られた画素間隔でテンプレートマッチングを行うことにより、サブピクセル化する以前の画素の間隔でテンプレートマッチングを行う場合に比べて、空間的により細かくマッチング処理を行うことができ、サブピクセル化しない場合に比べて、精度のよいマッチング結果を得ることができる。   Further, the correlation method calculating means 40 includes an interpolation processing means 41 that performs subpixel conversion processing locally, and template matching is performed at a pixel interval obtained by subpixel conversion. In the block Bij, a local portion having a difference from the average brightness of the block Bij larger than a predetermined threshold and the entire subsequent image P (n + 1) as a search range are interpolated by interpolation. Compared to the case where the correlation method calculating means 40 performs template matching at the pixel interval obtained by the subpixel conversion, and performs template matching at the pixel interval before the subpixel conversion. Compared with the case where subpixels are not used, it is possible to perform matching processing more finely in space. Matching results can be obtained.

しかも、テンプレートTとしてのブロックBijの全体をサブピクセル化するのではなく、局所部分だけをサブピクセル化しているため、テンプレートマッチングの回数は、画像部分全体をサブピクセル化した場合と同じであるが、サブピクセル化による内挿画素の数は、ブロックBij全体をサブピクセル化した場合に比べて大幅に減らすことができるため、内挿される画素の値を算出するのに要する演算時間を大幅に減らすことができる。   In addition, since the entire block Bij as the template T is not converted into subpixels, but only the local portion is converted into subpixels, the number of times of template matching is the same as when the entire image portion is converted into subpixels. Since the number of interpolated pixels by subpixel conversion can be greatly reduced compared to the case where the entire block Bij is subpixelated, the calculation time required to calculate the value of the interpolated pixel is greatly reduced. be able to.

この効果は、演算処理に要する時間が比較的長いバイキュービック法を適用した場合に特に顕著である。   This effect is particularly remarkable when the bicubic method in which the time required for arithmetic processing is relatively long is applied.

また、個々のテンプレートマッチングにおいては、マッチングを行う画素数も、ブロックBij全体をサブピクセル化した場合に比べて大幅に少なくすることができるため、この点からも、演算処理時間を短縮することができる。   In addition, in individual template matching, the number of pixels to be matched can be greatly reduced compared to the case where the entire block Bij is converted into sub-pixels. From this point, the calculation processing time can be shortened. it can.

さらに、本実施形態の移動体監視装置100は、テンプレートマッチングの探索範囲の限定により、相関法演算手段40によるテンプレートマッチングの探索時間を短縮することができ、相関法によるオプティカルフローOFの算出時間を短縮することができる。   Furthermore, the mobile monitoring apparatus 100 of the present embodiment can reduce the template matching search time by the correlation method computing means 40 by limiting the template matching search range, and can reduce the calculation time of the optical flow OF by the correlation method. It can be shortened.

なお、本実施形態の移動体監視装置100は、移動体として接近する他車両200を適用した例であるが、本発明にかかる移動体検出装置は、移動体が自動車に限定されるものではなく、例えばクレーンやコンベアで搬送されている鋼板や木板等を移動体として検出し、そのオプティカルフローを求める場合にも、適用することができる。   In addition, although the mobile body monitoring apparatus 100 of this embodiment is the example which applied the other vehicle 200 which approaches as a mobile body, the mobile body detection apparatus concerning this invention is not limited to a motor vehicle. For example, the present invention can also be applied to a case where a steel plate or a wooden plate conveyed by a crane or a conveyor is detected as a moving body and its optical flow is obtained.

本実施形態の移動体監視装置100は、相関法演算手段40と勾配法演算手段50とを選択的に切り替えるものであるが、本発明に係る移動体監視装置は、この形態に限定されるものではなく、ブロックBijを局所的にサブピクセル化する補間処理手段41を有する相関法演算手段40を少なくとも備える移動体監視装置であればよく、勾配法演算手段50や演算切替手段30、予測フィルタ70を備えないものであってもよい。   The moving body monitoring apparatus 100 of the present embodiment selectively switches between the correlation method calculating means 40 and the gradient method calculating means 50, but the moving object monitoring apparatus according to the present invention is limited to this form. Instead, any mobile monitoring device including at least a correlation method calculation unit 40 having an interpolation processing unit 41 for locally sub-pixelizing the block Bij may be used. The gradient method calculation unit 50, the calculation switching unit 30, and the prediction filter 70 may be used. May not be provided.

また、相関法演算手段40が、探索範囲を限定する処理(図12)を行わないものであってもよい。   Moreover, the correlation method calculating means 40 may not perform the process of limiting the search range (FIG. 12).

本発明の一実施形態に係る移動体監視装置を示すブロック図である。It is a block diagram which shows the moving body monitoring apparatus which concerns on one Embodiment of this invention. 図1に示した移動体監視装置を搭載した自車両に、他車両が右方向から接近している状態を、上方からの平面視として表す模式図である。It is a schematic diagram showing the state which the other vehicle approaches from the right direction to the own vehicle carrying the moving body monitoring apparatus shown in FIG. 1 as a plan view from above. (a)は時系列的に先行する第(N−1)フレームの静止画像P(n−1)、(b)は静止画像P(n−1)に後続する第(N)フレームの静止画像P(n)、をそれぞれ表す図である。(A) is a still image P (n-1) of the (N-1) th frame preceding in time series, and (b) is a still image of the (N) frame following the still image P (n-1). It is a figure showing P (n), respectively. 静止画像P(n)に後続する第(N+1)フレームの静止画像P(n+1)を表す図である。It is a figure showing the still image P (n + 1) of the (N + 1) th frame following a still image P (n). 2つの画像P(n)、P(n+1)の差分ΔP(n)=P(n+1)−P(n)を明暗反転した模式図である。図である。FIG. 6 is a schematic diagram in which a difference ΔP (n) = P (n + 1) −P (n) between two images P (n) and P (n + 1) is bright and dark inverted. FIG. 画像の全域に等間隔でマトリックス状に分布する縦4画素×横4画素からなる複数のブロックBijを示す図である。It is a figure which shows the some block Bij which consists of vertical 4 pixels x horizontal 4 pixels distributed in the matrix form at equal intervals over the whole area of an image. 図5に示した差分の画像の全域に、図6に示した複数のブロックBijを設定した状態を示す図である。FIG. 6 is a diagram illustrating a state in which a plurality of blocks Bij illustrated in FIG. 6 are set over the entire difference image illustrated in FIG. 5. 他車両が存在するブロックBijだけを選択した状態を示す図である。It is a figure which shows the state which selected only the block Bij in which another vehicle exists. (a)は元のブロックBijの画素配列を示す図、(b)は局所的にサブピクセル化したブロックBijの画素配列を示す図、(c)はの全体をサブピクセル化したブロックBijの画素配列を示す図、をそれぞれ示す模式図である。(A) is a diagram showing a pixel arrangement of the original block Bij, (b) is a diagram showing a pixel arrangement of the block Bij that is locally subpixelized, and (c) is a pixel of the block Bij that is a subpixel of the whole It is a schematic diagram which shows the figure which shows an arrangement | sequence, respectively. 局所サブピクセル化されたブロックBijをテンプレートTとして次画像P(n+1)をテンプレートマッチング処理する様子を示す模式図である。It is a schematic diagram which shows a mode that the next image P (n + 1) is template-matching-processed by making the block Bij made into a local subpixel into the template T. FIG. サブピクセル化されていない画素と全体がサブピクセル化された次画像P(n+1)とのマッチング処理を説明する図である。It is a figure explaining the matching process with the next image P (n + 1) by which the pixel not subpixel-ized and the whole subpixel-ized. テンプレートマッチング処理の探索範囲の限定を説明する図である。It is a figure explaining limitation of the search range of a template matching process. 図1に示した移動体監視装置による作用の処理手順を説明するフローチャートである。It is a flowchart explaining the process sequence of the effect | action by the moving body monitoring apparatus shown in FIG. 相関法演算手段による相関法によるオプティカルフローを求める処理手順を説明するフローチャートである。It is a flowchart explaining the process sequence which calculates | requires the optical flow by the correlation method by a correlation method calculating means.

符号の説明Explanation of symbols

10 移動体検出手段
20 移動体特徴量算出手段
30 演算切替手段
40 相関法演算手段
41 補間処理手段
50 勾配法演算手段
70 予測フィルタ
80 カメラ
85 モニタ
100 移動体監視装置
DESCRIPTION OF SYMBOLS 10 Moving body detection means 20 Moving body feature-value calculation means 30 Calculation switching means 40 Correlation method calculation means 41 Interpolation processing means 50 Gradient method calculation means 70 Prediction filter 80 Camera 85 Monitor 100 Moving body monitoring apparatus

Claims (8)

カメラにより撮影された映像に基づいて、該カメラに接近する移動体のオプティカルフローを求める移動体監視装置において、
前記映像を構成する時系列的に連続する複数の画像に基づいて前記移動体を含む画像部分を検出する移動体検出手段と、
任意の画像における前記画像部分をテンプレートとして、該任意の画像に時系列的に後続した画像を探索範囲としたテンプレートマッチングにより、前記移動体のオプティカルフローを求める相関法演算手段とを備え、
前記相関法演算手段は、前記テンプレートとしての前記画像部分のうち、該画像部分の平均明度との差が所定の閾値よりも大きい局所部分と、前記探索範囲としての前記後続画像の全体とについて、それぞれサブピクセル化処理する補間処理手段を有し、前記テンプレートマッチングは、前記サブピクセル化により得られた画素間隔で行うことを特徴とする移動体監視装置。
In the moving object monitoring device for obtaining the optical flow of the moving object approaching the camera based on the video imaged by the camera,
A moving body detecting means for detecting an image portion including the moving body based on a plurality of time-sequential images constituting the video;
Correlation method calculating means for obtaining the optical flow of the moving body by template matching with the image portion in an arbitrary image as a template, and an image following the arbitrary image in time series as a search range,
The correlation method calculating means, for the image portion as the template, a local portion having a difference from the average brightness of the image portion larger than a predetermined threshold, and the entire subsequent image as the search range, An apparatus for monitoring a moving body, comprising: interpolation processing means for performing subpixel processing, and performing the template matching at a pixel interval obtained by the subpixel conversion.
前記補間処理手段は、一次補間処理または三次補間処理により、前記サブピクセル化処理することを特徴とする請求項1に記載の移動体監視装置。   2. The moving object monitoring apparatus according to claim 1, wherein the interpolation processing means performs the subpixel processing by primary interpolation processing or tertiary interpolation processing. 前記補間処理手段は、一次補間処理法と三次補間処理法とを択一的に切り替えて、前記サブピクセル化処理することを特徴とする請求項1に記載の移動体監視装置。   The moving body monitoring apparatus according to claim 1, wherein the interpolation processing unit selectively switches between a primary interpolation processing method and a cubic interpolation processing method to perform the subpixel conversion processing. 前記相関法演算手段は、
前記テンプレートによる、前記後続する画像に対する探索範囲を、前記任意の画像における前記画像部分の配置位置に応じて設定するものであることを特徴とする請求項1から3のうちいずれか1項に記載の移動体監視装置。
The correlation method calculating means includes:
4. The search range for the subsequent image based on the template is set in accordance with an arrangement position of the image portion in the arbitrary image. 5. Mobile monitoring device.
前記カメラが、該カメラが取り付けられた被接近体の前右方の像を撮影するように設置されている状態において、
前記任意の画像における縦方向の中央よりも上側部分に配置された画像部分を前記テンプレートとした前記テンプレートマッチングの前記探索方向の上下方向に沿った成分は、前記上側を向いた方向であり、前記中央よりも下側部分に配置された画像部分を前記テンプレートとした前記テンプレートマッチングの前記探索方向の上下方向に沿った成分は、前記下側を向いた方向であり、
前記テンプレートマッチングの前記探索方向の左右方向に沿った成分は、左に向いた方向であることを特徴とする請求項4に記載の移動体監視装置。
In a state where the camera is installed so as to capture a front right image of an approaching object to which the camera is attached,
The component along the vertical direction of the search direction of the template matching in which the image portion arranged in the upper portion from the center in the vertical direction in the arbitrary image is the template is a direction facing the upper side, The component along the vertical direction of the search direction of the template matching with the image portion arranged in the lower part from the center as the template is the direction facing the lower side,
The mobile body monitoring apparatus according to claim 4, wherein a component along the left-right direction of the search direction of the template matching is a direction facing left.
前記カメラが、該カメラが取り付けられた被接近体の前左方の像を撮影するように設置されている状態において、
前記任意の画像における縦方向の中央よりも上側部分に配置された画像部分を前記テンプレートとした前記テンプレートマッチングの前記探索方向の上下方向に沿った成分は、前記上側を向いた方向であり、前記中央よりも下側部分に配置された画像部分を前記テンプレートとした前記テンプレートマッチングの前記探索方向の上下方向に沿った成分は、前記下側を向いた方向であり、
前記テンプレートマッチングの前記探索方向の左右方向に沿った成分は、右に向いた方向であることを特徴とする請求項4に記載の移動体監視装置。
In a state where the camera is installed so as to take a front left image of an approaching object to which the camera is attached,
The component along the vertical direction of the search direction of the template matching in which the image portion arranged in the upper portion from the center in the vertical direction in the arbitrary image is the template is a direction facing the upper side, The component along the vertical direction of the search direction of the template matching with the image portion arranged in the lower part from the center as the template is the direction facing the lower side,
The mobile body monitoring apparatus according to claim 4, wherein a component along the left-right direction of the search direction of the template matching is a direction facing right.
前記オプティカルフローに対して、予測の分散値と実測の分散値とを用いた所定の予測フィルタ処理により前記オプティカルフローの補正を行う予測フィルタを備えたことを特徴とする請求項1から6のうちいずれか1項に記載の移動体監視装置。   7. A prediction filter that corrects the optical flow by a predetermined prediction filter process using a predicted variance value and an actual variance value for the optical flow is provided. The moving body monitoring apparatus of any one of Claims. 前記移動体が、走行する車両であることを特徴とする請求項1から7うちいずれか1項に記載の移動体監視装置。


The moving body monitoring apparatus according to claim 1, wherein the moving body is a traveling vehicle.


JP2006076964A 2006-03-20 2006-03-20 Mobile monitoring device Active JP4675808B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006076964A JP4675808B2 (en) 2006-03-20 2006-03-20 Mobile monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006076964A JP4675808B2 (en) 2006-03-20 2006-03-20 Mobile monitoring device

Publications (2)

Publication Number Publication Date
JP2007257026A true JP2007257026A (en) 2007-10-04
JP4675808B2 JP4675808B2 (en) 2011-04-27

Family

ID=38631261

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006076964A Active JP4675808B2 (en) 2006-03-20 2006-03-20 Mobile monitoring device

Country Status (1)

Country Link
JP (1) JP4675808B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010079685A1 (en) 2009-01-09 2010-07-15 コニカミノルタホールディングス株式会社 Motion vector generation apparatus and motion vector generation method
JP2013132682A (en) * 2011-12-27 2013-07-08 Jfe Steel Corp Device for detecting abnormal sheet passing
CN108764644A (en) * 2018-04-27 2018-11-06 杭州电子科技大学 A kind of interpolating method of bridge crane risk source probability of happening missing

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6482279A (en) * 1987-09-25 1989-03-28 Yaskawa Denki Seisakusho Kk Subpixel precision template matching method
JP2001213254A (en) * 2000-01-31 2001-08-07 Yazaki Corp Side monitoring device for vehicle
JP2002509627A (en) * 1997-01-03 2002-03-26 ザペックス テクノロジーズ インコーポレイテッド Method and apparatus for generating half-pixel SAD

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6482279A (en) * 1987-09-25 1989-03-28 Yaskawa Denki Seisakusho Kk Subpixel precision template matching method
JP2002509627A (en) * 1997-01-03 2002-03-26 ザペックス テクノロジーズ インコーポレイテッド Method and apparatus for generating half-pixel SAD
JP2001213254A (en) * 2000-01-31 2001-08-07 Yazaki Corp Side monitoring device for vehicle

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010079685A1 (en) 2009-01-09 2010-07-15 コニカミノルタホールディングス株式会社 Motion vector generation apparatus and motion vector generation method
JP4883223B2 (en) * 2009-01-09 2012-02-22 コニカミノルタホールディングス株式会社 Motion vector generation apparatus and motion vector generation method
US9177389B2 (en) 2009-01-09 2015-11-03 Konica Minolta Holdings, Inc. Motion vector generation apparatus and motion vector generation method
JP2013132682A (en) * 2011-12-27 2013-07-08 Jfe Steel Corp Device for detecting abnormal sheet passing
CN108764644A (en) * 2018-04-27 2018-11-06 杭州电子科技大学 A kind of interpolating method of bridge crane risk source probability of happening missing
CN108764644B (en) * 2018-04-27 2022-04-01 杭州电子科技大学 Interpolation method for probability loss of risk source of bridge crane

Also Published As

Publication number Publication date
JP4675808B2 (en) 2011-04-27

Similar Documents

Publication Publication Date Title
KR101569411B1 (en) Pedestrian realization apparatus and method
EP3540637A1 (en) Neural network model training method, device and storage medium for image processing
JP4697480B2 (en) Lane recognition device, lane recognition method, and lane recognition program
JP4915655B2 (en) Automatic tracking device
JP6184877B2 (en) Vehicle external recognition device
US9950667B2 (en) Vehicle system for detecting object and operation method thereof
KR101825687B1 (en) The obstacle detection appratus and method using difference image
CN107451539B (en) Lane departure early warning method and system
EP3211368A1 (en) Stereo camera apparatus and vehicle provided with stereo camera apparatus
KR100965800B1 (en) method for vehicle image detection and speed calculation
JP4675808B2 (en) Mobile monitoring device
JP4740003B2 (en) Mobile monitoring device
JP2000048211A (en) Movile object tracking device
CN104504730B (en) A kind of differentiating method to parking cars and leaving thing
JP2002197445A (en) Detector for abnormality in front of train utilizing optical flow
JP2007257025A (en) Mobile object monitoring device
JP2015185135A (en) Parking recognition device, parking recognition method and program
CN109145805A (en) Detection of Moving Objects and system under vehicle environment
JP2014071482A (en) Object detection device
CN102682007A (en) Method and device for creating image database
JP6562648B2 (en) Image processing apparatus, image processing method, and program
KR101905128B1 (en) Motion area detecion control method based on irregularity of light and apparatus thereof
US20200039437A1 (en) Image processing device
JP6348020B2 (en) Image processing apparatus, image processing method, and inspection method using the same
KR100849499B1 (en) Method and apparatus of tracking object using active camera

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20080422

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20080422

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090310

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110113

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110125

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110126

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140204

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4675808

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250