JP2005157924A - Image movement detector - Google Patents

Image movement detector Download PDF

Info

Publication number
JP2005157924A
JP2005157924A JP2003398244A JP2003398244A JP2005157924A JP 2005157924 A JP2005157924 A JP 2005157924A JP 2003398244 A JP2003398244 A JP 2003398244A JP 2003398244 A JP2003398244 A JP 2003398244A JP 2005157924 A JP2005157924 A JP 2005157924A
Authority
JP
Japan
Prior art keywords
image
motion
weighting
amount
interest
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003398244A
Other languages
Japanese (ja)
Other versions
JP3914973B2 (en
Inventor
Shigeru Kimura
茂 木村
Muneaki Sakurai
宗晃 櫻井
Yoichi Ohashi
洋一 大橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Steel Works Ltd
Technical Research and Development Institute of Japan Defence Agency
Original Assignee
Japan Steel Works Ltd
Technical Research and Development Institute of Japan Defence Agency
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Steel Works Ltd, Technical Research and Development Institute of Japan Defence Agency filed Critical Japan Steel Works Ltd
Priority to JP2003398244A priority Critical patent/JP3914973B2/en
Publication of JP2005157924A publication Critical patent/JP2005157924A/en
Application granted granted Critical
Publication of JP3914973B2 publication Critical patent/JP3914973B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To accurately and easily detect the movement of images whose object is a target or background under consideration from the complicated change of picked-up images generated by the movement of an image pickup device or the like. <P>SOLUTION: An image movement detector comprises: a part-under-consideration information input means 1803 for inputting or setting the information of the part of the target or the background under consideration; a setting means 1802 for weighting or the like for collating the information from the part-under-consideration information input means 1803 and the contents of the image, performing weighting so as to increase weight at the part under consideration and reduce the weight of the part considered as the part other than the part under consideration and setting the initial value of movement amount calculation as needed; and a movement amount calculation means 1801 in which weighting or the like is taken into consideration for utilizing the weighting coefficient of weighting and the initial value of the movement amount calculation set in the setting means 1802 for weighting or the like and estimating the movement amount of the image paying attention to the part under consideration or excluding the part under consideration. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、画像安定化、画像貼り合わせ、画像照合、画像融合、画像鮮鋭化、移動目標検出、目標追跡、画像誘導、画像圧縮、ステレオ画像処理、3次元画像解析等の広範囲な分野で必要となる画像の変形や画像の動き量を計測する画像の動き検出装置に関するものである。   The present invention is necessary in a wide range of fields such as image stabilization, image pasting, image collation, image fusion, image sharpening, moving target detection, target tracking, image guidance, image compression, stereo image processing, and three-dimensional image analysis. The present invention relates to an image motion detection apparatus that measures the deformation of an image and the amount of motion of the image.

一般に、画像安定化とは、画像の動き量を検出して、それを補正して安定した画像を生成することを言う。図8は動画像を画像安定化(空間安定化)する処理のブロック図の例である。動画像101が入力され、安定化された動画像102が処理結果として出力される。動き量計算手段103では動画像101の現在の入力画像107を参照画像108と比較し動き量を推定する。その推定された動き量から、動き量のフィルタリング104では、画像の小さな振動は吸収し画像全体がゆっくりパンする様な動きはそのままとなるように画像出力を安定化するように、推定された動き量を基に適切なフィルタリング処理を施し画像の動きの補正量を求める。画像ワープ部105では、求まった画像の動きの補正量に基づき、入力画像107に対して幾何学的な変換を施し画像を安定化する。また、この画像ワープされ安定化された画像は、画像バッファ106を経由した後、動き量計算手段103の入力の一つである参照画像108となる。   In general, image stabilization means detecting a motion amount of an image and correcting it to generate a stable image. FIG. 8 is an example of a block diagram of processing for stabilizing a moving image (image stabilization). A moving image 101 is input, and a stabilized moving image 102 is output as a processing result. The motion amount calculation means 103 compares the current input image 107 of the moving image 101 with the reference image 108 to estimate the motion amount. From the estimated motion amount, the motion amount filtering 104 estimates the estimated motion so as to stabilize the image output so that the small vibration of the image is absorbed and the motion that the entire image pans slowly remains unchanged. Based on the amount, an appropriate filtering process is performed to obtain a correction amount of the motion of the image. The image warp unit 105 performs geometric transformation on the input image 107 based on the obtained image motion correction amount to stabilize the image. The image warped and stabilized image becomes a reference image 108 which is one of the inputs of the motion amount calculation means 103 after passing through the image buffer 106.

ここでは、画像安定化の例で説明したが、動き量計算手段103で行うような画像間の動き量の検出は、画像貼り合わせ、画像照合、画像融合、画像鮮鋭化、移動目標検出、目標追跡、画像誘導、画像圧縮、ステレオ画像処理、3次元画像解析等の広範囲な分野で必要となる機能である。   Here, the example of image stabilization has been described, but detection of the amount of motion between images as performed by the motion amount calculation means 103 is performed by image pasting, image matching, image fusion, image sharpening, moving target detection, target This function is necessary in a wide range of fields such as tracking, image guidance, image compression, stereo image processing, and three-dimensional image analysis.

例えば、画像貼り合わせを行う場合、すなわち、重なりを持つ分割撮影された複数枚の画像を貼り合わせて1枚の広視野・高解像度のパノラマ画像を合成するような場合、画像間の位置合わせ行うために画像間の動き量を正確に求める必要がある。画像融合の例としては、遠くに焦点を合わせた画像と近くに焦点を合わせた画像間の動き量を検出し画像の対応付けができれば、遠くも近くも焦点が合った合成画像を作り出すことができる。   For example, when combining images, that is, when combining a plurality of images that have been divided and taken together to combine a single wide-field / high-resolution panoramic image, alignment between the images is performed. Therefore, it is necessary to accurately determine the amount of motion between images. As an example of image fusion, if it is possible to detect the amount of motion between an image focused at a distance and an image focused at a close distance and match the images, it is possible to create a composite image that is focused both at a distance and near it can.

以下では、このような画像安定化、画像貼り合わせなどの各種画像処理で必要となる画像の変形量や動き量を推定するための従来の技術について説明する。画像間の変形量や動き量を計測する方法には、(1) 対応探索法、(2) 明度勾配法、(3) 周波数空間での分析法などがある。本発明は、これら全ての画像間の変形量や動き量を計測する方法に適用できる。ここでは簡単のため、全ての可能性のある動き量を逐一探索する対応探索法( マッチング法とも呼ばれる) などと比べ、基本的に探索を必要とせず高速に処理ができる明度勾配法を例に用いて説明する。なお、ここで扱う画像の動き量とは単に1点の動き量だけではなく、ある広がりを持った領域や画像全体の変形量や動き量を対象としている。   In the following, a conventional technique for estimating the amount of deformation and movement of an image necessary for various image processing such as image stabilization and image pasting will be described. There are (1) correspondence search method, (2) lightness gradient method, and (3) analysis method in frequency space, etc., for measuring the amount of deformation and motion between images. The present invention can be applied to a method for measuring the amount of deformation and the amount of motion between all these images. For simplicity, here is an example of the lightness gradient method, which basically does not require a search and can be processed faster than the corresponding search method (also called the matching method) that searches all possible movements one by one. It explains using. Note that the amount of motion of the image handled here is not limited to the amount of motion of a single point, but is intended for a region having a certain spread or the amount of deformation or motion of the entire image.

まず、明度勾配法により、2枚の画像から、ある点(画素)の動き量を、どのようにして求めることができるか説明する。明度勾配法は、画像処理で問題となる対応付けの処理を行う必要が無く、画像の動き量を画素の明度変化から高速に計算できる方法である。図9はその明度勾配法の原理を示したものである。ここでは簡単のため1次元で考え、縦軸に画像の明度I、横軸に画像上の座標xをとり、かつ画像明度I(x)の勾配は一定で線形的な変化をしているものとする。そして、時刻tの画像I(x)が時刻tでは画像I(x)に変化したとする。すなわち、画像I(x)のxにあった点は、画像I(x)ではxの位置に移動したことになる。ここでは、移動後も物体の明度が変わらないという前提である。画像明度の平行な2つの直線の間にできる三角形の勾配がIxで、高さが明度差dI=I(x)−I(x)、底辺が移動量dx=x−xであることから、移動量dxは点xの勾配Ixと明度差dIから計算できることが分かる(dx=−dI/Ix )。 First, how the amount of motion of a certain point (pixel) can be obtained from two images by the brightness gradient method will be described. The lightness gradient method is a method that can calculate the amount of motion of an image from the change in lightness of pixels at high speed without the necessity of performing association processing, which is a problem in image processing. FIG. 9 shows the principle of the brightness gradient method. Here, for the sake of simplicity, it is considered in one dimension, the vertical axis is the image brightness I, the horizontal axis is the coordinate x on the image, and the gradient of the image brightness I (x) is constant and linearly changing. And Then, the image I 1 at time t 1 (x) is changed at time t 2 in the image I 2 (x). That is, the point at x 1 in the image I 1 (x) has moved to the position x 2 in the image I 2 (x). Here, it is assumed that the brightness of the object does not change even after movement. The gradient of the triangle formed between two straight lines with parallel image brightness is Ix, the height is the brightness difference dI = I 2 (x 1 ) −I 1 (x 1 ), and the base is the movement amount dx = x 2 −x since it is 1, the movement amount dx it can be seen that can be calculated from the slope Ix and lightness difference dI of the point x 1 (dx = -dI / Ix ).

ここで示した1次元の関係は、2次元の動き量と明度変化の間でも成り立つ(下記式参照)。   The one-dimensional relationship shown here also holds between the two-dimensional motion amount and the brightness change (see the following formula).

Figure 2005157924
Figure 2005157924

式(1)は2次元的な動き量(u,v)と明度変化の関係を示した関係式(明度勾配法の拘束式)である。但し、Ix:x軸方向の勾配、Iy:y軸方向の勾配、It:明度差である。x軸方向の勾配Ix、y軸方向の勾配Iy及び画像間の明度差Itは式(2)で与えられる。明度差Itはその点の画像間での明度の差を計算する。また、x軸方向の勾配Ixとy軸方向の勾配Iyは、例えば、図10に示すような差分オペレータで計算することができる。よって、x軸方向の勾配Ix、y軸方向の勾配Iy及び画像間の明度差Itは画像から直接求めることができ、式(1)の拘束式から、2次元の動き量(u,v)を計算することができる。ただ、式(1)において未知数は、u,vの2個であるので、ある点(x,y)の2次元の動き量{u(x,y),v(x,y)}は、例えば、同じ動き量をしていると見なせる、点(x,y)の近傍の点の拘束式と連立して解くことができる。このように、明度勾配法は基本となる演算は簡単で探索も必要でないため良い方法であるが、先の説明で示したように明度変化(明度勾配)が一定で明度I,Iがほぼ平行移動しているような場合にしか式(1)が成り立たない。実際の画像の明度変化は局所的には明度の勾配は一定であると見なせてもそれには限度があり、動き量が比較的小さい場合にしか式(1)を適用できない。また、連立させる方程式の数が少ないと、すなわち動き量の計算を行う画像ウインドウの大きさが小さいと、求められる動き量の推定値はかなり不安定になる。 Expression (1) is a relational expression (constraint expression of the lightness gradient method) showing the relationship between the two-dimensional motion amount (u, v) and the lightness change. However, Ix: gradient in the x-axis direction, Iy: gradient in the y-axis direction, It: brightness difference. The gradient Ix in the x-axis direction, the gradient Iy in the y-axis direction, and the brightness difference It between images are given by equation (2). The brightness difference It calculates the brightness difference between the images at that point. Further, the gradient Ix in the x-axis direction and the gradient Iy in the y-axis direction can be calculated by a difference operator as shown in FIG. 10, for example. Therefore, the gradient Ix in the x-axis direction, the gradient Iy in the y-axis direction, and the brightness difference It between the images can be obtained directly from the image, and the two-dimensional motion amount (u, v) can be obtained from the constraint equation of equation (1). Can be calculated. However, since there are two unknowns u and v in equation (1), the two-dimensional motion amount {u (x, y), v (x, y)} at a certain point (x, y) is For example, it can be solved simultaneously with a constraint equation for a point in the vicinity of the point (x, y) that can be regarded as having the same amount of movement. Thus, the lightness gradient method is a good method because the basic calculation is simple and does not require a search. However, as shown in the above description, the lightness change (lightness gradient) is constant and the lightness I 1 and I 2 are Equation (1) holds only when it is almost translated. Even if it can be considered that the brightness gradient of an actual image is locally constant in the brightness change, there is a limit to this, and Equation (1) can be applied only when the amount of motion is relatively small. Further, if the number of equations to be simultaneously set is small, that is, if the size of the image window for calculating the motion amount is small, the estimated value of the motion amount to be obtained becomes considerably unstable.

図11は動き量が小さい場合と大きい場合で、明度勾配法がうまく適用できるか、どうかを図示したものである。図11(a) の場合の画像IとIの間の動き量は少なく、お互いに明度曲線が平行になる部分があることが分かる。これに対し、図11(b)の場合の画像IとIの間の動き量は大きく、お互いに明度曲線が平行になる部分が少ない。このため、図11(b)の様な場合に、直接、明度勾配法を適用しても、上手く画像間の動き量を求めることができない。 FIG. 11 shows whether or not the lightness gradient method can be successfully applied when the amount of motion is small and large. It can be seen that the amount of motion between the images I 1 and I 2 in the case of FIG. 11A is small, and there are portions where the lightness curves are parallel to each other. In contrast, the amount of motion between the images I 1 and I 2 in the case of FIG. 11B is large, and there are few portions where the lightness curves are parallel to each other. For this reason, in the case of FIG. 11B, even if the lightness gradient method is directly applied, the amount of motion between images cannot be obtained successfully.

そこで、図11(b) の様な大きな動き量の場合に明度勾配法を適用するには、ピラミッド画像( 多重解像度画像) 等を利用して、少しずつ反復して動き量を計算して行くような方法がとられる。   Therefore, in order to apply the lightness gradient method in the case of a large amount of motion as shown in FIG. 11 (b), the amount of motion is repeatedly calculated little by little using a pyramid image (multi-resolution image) or the like. Such a method is taken.

前節では、明度勾配法により2枚の画像から画像上のある点の動き量を、どのようにして求めるか説明した。次に、単に1点の動き量だけはなく、ある広がりを持った領域や画像全体の変形量や動き量を、どうやって求めるか説明する。基本的には、広い領域でも個別の画素や小領域に分割すれば、前節で説明した同じやり方で個別に動き量を求めることができるが、ここでは領域全体の変形量や移動量をコンパクトにパラメトリックな形で表現した形で求めるものとして話を進める。そのパラメトリックな形で求めるとは、例えば、各点の動き量を何らかのモーションモデルでモデル化し、そのモーションモデル(何らかの画像位置(x,y)の関数で表現される)の係数を求めることである。画像1、画像2の明度をそれぞれI(x,y),I(x,y)で表すとする。図12は画像I(x,y)から画像I(x,y)の画像全体の動き量をパラメトリックに表現する例を示している。ここで、画像の各点の動き量は2次元のベクトル(動きベクトルと呼ばれる)であり、幾何変換の一つであるアフィン変換で表されている。画像間の動き量を算出するとは、例えば、このアフィン変換の係数(a,b,c,d,e,f)を求めることに他ならない(下記式参照)。 In the previous section, we explained how to determine the amount of movement of a point on an image from two images using the brightness gradient method. Next, how to obtain not only the movement amount of one point but also the deformation amount and the movement amount of an area having a certain spread or the entire image will be described. Basically, if you divide a wide area into individual pixels and small areas, you can calculate the amount of movement individually in the same way as explained in the previous section, but here the amount of deformation and movement of the entire area is compact. The story proceeds as what is required in a parametric form. The parametric form is obtained, for example, by modeling the amount of movement of each point with some motion model and obtaining the coefficient of the motion model (expressed as a function of some image position (x, y)). . Assume that the brightness of image 1 and image 2 is represented by I 1 (x, y) and I 2 (x, y), respectively. FIG. 12 shows an example in which the motion amount of the entire image from the image I 1 (x, y) to the image I 2 (x, y) is expressed parametrically. Here, the motion amount of each point of the image is a two-dimensional vector (called a motion vector), and is represented by affine transformation, which is one of geometric transformations. The calculation of the amount of motion between images is nothing other than finding the coefficients (a, b, c, d, e, f) of this affine transformation (see the following formula).

Figure 2005157924
式(4)のアフィン変換のモデルを用いれば、画像の平行移動、拡大・縮小、回転及びくさび形変形の動きを表現することができる。簡単な平行移動だけの場合の時は平行移動のモデルの式(3)の形で良い。式(5)は3次元空間中にある平面が移動した場合( 図13参照) に、撮像される画像上に引き起こされる移動量を近似したモデル(ここでは、移動3D平面モデルと表現する) である(より厳密な移動量は平面射影変換の変換式で計算することもできる)。対象とするシーンが遠景である場合や、近くでも建物や壁、黒板などの平面的でカメラの回転量が小さい場合は、この移動3D平面モデルで近似できる。
Figure 2005157924
By using the affine transformation model of Equation (4), it is possible to represent the movement of the image in parallel movement, enlargement / reduction, rotation, and wedge-shaped deformation. In the case of only simple translation, the form of the translation model (3) may be used. Equation (5) is a model (here, expressed as a moving 3D plane model) that approximates the amount of movement caused on the captured image when a plane in the three-dimensional space moves (see FIG. 13). There is (more exact amount of movement can be calculated by the conversion formula of plane projective transformation). If the target scene is a distant view, or if it is a plane, such as a building, wall, or blackboard, and the amount of camera rotation is small, it can be approximated by this moving 3D plane model.

次に、これらの画像の動きのモデルを前提として、画像の変形量や動き量を算出する方法を説明する。平行移動のモデル{式(3)}、アフィン変換のモデル{式(4)}、移動3D平面モデル{式(5)}と段階的に、より複雑な画像の動き表現できるが、これらの画像の動きのモデルを用いて画像の変形量や動き量を算出するとは、これらの式のa,b,c,…,hの係数がどうなるか計算することである。この係数a,b,c,…,hを計算するのに良く用いられる方法は、対象とする領域R内で明度勾配法の拘束式{式(1)}の二乗誤差を最小にする方法(最小二乗法)である。すなわち、下記式(6)で示される二乗誤差Eを最小にする解を求める。 Next, a method for calculating the amount of deformation and the amount of motion of the image on the premise of these image motion models will be described. The translation model {Expression (3)}, the affine transformation model {Expression (4)}, and the moving 3D plane model {Expression (5)} can be expressed step by step more complicatedly. The calculation of the deformation amount and the motion amount of the image using the motion model is to calculate what the coefficients of a, b, c,. A method often used to calculate the coefficients a, b, c,..., H is a method of minimizing the square error of the constraint equation {Equation (1)} of the brightness gradient method in the target region R ( Least squares method). That is, finding a solution to the square error E 2 represented by the following formula (6) to a minimum.

Figure 2005157924
平行移動のモデルの場合は式(7)、アフィン変換のモデルの場合は式(8)、移動3D平面モデルの場合は下記式(10)に示す連立方程式を解けば、係数a,b,c,…,hを算出することができる。ここで式(7)から式(11)のΣは、対象とする領域Rでの加算を表している。
Figure 2005157924
Figure 2005157924
Coefficients a, b, and c are solved by solving the simultaneous equations shown in Equation (7) for a translation model, Equation (8) for an affine transformation model, and Equation (10) below for a moving 3D plane model. ,..., H can be calculated. Here, Σ in the equations (7) to (11) represents the addition in the target region R.
Figure 2005157924

ここでは詳しく述べないが、厳密な座標計算を行う平面射影変換などのモデルや対象が曲面だと仮定するようなモデルを用いても、非線形の最適化計算が必要となることもあるが、基本的には動き量を計算することができる。ただ、実際に写るシーンは複雑で、単純な平面や曲面で当てはめることはできない場合がある。そのような場合は、近似できる範囲で画像の領域を分割して、動き量を計算する。細かく分割した場合、例えば、極端には1画素単位程度の領域に分割しても、原理的には動き量を計算できるが、計算も各点で必要で必ずしも安定した正確な動き量が計算できるとは限らない。通常は、動き量の計算が安定する、ある程度の大きさの領域で計算されることが多い。   Although not described in detail here, nonlinear optimization calculation may be necessary even if a model such as plane projective transformation that performs exact coordinate calculation or a model that assumes that the target is a curved surface may be required. It is possible to calculate the amount of movement. However, the scenes that are actually captured are complex and cannot be applied with simple planes or curved surfaces. In such a case, the amount of motion is calculated by dividing the image area within an approximate range. In the case of fine division, for example, even if it is extremely divided into areas of about one pixel, the amount of motion can be calculated in principle, but calculation is also necessary at each point, and a stable and accurate amount of motion can be calculated. Not necessarily. Usually, it is often calculated in an area of a certain size where the calculation of the movement amount is stable.

前節で説明したように、遠方のシーン、又は同じ距離にあったり、同じ平面上にある物体を撮影したようなシーンであれば、画像全体の動き量を正確に求めることができる。また、写るシーンが複雑な場合は、近似できる範囲で画像の領域を複数の小領域に分割して、それぞれで動き量を計算できる。   As described in the previous section, the amount of movement of the entire image can be accurately obtained if the scene is a distant scene or a scene at the same distance or an object on the same plane. If the scene to be captured is complex, the image area can be divided into a plurality of small areas within a range that can be approximated, and the amount of motion can be calculated for each.

しかし、実際にはどのように分割するかが問題となる。対象までの距離や形が事前に分かっていれば、それを反映した分割も可能であるが、通常はそのような情報を持っていない場合が普通である。また、因子分解法などの動画像から3次元形状を復元する技術もあるので、そのような技術を用いて画像を分割することも考えられるが、一般に計算量が膨大である上、動画像から3次元形状を復元するにも前処理として画像の動き量を計測する必要があり、本質的な解決にはならない。   However, how to divide actually becomes a problem. If the distance and shape to the target are known in advance, division that reflects this is possible, but usually it does not have such information. In addition, since there is a technique for restoring a three-dimensional shape from a moving image such as factorization method, it is conceivable to divide the image using such a technique. In order to restore the three-dimensional shape, it is necessary to measure the amount of motion of the image as preprocessing, and this is not an essential solution.

例えば、図14に遠近の物体が混在して写る場合の様子を示している。手前に樹木、遠くに車両や山が写るシーンである。図14に示すように、カメラが左に動いたとき、全体として画像中の物体は右に移動する。確かに、全体として画像中の物体は右に移動するが、画像の内容によって、すなわち、手前の樹木は大きく、遠くの車両は小さく、それぞれ移動する量が異なる。このような動きをする場合、画像を複数の領域に分割せずに、画像全体の正確な動き量を検出するのは難しい( 言い換えると、従来の動き量のモデルを用いて記述するのは難しい)。例えば、移動3D平面モデル{式(5)}や平面射影変換等を使用して、動き量を求めてしまうことも可能であるが、正確な動き量を検出できない。ただ、実際の応用では、多少問題が発生しようと、強引に処理して動き量を算出することも多い。実時間の画像安定化などの応用では処理時間が問題となるため、複雑な処理ができず、単純な平行移動のモデル{式(3)}で、水平、垂直の移動量しか検出せず、その水平、垂直の移動の補正しかできない装置もある。また、図14のような遠近の物体が混在するような場合、従来、良くやられる方法としては、注目するのがどの辺であるか絞り込んで、その注目する領域だけを画像安定化する方法である。   For example, FIG. 14 shows a situation in which a distant object is captured together. This is a scene where trees are in the foreground and vehicles and mountains are in the distance. As shown in FIG. 14, when the camera moves to the left, the objects in the image as a whole move to the right. Certainly, the object in the image as a whole moves to the right, but the amount of movement differs depending on the content of the image, that is, the tree in front is large and the distant vehicle is small. When moving in this way, it is difficult to detect the exact amount of motion of the entire image without dividing the image into multiple regions (in other words, it is difficult to describe using a conventional motion amount model). ). For example, it is possible to determine the amount of motion using a moving 3D planar model {Equation (5)}, plane projective transformation, or the like, but it is not possible to detect an accurate amount of motion. However, in actual applications, the amount of motion is often calculated by forcibly processing to cause some problems. In real-time image stabilization and other applications, processing time becomes a problem, so complicated processing cannot be performed, and only a horizontal and vertical movement amount can be detected with a simple parallel movement model {Equation (3)}. Some devices can only correct the horizontal and vertical movement. In the case where objects in the distance as shown in FIG. 14 are mixed, a conventionally well-known method is to narrow down which side is of interest and stabilize the image of only the region of interest. .

図15は従来の実時間の画像安定化に用いられる動き量を算出する処理ブロックを示したものである。動画像の現在の入力画像107を参照画像108と比較し動き量を推定する動き量計算手段103の前段に、動き量計算範囲設定手段1401が設けられており、画像全体1402に対して動き量が計算される範囲(部分領域)1403が設定可能となっている。これにより、動き量計算手段103の処理対象となる処理範囲を、動き量計算範囲設定手段1401により設定し、それによって指定した範囲1403の動き量だけ計算する。こうすれば、画像全体1402の安定化は無理でも注目する領域(平面等で近似的にモデル化できる必要がある)については安定化することができる。   FIG. 15 shows a processing block for calculating a motion amount used for conventional real-time image stabilization. A motion amount calculation range setting means 1401 is provided before the motion amount calculation means 103 that compares the current input image 107 of the moving image with the reference image 108 to estimate the motion amount. A range (partial region) 1403 in which is calculated can be set. As a result, the processing range to be processed by the motion amount calculation means 103 is set by the motion amount calculation range setting means 1401, and only the motion amount in the range 1403 specified thereby is calculated. In this way, even if it is impossible to stabilize the entire image 1402, it is possible to stabilize the region of interest (need to be approximately modeled by a plane or the like).

以上、画像の変形量や動き量をどのように計算するか示した。また、複雑な背景の場合は、注目する領域を指定して、その部分だけの動き量を求める方法を示した。しかしながら、実際の画像では注目する対象が同じ位置に存在しているわけではない。一度、録画された画像を処理するのであれば、予め、どの部位を安定化するか指示できるかもしれないが、実時間で画像安定化するような場合などを考えても、シーンの変化に応じて、動き量の計算の処理範囲を人が設定するには無理があるなど実際には色々な問題が発生する。   The above shows how to calculate the amount of deformation and the amount of motion of an image. Also, in the case of a complex background, a method has been shown in which a region of interest is designated and the amount of motion for only that portion is obtained. However, the target object does not exist at the same position in the actual image. If you want to process the recorded image once, you may be able to instruct which part to stabilize in advance, but depending on the change of the scene even if you think about stabilizing the image in real time etc. In fact, there are various problems such as it is impossible for a person to set the processing range of the motion amount calculation.

そこで、本発明は、以下に列挙する課題を解決しようとするものである。
(1) 画像について動き量を計算する領域(注目する領域)を適切に入力するのは難しい。 注目するのは点ではなく、画像上のある広がりを持った領域である場合が普通で、しかも多様な領域の形をしている。その領域を含む単純な矩形のウインドウを人が指定するにしても、矩形のウインドウの中心位置、ウインドウの縦と横の大きさを与える必要がある。また、動画像を対象とした場合、画像の内容は時々刻々と変化していくため、注目したい領域も位置、大きさ、形がどんどん変化する。これを人が逐一、指定していくのは大変である。できれば、なるべく、詳細な指示が要らない形で動き量の計算範囲が自動的に決まるのが理想である。例えば、ある距離の目標に注目したいという条件設定をしたら、自動的に指定された条件の領域を選択識別して、画像の安定化等の処理を行って欲しい。
(2) 注目する領域を指定しても、不安定な部分が入り込む。
動画像では今までは背景に含まれ静止していた物体が移動し始めることがある。例えば、注目する領域の位置や形が適切に設定されても、対象範囲に含まれる物体が急に移動したら、静止した背景を想定した平面のモデルで動き量を求めると、正しい動き量を計算できなくなる場合がある。また、画像背景中の物体が移動したりするだけでなく、撮影時刻のズレから影の位置が変わったり撮影環境や画像センサーの違いから、全体の画像の動き検出に障害となるような不安定な部分が入り込むことがある。
Therefore, the present invention intends to solve the problems listed below.
(1) It is difficult to appropriately input a region for calculating the amount of motion (region of interest) for an image. It is normal to focus on an area with a certain spread on the image, not on a point, and in the form of various areas. Even if a person specifies a simple rectangular window including the area, it is necessary to give the center position of the rectangular window and the vertical and horizontal sizes of the window. In addition, when a moving image is a target, the content of the image changes from moment to moment, and the position, size, and shape of the region to be noticed change accordingly. It is difficult for people to specify this one by one. If possible, it is ideal that the calculation range of the motion amount is automatically determined in such a way that detailed instructions are not necessary. For example, if you set a condition that you want to pay attention to a target at a certain distance, I would like you to automatically select and identify the area with the specified condition and perform processing such as image stabilization.
(2) Even if the region of interest is specified, unstable parts will enter.
In a moving image, a stationary object that has been included in the background until now may start to move. For example, even if the position and shape of the region of interest are set appropriately, if the object included in the target range suddenly moves, the correct amount of motion is calculated by calculating the amount of motion using a plane model that assumes a stationary background. It may not be possible. In addition, the object in the background of the image not only moves, but also the position of the shadow changes due to the deviation of the shooting time, or the instability that interferes with the motion detection of the whole image due to the difference in shooting environment and image sensor Some parts may get in.

本発明のその他の目的や新規な特徴は後述の実施の形態において明らかにする。   Other objects and novel features of the present invention will be clarified in embodiments described later.

上記目的を達成するために、本願請求項1の発明は、画像中の目標又は背景の動き量を検出する画像の動き検出装置において、
注目する目標又は背景の部分の情報を入力又は設定する、注目する部分の情報の入力手段と、
重み付けとは前記注目する部分を画像位置と関連付けて画像位置により変化する重み係数を設定することであり、前記注目する部分の情報の入力手段からの情報と画像の内容とをつき合わせ、前記注目する部分は重みを大きく、前記注目する部分以外と考えられる部分の重みは小さくするように重み付けし、必要に応じて動き量計算の初期値を設定する重み付け等設定手段と、
前記重み付け等設定手段で設定された重み付けの重み係数や動き量計算の初期値を利用して、前記注目する部分に着目し又は注目する部分を排除して画像の動き量を推定する重み付け等を考慮した動き量計算手段とを備え、
画像の動き量を検出する過程において、前記重み付け等設定手段及び前記重み付け等を考慮した動き量計算手段は少なくとも1回以上の反復処理を繰り返して最終的な画像の動き量を推定するものであり、前記重み付け等設定手段は反復処理の中で前記重み付け等を考慮した動き量計算手段の画像の動き量推定結果を反映して重み付けを適応的に調整する機能を有し、前記重み付け等を考慮した動き量計算手段は反復処理の中で前記重み付け等設定手段で適応的に調整された重み付けの重み係数を利用することを特徴としている。
In order to achieve the above object, the invention of claim 1 of the present application is an image motion detection device for detecting a target or background motion amount in an image.
A means for inputting information of a target portion for inputting or setting information of a target or background portion of interest;
Weighting refers to setting a weighting coefficient that changes according to an image position by associating the portion of interest with an image position. The information from the information input unit of the portion of interest is combined with the content of the image, A weighting setting unit that sets a weight for a part to be large and weights a part considered to be other than the part of interest to be small, and sets an initial value of motion amount calculation as necessary;
Using the weighting weighting coefficient set by the weighting setting means or the initial value of the motion amount calculation, weighting for estimating the motion amount of the image while paying attention to the portion of interest or excluding the portion of interest A motion amount calculation means that takes into account,
In the process of detecting the amount of motion of the image, the weighting setting unit and the motion amount calculation unit taking into account the weighting, etc., estimate the final amount of motion of the image by repeating at least one iteration. The weighting setting means has a function of adaptively adjusting the weighting by reflecting the motion amount estimation result of the image of the motion amount calculation means considering the weighting in the iterative processing, and taking the weighting into consideration The motion amount calculating means uses the weighting weighting coefficient adaptively adjusted by the weighting setting means in the iterative process.

本願請求項2の発明に係る画像の動き検出装置は、請求項1において、前記注目する部分の情報の入力手段は、前記注目する目標又は背景の部分の画像位置、画像範囲、距離、大きさ、変形度、2次元形状、3次元形状、テクスチャ、色、反射率又は透過率、見え方、存在確率、車種、型式、カテゴリー、個数、速度、加速度、角速度、画像撮像装置の動きの情報又はそれらの予測情報のうち少なくとも一つ以上の情報を入力又は設定することを特徴としている。   The image motion detection apparatus according to claim 2 of the present application is the image motion detection apparatus according to claim 1, wherein the information input means of the target portion is the image position, image range, distance, size of the target target or background portion. Deformation degree, two-dimensional shape, three-dimensional shape, texture, color, reflectance or transmittance, appearance, existence probability, vehicle type, model, category, number, speed, acceleration, angular velocity, movement information of image pickup device or It is characterized in that at least one or more pieces of information are input or set.

本願請求項3の発明に係る画像の動き検出装置は、請求項1又は2記載の発明で必要となる反復処理をより効率的に行うために、動き量を計測する入力画像から多重解像度の画像を生成し、その多重解像度の画像を利用して粗密探索を行い、処理の反復の過程で徐々に画像の動き量を推定することを特徴としている。   An image motion detection apparatus according to a third aspect of the present invention provides a multi-resolution image from an input image for measuring a motion amount in order to more efficiently perform the iterative processing required in the first or second aspect of the invention. Is generated, a coarse / fine search is performed using the multi-resolution image, and the motion amount of the image is gradually estimated in the process of repetition.

本願請求項4の発明に係る画像の動き検出装置は、請求項1,2又は3において、前記注目する部分の情報の入力手段は、時系列的に前の処理結果の情報を利用して、注目する部分の情報を設定することを特徴としている。   The image motion detection device according to the invention of claim 4 is the image motion detection device according to claim 1, 2 or 3, wherein the information input means of the part of interest uses information of the previous processing result in time series, It is characterized by setting the information of the part of interest.

本願請求項5の発明に係る画像の動き検出装置は、請求項1,2,3又は4において、前記注目する部分を画像位置と関連付ける、画像位置により変化する重み係数について、矩形ウインドウ単位又は任意の形状の領域単位で同じ重み係数で扱う形の処理で具現化するか、又は矩形ウインドウ単位又は任意の形状の領域単位で重み係数を0又は1と選択するのと等価な処理で具現化したことを特徴としている。   The image motion detection apparatus according to claim 5 of the present invention is the image motion detection device according to claim 1, 2, 3, or 4, wherein the weighting coefficient that changes the image position is related to the portion of interest in rectangular window units or arbitrary It is realized by processing in the form of handling with the same weighting factor in the area unit of the shape, or by processing equivalent to selecting the weighting factor as 0 or 1 in the rectangular window unit or the area unit of any shape It is characterized by that.

本願請求項6の発明に係る画像の動き検出装置は、請求項1,2,3,4又は5において、前記重み係数とは、注目する部分を画像位置と関連付ける、画像位置により変化する重み係数であり、画像変化とは画像の動き量を計測する対象の画像間での撮影環境、画像撮像装置の違いから生じる変化であり、画像間の動き量を計測するのに障害となる画像変化の大きい部分は注目しないように重み係数を適応的に調整することを特徴としている。   An image motion detection apparatus according to claim 6 of the present application is the image motion detection device according to claim 1, wherein the weighting coefficient associates a portion of interest with the image position and changes according to the image position. An image change is a change that occurs due to differences in the shooting environment and the image pickup device between the images for which the amount of motion of the image is measured, and the change in the image that becomes an obstacle to measuring the amount of motion between images. The feature is that the weighting factor is adaptively adjusted so as not to pay attention to a large portion.

本願請求項7の発明に係る画像の動き検出装置は、請求項6において、可視画像と赤外画像、近赤外と遠赤外などの異種画像センサーで取得した画像間の対応付けを計算することを特徴としている。   The image motion detection apparatus according to claim 7 of the present application calculates a correspondence between images acquired by different types of image sensors such as a visible image and an infrared image, a near-infrared image, and a far-infrared image in claim 6. It is characterized by that.

まず、基本となる請求項1記載の発明がどのように作用するか説明する。画像中に遠近の物体が混在しており、例えば、その遠方にある物体に注目し動き量を抽出する場合を考える。   First, how the basic invention of claim 1 works will be described. Consider a case in which distant objects are mixed in the image, and for example, the amount of motion is extracted by paying attention to the distant object.

そのような状況を図16に示す。時刻tで撮像された画像I上で領域Aと領域Bが隣合って写っており、注目する領域Aの物体はカメラから遠く、領域Bの物体はカメラの近くにあるものとする。その画像Iの明度変化の例を示したものが図16(a)である。この図では、簡単のため1次元(x軸)で明度の変化を表している。下の図16(b)では、時刻tで撮像された画像Iの明度変化の例を示している。画像Iでは、左手方向にカメラが動いたことにより、領域Aと領域Bは共に右手方向にずれて移動している。但し、それぞれの動きの量は、領域Aの物体はカメラから遠くにあるため少なく、領域Bの物体はカメラの近くにあるため大きい。なお、領域Aと領域Bの間に発生した領域は、時刻tの時点の画像Iでは領域Bの影に隠れて見えていなかった部分である。 Such a situation is shown in FIG. It is assumed that the area A and the area B are shown next to each other on the image I 1 captured at the time t 1 , the object of the area A of interest is far from the camera, and the object of the area B is near the camera. Shows an example of a brightness change of the image I 1 is a diagram 16 (a). In this figure, for the sake of simplicity, the change in brightness is shown in one dimension (x-axis). FIG. 16B below shows an example of brightness change of the image I 2 captured at time t 2 . In the image I 2 , the area A and the area B are both shifted in the right hand direction due to the camera moving in the left hand direction. However, the amount of each movement is small because the object in the region A is far from the camera, and the object in the region B is large because the object is near the camera. The region generated between the regions A and B is a shaded area that has not been hidden in the image I 1 in the region B point in time t 1.

請求項1記載の発明に係る画像の動き検出装置は、少なくとも1回以上の反復処理で段階的に動き量を計算することを前提としている。その為、ここでは、何らかの手がかり、初期設定又は反復処理により、領域Aの動き量を推定した暫定値が求まっていると仮定する。その動き量の暫定値をaとする。より正確な動き量を求めるためには、その残りの動き量(動き量補正値)を計算する必要がある。図16(c)は、画像Iを動き量の暫定値aだけ左方向に戻して、画像Iと重ね合わした様子を示している。図16(c)を見て分かるように、領域Aの動きに合わせて戻しているため領域Aの領域では明度のズレが少なく、I(x)と画像Iを動き量の暫定値aだけ左方向に戻したI(x+a)の明度がほぼ重なる形となる。このような部分(ここでは整合領域と表現する)では、明度勾配法で残りの動き量をほぼ正しく算出することができる。また、それ以外の領域Bや隠れていた部分(ここでは非整合領域と表現する)においては明度勾配法で正しい動き量を求めることはできない。当然、最初から、領域Aと領域Bの位置や形が指定されていれば問題はないが、ここでは明確に領域の情報が与えられていないとする。よって、全体(領域A及び領域B)としての動き量を求めようとすると、そのままでは、領域Bや隠れていた部分について正しい動き量が計算できないだけでなく、領域Aの動き量を求めるときに誤りの原因になる。ただ、動き量を最小二乗法等で計算をするとき、領域Aのような整合領域での誤差を大きく評価し、それ以外の領域Bや隠れていた部分のような非整合領域では誤差をあまり大きく評価しないような形で解いてやれば、領域Aに注目した動き量だけを計算してやることができる。ここでは、誤差の評価式の係数の関係から、その部分を動きを重視し誤差を大きく評価して(結果として誤差が小さくなるように)やることを「重み係数を大きく、又は重みを大きく」、誤差を小さく評価してやることを「重み係数を小さく、又は重みを小さく」という表現で表すことにする。この重み係数(重み付け) を何らかの方法で決めなければならないが、例えば、画像I(x)と画像I(x+a)との間の明度差や勾配の一致度を評価して決めてやることができる。 The image motion detection apparatus according to the first aspect of the present invention is based on the premise that the motion amount is calculated stepwise by at least one or more iterations. For this reason, it is assumed here that a provisional value obtained by estimating the amount of motion in the region A is obtained by some clue, initial setting, or iterative processing. The provisional value of the amount of movement is a. In order to obtain a more accurate motion amount, it is necessary to calculate the remaining motion amount (motion amount correction value). FIG. 16C shows a state in which the image I 2 is returned to the left by the provisional value a of the amount of motion and is superimposed on the image I 1 . As can be seen from FIG. 16 (c), since the image is returned in accordance with the movement of the area A, there is little deviation in brightness in the area A, and I 1 (x) and the image I 2 are converted into a provisional value a for the amount of movement. As a result, the brightness of I 2 (x + a) returned to the left is almost overlapped. In such a portion (represented here as a matching region), the remaining amount of motion can be calculated almost correctly by the lightness gradient method. In addition, the correct amount of motion cannot be obtained by the lightness gradient method in other regions B and hidden portions (herein expressed as non-matching regions). Of course, there is no problem if the positions and shapes of the areas A and B are designated from the beginning, but it is assumed here that the area information is not given clearly. Therefore, if the motion amount as a whole (region A and region B) is to be obtained, not only the correct motion amount cannot be calculated for the region B or the hidden portion, but also when the motion amount of the region A is obtained. Cause an error. However, when the amount of motion is calculated by the least square method or the like, the error in the matching region such as the region A is greatly evaluated, and the error is not much in the non-matching region such as the other region B or the hidden portion. If it is solved in such a way that it is not greatly evaluated, only the amount of movement focused on the area A can be calculated. Here, from the relationship of the coefficients in the error evaluation formula, it is important to emphasize the movement and evaluate the error greatly (so that the error is reduced as a result). The evaluation of the error being small is expressed by the expression “small weight coefficient or small weight”. This weighting factor (weighting) must be determined by some method. For example, it is determined by evaluating the lightness difference between the image I 1 (x) and the image I 2 (x + a) and the degree of coincidence of the gradients. Can do.

図17に示すフローチャートは、重み係数を繰り返し処理して行く過程で、画像同士をつき合わせることにより重み係数を適応的に変化させて行く処理の流れを示したものである。このように、最初に何らかの注目する部位の位置情報等が与えられれば、自動的に画像の内容に合わせながら重み係数が決まって行く。重み係数が適切に決まれば、注目する部位の動き量も適切に抽出できる。請求項1記載の発明は、これらの処理の流れ構成するのに、必要となる各手段で具体的にどうすれば良いかを示したものである。   The flowchart shown in FIG. 17 shows a process flow in which the weighting coefficient is adaptively changed by matching the images in the process of repeatedly processing the weighting coefficient. As described above, when position information or the like of a part of interest is first given, the weighting coefficient is automatically determined in accordance with the contents of the image. If the weighting factor is determined appropriately, the amount of movement of the region of interest can also be extracted appropriately. The first aspect of the present invention shows how to implement the processing flow specifically with each means required.

請求項1記載の発明に係る画像の動き検出装置おいて、まず、注目する部分の情報の入力手段により、最初の注目する部位の位置情報と結びつけることができる手がかりの情報(画像位置、画像範囲、距離、大きさ、変形度(参照画像に対するバラツキの許容範囲)、2次元形状、3次元形状、テクスチャ(模様)、色、反射率又は透過率、見え方(3次元物体がどのように見えているか)、存在確率(特定の目標物の存在する確率)、車種、型式(車種よりも細かい分類)、カテゴリー(例えば目標が人、車両、樹木等であるかどうか)、個数、速度、加速度、角速度、画像撮像装置の動き(カメラ等に取り付けたジャイロ等から得られる3次元的なカメラの動き量)の情報又はそれらの予測情報等) が得られる。また、重み付け等設定手段では、前記注目する部分の情報の入力手段から情報と画像の内容をつき合わせ、注目する部位の重みを大きく取り、注目する部位以外と考えられる部位の重みは小さくするように重み付けを調整し、必要に応じて動き計算の初期値を設定することができるようにしている。そして、重み付け等を考慮した動き計算手段では、重み付け等設定手段で設定された重み付けや動き計算の初期値を利用して、注目する部位に着目し又は注目する部位を排除して画像の位置変化を推定することができるようにしている。また、この重み付け等設定手段と重み付け等を考慮した動き計算手段は、少なくとも1回以上の反復処理を繰り返して最終的な画像の位置変化を推定するようにしている。そして、重み付け等設定手段は反復処理の中で前記重み付け等を考慮した動き計算手段の結果を反映して重み付けを適応的に調整する機能を有し、重み付け等を考慮した動き計算手段において反復処理の中で前記重み付け等設定手段で適応的に調整された重み付けを利用することができるようにしている。これにより、図17に示す繰り返し処理の形で、注目する領域だけの動き量を適切に抽出することができる。   In the image motion detection apparatus according to the first aspect of the present invention, first, information on a clue (image position, image range) that can be linked to position information on a first target region by means of inputting information on the target region. , Distance, size, degree of deformation (tolerance of variation with respect to the reference image), 2D shape, 3D shape, texture (pattern), color, reflectance or transmittance, appearance (how 3D objects look ), Existence probability (probability that a specific target exists), vehicle type, type (classification that is finer than the vehicle type), category (for example, whether the target is a person, vehicle, tree, etc.), number, speed, acceleration , Information on the angular velocity, movement of the image pickup device (a three-dimensional camera movement amount obtained from a gyro attached to the camera or the like) or prediction information thereof). In addition, the weighting setting means adds the information and the contents of the image from the information input means for the part of interest, increases the weight of the part of interest, and reduces the weight of the part considered to be other than the part of interest. The initial value of motion calculation can be set as necessary. Then, in the motion calculation means considering weighting or the like, the initial position value of the weighting or motion calculation set by the weighting etc. setting means is used to pay attention to the part of interest or to exclude the part of interest and change the position of the image. It is possible to estimate. Also, the weighting setting means and the motion calculation means considering weighting, etc. are configured to estimate the final image position change by repeating at least one iteration. The weighting setting means has a function of adaptively adjusting the weighting by reflecting the result of the motion calculation means considering the weighting in the iterative processing, and the iterative processing in the motion calculation means considering the weighting etc. The weighting adaptively adjusted by the weighting setting means can be used. Accordingly, it is possible to appropriately extract the amount of motion of only the region of interest in the form of the iterative process shown in FIG.

請求項2記載の発明に係る画像の動き検出装置は、請求項1の発明における最初の注目する部位の位置情報と結びつけることができる手がかりの情報が、画像位置、画像範囲、距離、大きさ、変形度、2次元形状、3次元形状、テクスチャ、色、反射率又は透過率、見え方、存在確率、車種、型式、カテゴリー、個数、速度、加速度、角速度、画像撮像装置の動きの情報又はそれらの予測情報であることを具体的に限定している。   According to a second aspect of the present invention, there is provided an image motion detection apparatus comprising: information on a clue that can be linked to position information of a first target region in the first aspect of the invention, the image position, the image range, the distance, the size, Deformation degree, two-dimensional shape, three-dimensional shape, texture, color, reflectance or transmittance, appearance, existence probability, vehicle type, model, category, number, speed, acceleration, angular velocity, movement information of image pickup device or those The prediction information is specifically limited.

請求項3記載の発明に係る画像の動き検出装置は、請求項1記載の発明の反復処理において、多重解像度の画像を利用して粗密探索の形で処理を行うものである。粗密探索を行う形で処理を行うと、その反復の過程で徐々に画像の位置変化を推定することができるので、非常に効率的に動き量を推定することができる。   According to a third aspect of the present invention, in the iterative processing of the first aspect of the invention, the image motion detection apparatus performs processing in the form of a coarse / fine search using a multi-resolution image. If the processing is performed in the form of a coarse / fine search, it is possible to estimate the change in the position of the image gradually in the process of the iteration, and thus it is possible to estimate the amount of motion very efficiently.

請求項4記載の発明に係る画像の動き検出装置は、注目する部分の情報の入力手段として、時系列的に前の処理結果の情報を利用して、注目する部分の情報を自動的に設定することができるようにしたもので、毎回、注目する部分の情報を入力する手間を省くことができる。   According to a fourth aspect of the present invention, there is provided an image motion detection apparatus that automatically sets information of a portion of interest by using information of a previous processing result in time series as an input means of information of a portion of interest. In this way, it is possible to save the trouble of inputting information of a portion of interest every time.

請求項5記載の発明に係わる画像動き検出装置は、注目する部分を画像位置と関連付ける、画像位置により変化する重み係数の設定を、矩形ウインドウ単位又は任意の形状の領域単位で操作するのと同じであり、請求項1から請求項3記載の発明と同じ効果を得ることができる。   The image motion detection apparatus according to the invention described in claim 5 is the same as the operation of setting the weighting coefficient that changes depending on the image position, in which the portion of interest is associated with the image position, in units of rectangular windows or regions of arbitrary shapes. Thus, the same effects as those of the inventions according to claims 1 to 3 can be obtained.

請求項6記載の発明に係わる画像動き検出装置は、画像間の動き量を計測するのに障害となるような、画像の動き量を計測する対象の画像間での撮影環境(天候、撮影する画像センサーの種類等)の違いから生じる画像の変化の大きい部分については、注目しないように適応的に重み係数を調整するようにしているので、画像間の動き量を正しく計測することができる。   An image motion detection apparatus according to a sixth aspect of the present invention is a shooting environment (weather, shooting) between images to be measured for the amount of motion of an image, which is an obstacle to measuring the amount of motion between images. Since the weight coefficient is adaptively adjusted so as not to pay attention to a portion where the change in the image resulting from the difference in the type of image sensor is large, the amount of motion between images can be measured correctly.

請求項7の発明に係わる画像動き検出装置は、請求項6記載の発明を、特に可視画像と赤外画像、近赤外と遠赤外などの異種画像センサーで取得した画像間の対応付けを計算するように適用したものであり、画像間で画像の写り方の変化があってもその画像の変化の大きい部分は注目しないように適応的に重み係数を調整するので、画像間の対応を正しく計測することができる。   According to a seventh aspect of the present invention, there is provided an image motion detection apparatus according to the sixth aspect of the invention, in particular, associating images obtained by different types of image sensors such as a visible image and an infrared image, and a near-infrared and far-infrared image sensor. The weighting factor is adaptively adjusted so that even if there is a change in the way the image is captured between images, the part where the change in the image is large is not noticed. It can be measured correctly.

本発明は、以下に記載されているような効果を奏する。   The present invention has the following effects.

(1) 画像で動き量を計算する領域(注目する領域)の設定が楽になる。
請求項1,2及び3記載の発明の画像の動き検出装置を用いることにより、最初の手がかりとなる情報から、対象となる領域の範囲を適応的な重み付けにより切り出すことができる。よって、注目する領域や対象の詳細な指示が要らなくなるため、実時間の動画像を安定化したりする場合など、操作員の労力を低減することができ非常に効果的である。また、請求項4記載の発明を使用すれば、動画像で注目する領域がどこかを常に指示する必要が無く、最初に与えた注目領域の情報だけで自動的に続く画像の注目する部分がどこか内容が更新されるので、格段に装置の操作が容易になる。
(1) Easily set the area for calculating the amount of motion (the area of interest) in the image.
By using the image motion detection device according to the first, second, and third aspects of the invention, the range of the target region can be extracted by adaptive weighting from the information that is the first clue. This eliminates the need for detailed instructions on the region of interest and the object, and can reduce the labor of the operator when stabilizing a real-time moving image, which is very effective. Further, if the invention according to claim 4 is used, there is no need to always indicate where the region of interest in the moving image is, and the portion of interest of the image that automatically follows only with the information of the region of interest given first is Since the contents are updated somewhere, the operation of the apparatus becomes much easier.

(2) エラーとなる部分を排除し、動き量の推定の安定性が向上する。
注目領域で想定する移動3D平面の動きから外れるような移動物体が仮に発生しても、繰り返し処理の中で、整合性が取れない領域は重み付けにより排除されるため、結果として注目領域の動き量を的確に安定して推定することができる。
(2) The error part is eliminated, and the stability of the motion estimation is improved.
Even if a moving object that deviates from the movement of the moving 3D plane assumed in the attention area is generated, an inconsistent area is excluded by weighting in the iterative processing, and as a result, the amount of movement of the attention area Can be estimated accurately and stably.

(3) 画像から3次元情報等の情報を抽出することができる。
注目領域で想定する移動3D平面の動きから外れるような移動物体が発生しているとその移動物体の部分の重みは小さくなる。重み付けの情報を逆に利用して、想定した以外の動きをする移動物体を自動的に検出することも可能である。また、本発明を適用することにより、画像の整合性から、指定した部分が平面的に近似できる部分かどうかの判定が得られるので、シーンの3次元情報を復元するとき、どの部分が平面近似できるかなどの重要な情報が得られる。
(3) Information such as three-dimensional information can be extracted from the image.
If there is a moving object that deviates from the movement of the moving 3D plane assumed in the region of interest, the weight of the moving object part becomes small. On the contrary, it is also possible to automatically detect a moving object that moves other than assumed by using the weighting information. In addition, by applying the present invention, it is possible to determine whether or not the designated portion can be approximated in a planar manner from the consistency of the image. Therefore, when restoring the three-dimensional information of the scene, which portion is planar approximated Important information such as whether it can be obtained.

(4) 異種画像センサーから得られる性質の異なる画像の位置合わせができる。
可視と赤外では全く見え方が異なるが、見え方の異なる部分は重み係数を小さくすることにより除外し、物体の輪郭等のエッジや全体の対応関係に注目できるので、画像の対応付け(位置合わせ)が正確にできるようになる(異種画像センサーの画像間の対応付けができれば、融合して多様な情報を含む一つの画像を生成したり、スペクトル分析による物体の分類等の処理が可能となる。)。
(4) Images with different properties obtained from different types of image sensors can be aligned.
Visible and infrared are completely different in appearance, but parts with different appearance can be excluded by reducing the weighting factor, and attention can be paid to edges such as the contour of the object and the overall correspondence. (Adjustment) can be accurately performed (if the images of different types of image sensors can be correlated, it will be possible to create a single image containing various information by merging, or to classify objects by spectral analysis, etc. Become.).

以下、本発明を実施するための最良の形態として、画像の動き検出装置の実施の形態を図面に従って説明する。   DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, an embodiment of an image motion detection device will be described with reference to the drawings as the best mode for carrying out the present invention.

従来技術での説明に対応させ、ここでも明度勾配法で実現する例を中心に説明する。また、以下の説明では、多くの場合、各画素での重み付けの形で表現するが、その重み付けと等価な処理も含むものとする。例えば、ある矩形の処理ウインドウ全体で特定の重みを使用したり、極端な話、重みを0と1で制御すれば処理ウインドウを選択したりする処理と各画素での重み付けとは表現上の違いがあっても本質的に同じことである。処理に影響ないところでは、画像の各画素毎に重みを計算しなくても良い。また、処理の簡単化のため、各画素で重み係数を求めず、ある矩形ウインドウ領域全体で画像の平均的な整合性を算出して、その領域に対し一つの重み係数を使用する場合もある。例えば、図18に示すような個別のウインドウ領域で動き量を個別に計算し、一つの重み係数を用いてもよい。図18では、横320画素×縦240画素で構成される1枚の画像を、5×5の25個のウインドウ領域に分割するような例を示している。以下の説明では、この分割したウインドウ領域をブロックと表現する場合もある。よって、請求項5記載の発明は、重み付けを矩形ウインドウ単位又は任意の形状の領域単位で行うことができることを示したものであり、請求項5記載の発明についての実施の形態については、請求項1〜4記載の発明の実施の形態の説明の中に、適宜含めて説明するものとする。   Corresponding to the description in the prior art, here also an explanation will be given focusing on an example realized by the brightness gradient method. Further, in the following description, in many cases, it is expressed in the form of weighting in each pixel, but it includes processing equivalent to the weighting. For example, the processing that uses a specific weight for the entire processing window of a certain rectangle, or an extreme story, the processing window is selected if the weight is controlled by 0 and 1, and the weighting at each pixel is a difference in expression. Even if there is, it is essentially the same thing. Where the processing is not affected, it is not necessary to calculate the weight for each pixel of the image. In addition, for simplification of processing, there is a case where an average consistency of an image is calculated over a certain rectangular window area without using a weighting coefficient for each pixel, and one weighting coefficient is used for the area. . For example, the motion amount may be calculated individually in individual window areas as shown in FIG. 18, and one weighting coefficient may be used. FIG. 18 shows an example in which one image composed of 320 horizontal pixels × 240 vertical pixels is divided into 25 window regions of 5 × 5. In the following description, the divided window area may be expressed as a block. Therefore, the invention described in claim 5 shows that weighting can be performed in units of rectangular windows or regions of arbitrary shapes, and the embodiment of the invention described in claim 5 is claimed in the claims. In the description of the embodiments of the invention described in 1-4, it will be described as appropriate.

(実施の形態1)
請求項1記載の発明に対応する実施の形態1の処理ブロック図を図1に示す。図1において、動画像の現在の入力画像107と参照画像108とが重み付け等を考慮した動き量計算手段1801に入力され、重み付け等を考慮した動き量計算手段1801は参照画像Iと入力画像Iを入力として、注目する部分の動き量を推定する。この重み付けを考慮した動き量計算手段1801は、少なくとも1回以上の繰り返し処理で動き量を求めるものであり、その繰り返し処理の中で、注目する部分は重みを大きく、注目する部分以外と考えられる部分の重みは小さくするように、重み付けされた重み係数や必要に応じて動き量計算の初期値の重み付け等の情報1804が、重み付け等設定手段1802から与えられる。重み付け等設定手段1802も、重み付けを考慮した動き量計算手段1801と連動して、少なくとも1回以上の繰り返し処理を行う。この重み付け等設定手段1802では、注目する部分の情報の入力手段1803からの注目する目標又は背景等の情報1805と重み付けを考慮した動き量計算手段1801の途中処理結果等の情報1806をつき合わせ、注目する部分(注目する目標の位置1807を含む)は重みを大きく、注目する部分以外と考えられる部分の重みは小さくするように重み付けする。また、重み付け等設定手段1802は必要に応じて動き量計算の初期値を設定する。注目する部分の情報の入力手段1803においては、重み付け等設定手段1802へ与える注目する目標又は背景等の情報1805を入力又は設定することができる。
(Embodiment 1)
A processing block diagram of the first embodiment corresponding to the first aspect of the present invention is shown in FIG. In Figure 1, is input to the current input image 107 and the reference motion amount calculation unit 1801 image 108 and is considering weighting for a moving image, the motion amount calculation unit 1801 in consideration of weighting like the reference image I 1 and the input image Using I 2 as an input, the amount of motion of the part of interest is estimated. The motion amount calculation means 1801 in consideration of the weighting is for obtaining the motion amount by at least one or more repeated processes, and in the repeated processes, the part of interest has a large weight and is considered to be other than the part of interest. Information 1804 such as a weighted weighting factor and weighting of an initial value of motion amount calculation, if necessary, is given from the weighting setting means 1802 so as to reduce the weight of the portion. The weighting setting means 1802 also performs at least one repetition process in conjunction with the motion amount calculation means 1801 taking weighting into account. In this weighting setting means 1802, information 1805 of the target or background to be noticed from the information input means 1803 of the part of interest is combined with information 1806 such as the intermediate processing result of the motion amount calculation means 1801 in consideration of weighting, The portion to be noticed (including the target position 1807 to be noticed) is weighted so that the weight is large, and the weight of the portion considered other than the portion to be noticed is small. Also, the weighting setting unit 1802 sets an initial value for the motion amount calculation as necessary. In the information input means 1803 for the part of interest, information 1805 such as the target or background to be given to the weighting etc. setting means 1802 can be input or set.

図2は、重み付けを考慮した動き量計算手段1801の詳細な実現例を示したものである。図2の詳細な説明を行う前に、各点で重み係数を考慮して、画像の動き量を計算する方法について説明しておく。この各点の重み係数をS(x,y)で表すことにする。この重み係数S(x,y)は後でどうやって求めるか述べるが、ここでは既に求まっているものとして話を進める。   FIG. 2 shows a detailed implementation example of the motion amount calculation means 1801 in consideration of weighting. Prior to the detailed description of FIG. 2, a method for calculating the amount of motion of an image in consideration of a weighting factor at each point will be described. The weighting coefficient of each point is represented by S (x, y). This weighting factor S (x, y) will be described later as to how it will be obtained, but here it is assumed that it has already been obtained.

以下の式(12)は通常の最小二乗法の評価式である式(6)に対応するもので、かつ、2乗誤差Eを集計する時に、重み係数S(x,y)を考慮する評価式になっている。 The following equation (12) intended to correspond to formula (6) evaluation formula ordinary least squares method, and to consider when to aggregate squared error E 2, the weighting factor S a (x, y) It is an evaluation formula.

Figure 2005157924
例えば、重み係数S(x,y)を考慮し最小二乗法による平行移動モデルでの動き量を計算する連立方程式は以下の式(13) の形となる。
Figure 2005157924
For example, simultaneous equations that calculate the amount of motion in the translation model based on the least square method in consideration of the weight coefficient S (x, y) have the form of the following equation (13).

Figure 2005157924
他の動きのモデル(アフィンモデル、移動3D平面モデル)の場合でも、それぞれ対応する、式(8)〜式(11) のΣの後に重み係数S(x,y)を挿入した式になるので、その重みを考慮した連立方程式を解けば良い。
Figure 2005157924
Even in the case of other motion models (affine model, moving 3D plane model), the weight coefficient S (x, y) is inserted after Σ in the corresponding equations (8) to (11). It is sufficient to solve the simultaneous equations in consideration of the weights.

図2を用いて、重み付けを考慮した動き量計算手段1801の全体の動きを説明する。まず、対象となる2枚の画像は、参照画像108(I)と入力画像107(I)である。これらの画像を入力として処理が開始される。最初に、重み付け等設定手段1802から与えられる動き量(推定値) の初期値1908(適当な予測値が無ければ初期値はゼロに設定しておく) で、入力画像Iが画像ワープ部105でワープされワープ画像I 1906が生成される。この時のワープは正確には、逆ワープであり、入力画像Iを変形し参照画像Iに戻す形になっている。画像勾配計算部1902では、参照画像Iのx軸方向の勾配I、y軸方向の勾配Iを、図10に示すような差分オペレータを用いて計算する。また、明度差算出部1901では、ワープした入力画像I と参照画像Iの明度差Iを算出する。この時点で、画像座標(x,y)、明度勾配(I,I)、明度差Iが揃っている。フロー特徴量(ここでは、I ,xI ,yI 等の値を示すものとする) の積算部1903では、重み付け等設定手段1802から与えられた1907の重み係数S(x,y)、そして画像座標(x,y)、明度勾配(I,I)、明度差Iを用い、前記連立方程式の係数になるΣS(x,y)I 等の重み付けしたフロー特徴量を集積して行く。ここでは、ラスター走査のような形で、各点の画像座標(x,y)、重み係数S(x,y)、明度勾配(I,I)、明度差Iを計算していれば、同じラスター走査の形でフロー特徴量を計算し積算して行くことができるので効率がよい。 With reference to FIG. 2, the overall motion of the motion amount calculation means 1801 considering weighting will be described. First, the two target images are the reference image 108 (I 1 ) and the input image 107 (I 2 ). Processing is started with these images as inputs. First, the initial value 1908 of the motion amount (estimated value) given from the weighting setting means 1802 (the initial value is set to zero if there is no appropriate predicted value), and the input image I 2 is the image warp unit 105. And warped image I 2 W 1906 is generated. The warp at this time is exactly the reverse warp, and the input image I 2 is deformed and returned to the reference image I 1 . The image gradient calculation unit 1902 calculates the gradient I x in the x-axis direction and the gradient I y in the y-axis direction of the reference image I 1 using a difference operator as shown in FIG. Further, the brightness difference calculation section 1901 calculates a brightness difference I t of the reference image I 1 and the input image I 2 W was warped. At this point, the image coordinates (x, y), the brightness gradient is uniform (I x, I y), brightness difference I t. In a summation unit 1903 of flow feature quantities (here, values such as I x 2 , xI x 2 , yI x 2, etc.) are shown, a weighting factor S (x, 1907) given from the weighting setting means 1802. y), and the image coordinates (x, y), the brightness gradient (I x, I y), using the brightness difference I t, the ΣS made to the coefficients of the simultaneous equations (x, y) flow weighted such I x 2 Accumulate feature values. Here, in the form such as a raster scan, the image coordinates of each point (x, y), the weighting factor S (x, y), the brightness gradient (I x, I y), only to calculate the brightness difference I t For example, the flow feature amount can be calculated and accumulated in the same raster scanning form, which is efficient.

次に、動き量の計算部1904では、画像全体に集積されたフロー特徴量を入力として、前記連立方程式を解き動き量を算出する。何回かの反復処理の後では、画像ワープ部105で入力画像は、動き量の算定値でワープされているので、動き量の計算部1904で求まるのは、残りの動き量(動き量補正値)になる。動き量の加算部1905では、動き量の計算部1904で求まった動き量補正値(例えば、移動3D平面モデルでは(Δa,…,Δh)を加算処理して、新しい動き量の暫定値が求められる。何回か反復処理した後、この動き量の暫定値は動き量の推定値1909 {例えば、移動3D平面モデルでは(a,b,c,d,e,f,h)}として出力される。   Next, the motion amount calculation unit 1904 calculates the motion amount by solving the simultaneous equations with the flow feature amount accumulated in the entire image as an input. After several iterations, the image warp unit 105 warps the input image with the motion amount calculation value, and the motion amount calculation unit 1904 obtains the remaining motion amount (motion amount correction). Value). The motion amount addition unit 1905 adds the motion amount correction values obtained by the motion amount calculation unit 1904 (for example, (Δa,..., Δh) in the moving 3D plane model) to obtain a provisional value of a new motion amount. After several iterations, the provisional value of this amount of motion is output as an estimated amount of motion 1909 {eg (a, b, c, d, e, f, h)} for a moving 3D plane model}. The

重み付け等の設定手段1802の側では、この重み付け等を考慮した動き量計算手段1801の途中処理結果等(参照画像やワープ画像など)の情報1806を利用して評価値の計算に反映し、繰り返し処理の中で、重み係数S(x,y)を適応的に修正するのに使用する。ここで言う評価値とは注目する領域の想定する動きのモデルと整合しているか評価する評価値である。   On the weighting setting means 1802 side, the information 1806 such as the intermediate processing result (reference image, warp image, etc.) of the motion amount calculation means 1801 in consideration of this weighting is reflected in the evaluation value calculation and repeated. In the process, it is used to adaptively modify the weighting factor S (x, y). The evaluation value referred to here is an evaluation value for evaluating whether or not it is consistent with the assumed motion model of the region of interest.

注目する部分の情報の入力手段1803は、何らかの注目したい目標の情報を入力できればよい。例えば、位置を指定したいときは、操作員が位置をマウスやカーソル等のポインティングデバイスで指定できる。別の目標追尾装置から、そのような目標位置の情報を受け取る手段を用意してもよい。また、操作員の視線を検出してどこに注目しいてるか計算しても良い。注目する物体や背景の色が分かっていれば、その色を指定するだけで、目標や背景の位置を特定することができる。更に、画像撮像装置(カメラ)自体の動き量をジャイロセンサー等から入手できれば、画像中で注目する部分がどの方向、位置にずれたか特定することもできる。このように、注目する目標や背景の位置情報と関連付けられる、又は何らかの手がかりとして利用できる情報には、請求項2に記載しているように、距離、大きさ、変形度、2次元形状、3次元形状、テクスチャ、色、反射率又は透過率、見え方、存在確率、車種、型式、カテゴリー、個数、速度、加速度、角速度、画像撮像装置の動きの情報又はそれらの予測情報などがある。   The information input means 1803 for the part of interest only needs to be able to input information of a target to be noticed. For example, when specifying the position, the operator can specify the position with a pointing device such as a mouse or a cursor. Means for receiving such target position information from another target tracking device may be provided. Further, it may be calculated where the operator's line of sight is detected and where attention is paid. If the color of the object or background of interest is known, the position of the target or background can be specified simply by specifying the color. Furthermore, if the amount of movement of the image pickup device (camera) itself can be obtained from a gyro sensor or the like, it is possible to specify in which direction and position the part of interest in the image has shifted. As described above, the information related to the target target or background position information or usable as a clue is the distance, size, degree of deformation, two-dimensional shape, 3 Dimensional shape, texture, color, reflectance or transmittance, appearance, existence probability, vehicle type, model, category, number, speed, acceleration, angular velocity, movement information of the image pickup apparatus, prediction information thereof, and the like.

重み付け等の設定手段1802では、注目する部分の情報の入力手段1803から与えられた情報と画像の内容等をつき合わせ、注目する部分は重みを大きく、注目する部分以外と考えられる部分の重みは小さくするように重み付けし、必要に応じて動き量計算の初期値を設定する。   In the setting means 1802 for weighting or the like, the information given from the information input means 1803 for the part of interest is combined with the contents of the image, the part of interest has a large weight, and the weight of the part considered other than the part of interest is Weighting is performed to make it smaller, and an initial value for motion amount calculation is set as necessary.

重み付け等の設定手段1802の具体的な実現法について例を挙げて説明する。注目する目標又は背景等の情報を画像位置(x,y)の関数である重み係数S(x,y)に関係づける方法は色々ある。ここでは、
(1) 対象の領域の中心となる画像位置が指定される場合と、
(2) なるべく遠方にある領域に注目する場合を例にして説明する。
A specific method for realizing the setting unit 1802 for weighting and the like will be described with an example. There are various methods for associating information such as the target or background of interest with the weighting coefficient S (x, y), which is a function of the image position (x, y). here,
(1) When the image position that is the center of the target area is specified,
(2) A case where attention is paid to an area as far away as possible will be described as an example.

例えば、(1)の場合、対象の領域の中心を(x,y)とすると、以下の式(16)のような式で領域の中心(x,y)からの近接度を評価できる。 For example, in the case of (1), if the center of the target region is (x p , y p ), the degree of proximity from the center (x p , y p ) of the region is expressed by the following equation (16). Can be evaluated.

Figure 2005157924
式(16)では、この近接度をP(x,y)で表している。
Figure 2005157924
In the equation (16), this proximity is represented by P (x, y).

また、(2)の場合のように、遠方にある目標に注目するのであれば、図18で示したような形のブロック単位(例えば、元の画像の横320画素、縦240画素を、64画素×48画素の25個のブロックB〜B25に分割)で、並進移動モデル式(3)としての動き量を事前に算出し、並進量{a(x,y),d(x,y)}を求めておく。ここでは並進量{a(x,y),d(x,y)}はブロック単位で求めたあるブロックBの並進量(a,d)やその近傍のブロックの並進量を用いて補間して求めたものを想定している。これを用いて、式(17)のような形で動きの小ささ(遠方にある確からしさ)Q(x,y) の評価値を算出することができる(遠方にあるという評価は、並進量は実際はカメラの回転で受ける回転の成分を前段の反復処理で補正するとより確実になる。)。これ以外の評価値としては、ワープ後の整合度M(x,y)が重要となる。これはワープ前とワープ後の明度差や勾配の類似度を評価すれば求めることができる。式(14)は、ワープ前の明度差Iとワープ後の明度差I から整合度の評価値を計算するものである。あと、式(14)だけの評価値では、画像特徴の少ない画像明度がフラットな場所では信頼度が低くなるので、ある程度の画像の特徴が存在する場合だけに重み係数を高くするため、式(15)で示されるような画像特徴強度を評価するような評価値J(x,y)も必要となる。これらの評価値は画像位置(x,y)の各点で計算するが、同様にブロック毎に計算してもよい。 Also, as in the case of (2), if attention is paid to a far target, a block unit having a shape as shown in FIG. 18 (for example, the original image having 320 horizontal pixels and 240 vertical pixels is represented by 64 pixels. The motion amount as the translation model equation (3) is calculated in advance in 25 blocks B 1 to B 25 of pixels × 48 pixels), and the translation amount {a (x, y), d (x, y)}. Here, the translation amount {a (x, y), d (x, y)} is obtained by using the translation amount (a i , d i ) of a certain block B i obtained in block units and the translation amount of a block in the vicinity thereof. This is assumed to be obtained by interpolation. Using this, it is possible to calculate the evaluation value of the smallness of motion (probability of being far away) Q (x, y) in the form as in equation (17) (the evaluation of being far away is the translation amount In fact, it is more reliable if the rotation component received by the camera rotation is corrected by the previous iteration.) As an evaluation value other than this, the degree of matching M (x, y) after warp is important. This can be obtained by evaluating the lightness difference before and after the warp and the similarity of the gradient. Equation (14) is to calculate the evaluation value of the matching degree from the brightness difference I t w after warped and warped previous brightness difference I t. Furthermore, with the evaluation value of only the expression (14), the reliability is low in a place where the image brightness with few image features is flat, so that the weight coefficient is increased only when a certain amount of image features exist, the expression ( An evaluation value J (x, y) for evaluating the image feature strength as shown in 15) is also required. These evaluation values are calculated at each point of the image position (x, y), but may be similarly calculated for each block.

以下の式(18)〜式(21)は、上記式(14)〜式(17)に対応するものでブロック毎に評価値を求める計算式の例を示している。   The following formulas (18) to (21) correspond to the above formulas (14) to (17) and show examples of calculation formulas for obtaining an evaluation value for each block.

Figure 2005157924
なお、これらの式の中のk〜k は各評価値を適切に調整する係数である。ブロック毎にワープ後の整合度の評価値を計算する場合、勾配法の拘束式に明度の変動α(ブロック内で定数とする)を導入して下記の式(22)で示されるような2乗誤差Eを最小化するようにして解(a,d,α)を算出し、この求まったαを利用して評価値を計算することもできる。
Figure 2005157924
Note that k 1 to k 4 in these equations are coefficients for appropriately adjusting each evaluation value. When calculating the evaluation value of the degree of consistency after warp for each block, introduce a variation α of brightness (constant in the block) into the gradient method constraint formula, and 2 as shown in the following formula (22) The solution (a, d, α) can be calculated so as to minimize the multiplication error E 2 , and the evaluation value can be calculated using the obtained α.

Figure 2005157924
明度の変動αを考慮したときの動き量を算出する連立方程式は、式(23)の形になる。また、検出した明度の変動αで整合度の評価値を算出する式の例を式(24)に示す。ここでσは、変動αのブレの大きさを調べ調整する係数である。連立方程式を変えたくなければ、ブロックの整合度は対象とするブロックで計算される動き量の大きさを利用しても良い。一般に、明度勾配法を適用できないところで明度勾配法で動き量を算出すると大きな動き量が算出される傾向がある。
Figure 2005157924
The simultaneous equations for calculating the amount of motion when the brightness variation α is taken into account are in the form of equation (23). Further, an example of an expression for calculating the evaluation value of the degree of matching with the detected brightness variation α is shown in Expression (24). Here, σ is a coefficient for investigating and adjusting the magnitude of fluctuation α. If it is not desired to change the simultaneous equations, the degree of motion calculated by the target block may be used as the degree of matching of the block. In general, when a motion amount is calculated by the lightness gradient method where the lightness gradient method cannot be applied, a large amount of motion tends to be calculated.

次に、これらの評価値から、重み係数S(x,y)を計算する例を示す。下記の式(25)及び式(26)は、画像上で注目する位置(領域の中心など)が指定されている場合の、画像位置(x,y)とブロックBで表す重み係数S(x,y)、Sの計算式の例である。 Next, an example of calculating the weighting coefficient S (x, y) from these evaluation values is shown. Equations (25) and (26) below represent the weighting factor S () expressed by the image position (x, y) and the block B i when the position of interest on the image (such as the center of the region) is designated. x, y), it is an example of a formula for S i.

Figure 2005157924
(x,y)等の上に付く添え字のlは、各反復処理又は、ピラミッドレベルを識別する番号である。ここでのΣは、これまでの反復処理で計算された値を集積する意味で使用している。また、なるべく遠方の領域等に着目したい時には、式(27)及び式(28)のような式で重み係数を計算すればよい。ここで示すのは代表的な例に過ぎない。色々な方法でまた目的にあった評価値を導入できるし、評価式や重み係数も色々な形で表現できるし、計算しやすいように変形して利用することができる。
Figure 2005157924
The subscript l attached on J l (x, y) or the like is a number for identifying each iteration or pyramid level. Here, Σ is used in the sense of accumulating the values calculated in the iterative processing so far. Further, when it is desired to pay attention to a distant area as much as possible, the weighting coefficient may be calculated using equations such as equations (27) and (28). This is only a representative example. Evaluation values suitable for various purposes can be introduced in various ways, evaluation formulas and weighting coefficients can be expressed in various forms, and can be used by being modified so that they can be easily calculated.

(実施の形態2)
請求項3記載の発明である、多重解像度の画像(ピラミッド画像)を利用し粗密探索を行う実施の形態について説明する。ピラミッド画像を用いる重み付け等を考慮した動き量計算手段2601を実現した例を図3に示す。図3において、重み付け等を考慮した動き量計算手段1801の前段に、ピラミッド画像生成手段2602及びピラミッドレベル選択手段2603を設けているのが特徴であり、その他の部分は図2と同様であり、同一又は相当部分に同一符号を付してある。
(Embodiment 2)
An embodiment for performing a coarse / fine search using a multi-resolution image (pyramid image) according to the invention described in claim 3 will be described. FIG. 3 shows an example in which the motion amount calculation means 2601 considering weighting using a pyramid image is taken into account. In FIG. 3, the feature is that a pyramid image generation means 2602 and a pyramid level selection means 2603 are provided in the preceding stage of the motion amount calculation means 1801 in consideration of weighting and the like, and the other parts are the same as in FIG. The same reference numerals are given to the same or corresponding parts.

ピラミッド画像生成手段2602で生成されるピラミッド画像2604の例を、図4を用いて説明する。図4の一番下にあるのが、通常の画像、ここでは、横方向320画素×縦方向240画素の画像である。この元のスタートとなる画像のレベル(ピラミッドレベル)をL0で表すことにする。簡単に言うと、この画像の縦方向、横方向を逐次1/2ずつ縮めていった画像が、ピラミッドレベルL1,L2,L3,…の画像となる。面積の上では、1/4ずつ、画像の面積が小さくなって行く。図4では、L0の原画を一番下に、その上にL1の画像(横方向160画素×縦方向120画素)、L2の画像(横方向80画素×縦方向60画素)、L3の画像(横方向40画素×縦方向30画素)と上方に縦に並べている。   An example of the pyramid image 2604 generated by the pyramid image generation means 2602 will be described with reference to FIG. At the bottom of FIG. 4 is a normal image, here an image of 320 pixels in the horizontal direction × 240 pixels in the vertical direction. This original starting image level (pyramid level) is represented by L0. To put it simply, the image in which the vertical and horizontal directions of this image are successively reduced by ½ is an image of pyramid levels L1, L2, L3,. On the area, the area of the image becomes smaller by 1/4. In FIG. 4, the L0 original image is at the bottom, the L1 image (horizontal direction 160 pixels × vertical direction 120 pixels), the L2 image (horizontal direction 80 pixels × vertical direction 60 pixels), and the L3 image ( 40 pixels in the horizontal direction × 30 pixels in the vertical direction) and vertically above.

入力された画像を一度、このようなピラミッド画像に変換し、上位の画像(ピラミッドレベルが高い、小さな画像)から、動き量を徐々に推定しながら、動き量を推定すれば、大きな動き量もつかまえることができる上、反復処理での全体の計算量を低減することができる。   Once the input image is converted into such a pyramid image, and the motion amount is estimated while gradually estimating the motion amount from the upper image (high image with high pyramid level), a large motion amount can be obtained. In addition to being able to catch, the total amount of calculation in the iterative process can be reduced.

上の説明ではピラミッド画像2604を生成するとき、簡単に縦、横を逐次1/2ずつ縮めると表現したが、単純な画素データの間引きでは折り返し雑音(例えば直線にギザギザが発生すること)が発生するので、ガウシアンフィルタ等でノイズを除去しながら画素の間引きを行う。ピラミッド画像生成手段2602の実現例を、図5に示す。選択回路2801は、最初に通常の画像L0が入力端Aから入った後は、入力端Bからの入力が選択されるように動作する。よって、画像L0は選択回路2801を通過すると同時にL0 の画像として出力される。また同時に、画像L0はガウシアンフィルタ2802の入力となる。そして、画像L0はガウシアンフィルタ2802、間引き処理部2803を通過後、L1の画像になり、画像バッファ106で出力タイミングを調整された後、選択回路2801の入力端Bの入力として選択され、L1の画像として出力される。このような動作を繰り返すと、L0、L1、…と逐次、高次のより小さなピラミッド画像を生成することができる。   In the above explanation, when generating the pyramid image 2604, it is expressed that the vertical and horizontal directions are reduced by 1/2 each time. However, when thinning out simple pixel data, aliasing noise (for example, a jagged line appears) occurs. Therefore, pixel thinning is performed while removing noise with a Gaussian filter or the like. An implementation example of the pyramid image generation means 2602 is shown in FIG. The selection circuit 2801 operates so that the input from the input terminal B is selected after the normal image L0 first enters from the input terminal A. Therefore, the image L0 passes through the selection circuit 2801 and is output as an image of L0 at the same time. At the same time, the image L0 is input to the Gaussian filter 2802. Then, the image L0 passes through the Gaussian filter 2802 and the thinning-out processing unit 2803 and becomes an L1 image. After the output timing is adjusted by the image buffer 106, the image L0 is selected as the input of the input terminal B of the selection circuit 2801, and Output as an image. By repeating such an operation, it is possible to generate higher order smaller pyramid images sequentially as L0, L1,.

図3のピラミッドレベル選択2603は、動き量計算の繰り返し処理において、高次のピラミッド画像から順次、低次のピラミッド画像を、重み付け等を考慮した動き量計算手段1801の入力として与えるように働く。同じピラミッドを何回か繰り返しても良いし、必要ならピラミッドレベルを飛ばしてもよい。画像の内容や応用目的によっては、最下位のピラミッド画像で処理しなくても、十分な精度の動き量の推定値が得られる場合がある。   The pyramid level selection 2603 in FIG. 3 serves to provide a low-order pyramid image as an input to the motion amount calculation means 1801 in consideration of weighting or the like in order from the high-order pyramid image in the motion amount calculation repetitive processing. You can repeat the same pyramid several times and skip the pyramid level if necessary. Depending on the content of the image and the purpose of application, there may be a case where the estimated value of the motion amount with sufficient accuracy can be obtained without processing with the lowest pyramid image.

図6は、実施の形態2のピラミッド画像を使用し、繰り返し処理で順次、粗密探索のやり方で、動き量を推定して行く様子を示したものであり、図2と同じ又は相当部分に同一符号を付した。   FIG. 6 shows a state in which the amount of motion is estimated using the pyramid image according to the second embodiment and sequentially using a coarse / fine search method in an iterative process, and is the same as or equivalent to FIG. A reference is attached.

この図を用いて、本発明の効果である、
(1) 注目する領域の指定が容易になること、
(2) 想定と違う動きをするものを排除して動き量の推定を絞り込むことができること、を説明する。
Using this figure, it is the effect of the present invention,
(1) Easier to specify the area of interest
(2) Explain that it is possible to narrow down the estimation of the amount of motion by excluding those that move differently than expected.

ここでは簡単にするため、ピラミッドレベル2から0まで各1回ごと処理を行い、画像の動き量を推定する場合で説明する。参照画像Iとして、文字Aが写り、その手前に別の円形の物体が被さっているような画像、入力画像Iとしてその文字Aの部分が左上方向に回転し移動しているとする。更に、ここで注目する領域は画像Aの領域で、図にあるように文字Aの一部を注目する目標という形で+印の画像位置が指定されているものとする(文字Aの全体の形を指定していないところに注意)。参照画像と入力画像のピラミッド画像が生成された後、この処理の流れが開始される。ピラミッドレベル2の入力画像I(L2)(ここでは(LN)で画像のピラミッドレベルNの画像を表すものとする) は重み付け等設定手段1802で与えられる初期値で画像ワープされ、その1906のワープ画像I (L2) と参照画像I(L2)を用いて、ピラミッドレベル2の動き計算部2901により暫定の動き量(動き量の補正値)が算出される。ここで、動き計算部2901〜2903には、重み付け等を考慮した動き計算手段の明度勾配算出、明度差算出、フロー特徴集積等を行い動き量の計算を行う部分が含まれているものとする。ここで使用される最初の重み付けは、注目する部分の情報(注目する部分の情報の入力手段からの情報)に基づき重み付け等設定手段1802により、+印の部分が高くそれ以外が低くなるように設定されている。よって、ここで計算される動きの補正値は文字Aを中心とした動き量が抽出される。 Here, for the sake of simplicity, a case will be described where processing is performed once each from pyramid levels 2 to 0 to estimate the amount of motion of the image. It is assumed that the character A is shown as the reference image I 1 and another circular object is covered in front of it, and that the character A is rotated and moved in the upper left direction as the input image I 2 . Further, the region of interest here is the region of image A, and it is assumed that the image position of the + mark is designated in the form of a target that focuses on a part of character A as shown in the figure (the entire character A Note that no shape is specified). After the pyramid image of the reference image and the input image is generated, this processing flow is started. The pyramid level 2 input image I 2 (L2) (here, (LN) represents the image of the pyramid level N of the image) is image-warped with the initial value given by the weighting setting means 1802, and 1906 Using the warped image I 2 w (L2) and the reference image I 1 (L2), the motion calculation unit 2901 of the pyramid level 2 calculates a temporary motion amount (motion amount correction value). Here, it is assumed that the motion calculation units 2901 to 2903 include portions for calculating the amount of motion by performing lightness gradient calculation, lightness difference calculation, flow feature accumulation, and the like of the motion calculation means in consideration of weighting and the like. . The initial weighting used here is based on the information on the part of interest (information from the information input unit on the part of interest) so that the weighted setting unit 1802 makes the + mark part high and the other parts low. Is set. Therefore, the motion correction value calculated here extracts the motion amount centered on the character A.

次のピラミッドレベル1の処理では、画像をピラミッドレベル1に変えて処理が行われる。この時、画像ワープ部105ではより参照画像IのAに近づく形で画像ワープが行われる。つまり、これは前段のレベル2の処理で文字Aを中心とした動き量を計算しているためである。このとき、ワープ画像I (L1)と参照画像I(L1)を重ね合わせてみると、円形の領域の部分は明度の整合性の評価が低くなるため、重み付け等設定手段1802から、円形の領域の部分は重み係数が低くなるような重み付けが与えられる。その結果、ピラミッドレベル1の動き量計算部2902では円形の領域の部分の動きは排除され、文字Aの部分と見なせる部分だけの残りの動き量を推定するようになる。 In the next pyramid level 1 processing, the image is changed to pyramid level 1 for processing. At this time, image warping is performed in a manner approaching the A image warping section more reference image I 1 in 105. That is, this is because the motion amount centered on the character A is calculated in the level 2 processing in the previous stage. At this time, when the warp image I 2 w (L1) and the reference image I 1 (L1) are overlapped, the evaluation of the consistency of the brightness of the circular area portion becomes low. The circular area is given weighting so that the weighting factor is low. As a result, the motion amount calculation unit 2902 of the pyramid level 1 excludes the motion of the circular area portion, and estimates the remaining motion amount of only the portion that can be regarded as the character A portion.

引き続く、ピラミッドレベル0においても、ピラミッドレベル1と同じように働くため、円形の領域の部分は更に重み係数が低くなり、ピラミッドレベル0の動き量計算部2903では文字Aの部分だけの残りの動き量をより的確に推定するようになる。結果として、最終的に推定される動き量は、文字Aの部分に着目した動き量になる。   The pyramid level 0 continues to operate in the same manner as the pyramid level 1. Therefore, the circular area portion has a lower weight coefficient, and the movement amount calculation unit 2903 of the pyramid level 0 only performs the remaining movement of the letter A portion. The amount will be estimated more accurately. As a result, the finally estimated amount of motion is the amount of motion focusing on the character A portion.

このように、最初の文字Aの一部の+印で示す画像位置が指定されただけにも係わらず、この最初の手がかりを参考にして、重み係数を適応的に調整し、最終的には文字Aに属する領域がどこにあるか自動的に見つけ出している。これにより、正確に、文字Aの全体の形をなぞって入力しなくてもよく、格段に注目する領域の指定が容易になる。また、説明したように、逐次更新され適応的に変化する重み係数により、別の動きをすると見なされる円形の領域の部分は動き量の推定から実質的に排除され、文字Aに対する動き量の推定も正確にかつ安定する。   In this way, although the image position indicated by the + mark of a part of the first character A is specified, the weighting factor is adaptively adjusted with reference to the first clue, and finally It automatically finds where the area belonging to the letter A is. Thereby, it is not necessary to accurately trace and input the entire shape of the character A, and it becomes easy to specify a region to be markedly focused. In addition, as described above, due to the weight coefficient that is sequentially updated and adaptively changes, the portion of the circular region that is considered to perform another motion is substantially excluded from the motion amount estimation, and the motion amount estimation for the letter A is performed. Also accurate and stable.

(実施の形態3)
請求項4記載の発明に対応する、時系列的に前の処理結果の情報を利用して、注目する部分の情報を効率的に設定する実施の形態について説明する。図7は請求項4記載の発明を実施した時の処理の流れを示している。なお、この図7では、注目する部分の情報の入力手段は、注目する部分の情報の設定3001又は3002という表現で表している。また、重み付け等設定手段1802と重み付け等を考慮した動き量計算手段1801は、簡単のため一つの処理ブロックにまとめて示し、図2と同じ又は相当部分に同一符号を付した。ここでは、画像I、画像I、画像I、…と、時系列で順次、画像が入力され、それを画像安定化する処理を対象として説明する。
(Embodiment 3)
An embodiment corresponding to the invention of claim 4 for efficiently setting information of a part of interest by using information of previous processing results in time series will be described. FIG. 7 shows the flow of processing when the invention of claim 4 is carried out. In FIG. 7, the information input means for the part of interest is represented by the expression 3001 or 3002 for setting the information of the part of interest. Also, the weighting setting means 1802 and the motion amount calculation means 1801 taking weighting into consideration are collectively shown in one processing block for the sake of simplicity, and the same reference numerals are assigned to the same or corresponding parts as in FIG. Here, a description will be given with respect to an image I 1 , an image I 2 , an image I 3 ,... Sequentially input in time series, and a process for stabilizing the image.

まず、図7の上部にある注目する部分の情報の設定3001で、画像Iを基準に一度、注目部位の情報が設定される。それに基づいて、画像I以降が安定化されるものである。安定化された画像をI で表す。画像Iを基準に設定された注目部位の情報と、画像Iと画像Iから注目部位の動き量が、重み付け等を考慮した動き量計算手段1801で計算される。この動き量を動き量のフィルタリング104でフィルタリング処理し、実際に補正する量が決定され、画像Iから画像ワープ部105の処理により安定化された画像I が生成される。この画像I は次の処理の参照画像になり、画像Iの動き量の算出に利用される。注目する部分の情報の設定3002では、画像I と画像Iの動き量計算での注目する部分の情報が設定されるが、画像I のどこに注目する部分があるかは画像Iと画像Iの動き量計算で使用した重み付け等の情報(最初に指定された注目部位の情報も含む) と安定化された画像I を生成したときに使用した補正量から決めることができる。 First, the setting 3001 information of the target portion at the top of FIG. 7, once on the basis of the image I 1, the information region of interest is set. Based on it, in which an image I 2 and subsequent steps are stabilized. The stabilized image is denoted by I i * . And region of interest that is set to the image I 1 on the reference information, the motion amount of the target site from the image I 1 and the image I 2 is calculated by the motion amount calculation unit 1801 in consideration of weighting like. The motion amount and the filtering process with the motion amount of filtering 104, the actual amount of correction is determined, stabilized image I 2 * is generated from the image I 2 by the processing of the image warping section 105. This image I 2 * becomes a reference image for the next processing, and is used for calculating the amount of motion of the image I 3 . Setting 3002 information of the portion of interest, the image I 2 * and information of the target portion of the motion amount calculation image I 3 but is set, there is where the focus portion of the image I 2 * image I 1 and the information used for calculating the amount of motion of image I 2 (including information on the region of interest specified first) and the correction amount used when the stabilized image I 2 * was generated Can do.

このような形で、順次、注目する部分がどこにあるか情報を引き渡すことができる。途中で注目する部位の形が少しずつ変わっても、逐次、重み係数が自動的に画像に合わせて調整されるため、継続して動き量を計算することができる。また、前フレームの情報を利用すると、手前の障害物に一時的に目標が隠蔽されても注目する部分の情報の設定で背後に目標が隠れていることを想定して処理を進めることも可能である。このように、注目する部位がどこかを常に指示する必要が無く、最初の注目部位の情報だけで自動的に続く画像の注目する部分がどこか内容が更新されるので、格段に装置の操作が容易になる。   In this way, information can be handed over in sequence where the target part is. Even if the shape of the part of interest is changed little by little, the weighting factor is automatically adjusted according to the image successively, so that the amount of motion can be calculated continuously. In addition, if the information of the previous frame is used, even if the target is temporarily hidden behind the obstacle in front, it is possible to proceed with the assumption that the target is hidden behind by setting the information of the part of interest It is. In this way, there is no need to always indicate where the part of interest is, and the contents of the part of interest in the image that automatically follows are automatically updated with only the information of the first part of interest, so that the operation of the device is greatly improved. Becomes easier.

請求項6記載の発明を実施するには、画像間の動き量を計測するのに障害となる、画像の動き量を計測する対象の画像間での撮影環境(天候、撮影する画像センサーの種類等)の違いから生じる画像の変化の大きい部分は注目しないように適応的に重み係数を調整するようすればよい。   To implement the invention described in claim 6, the shooting environment (weather, the type of image sensor to be shot) between the images to be measured for the amount of motion of the image, which is an obstacle to measuring the amount of motion between the images. The weighting factor may be adjusted adaptively so as not to pay attention to a portion with a large change in the image resulting from the difference in the above.

一般に、可視画像と赤外画像など異種画像センサーで得られた画像間の動き量を算出するのは難しい。同じ物体を撮影しても、可視と赤外では全く見え方が異なるからである。ただ、物体の輪郭等のエッジや全体の対応関係から、画像の対応付けができる。請求項7記載の発明を実施するには、例えば、実施の形態1のブロック図(図1)において、可視画像センサーで取得した画像を参照画像、赤外線画像センサーで取得した画像を入力画像として扱えばよい(ここで、どちらを参照画像にし、どちらを入力画像とするかは本質的な問題ではない)。そうすれば、画像間で画像の写り方に違いがあってもその画像の違いの大きい部分は注目しないように適応的に重み係数が調整され、画像間の動き量、すなわち画像間の対応を計測することができる。このとき、可視画像と赤外画像では明度レベルが違う等の問題があるので、画像間の明度レベルの変換や照合しやすい画像(エッジ画像等)にするための何らかの変換を施しておくのが効果的である。   In general, it is difficult to calculate the amount of motion between images obtained by different types of image sensors such as a visible image and an infrared image. This is because even if the same object is photographed, the visible way is different between visible and infrared. However, it is possible to associate images from the edges such as the contour of the object and the overall correspondence. To implement the invention according to claim 7, for example, in the block diagram (FIG. 1) of the first embodiment, the image acquired by the visible image sensor can be used as the reference image, and the image acquired by the infrared image sensor can be used as the input image. (Here, which is the reference image and which is the input image is not an essential problem.) Then, even if there is a difference in how the images are captured between the images, the weighting factor is adaptively adjusted so as not to pay attention to the part where the difference between the images is large. It can be measured. At this time, since there is a problem that the brightness level is different between the visible image and the infrared image, it is necessary to perform some conversion to convert the brightness level between images and to make an image (edge image etc.) easy to collate. It is effective.

請求項7記載の発明を実施する場合以外でも、本特許の発明を実施する場合、明度勾配法の入力として使用するのは、必ずしも原画像でなくても、何らかの前処理をした画像、例えば、ゾーベルオペレータ等で計算した勾配の大きさを画像にしたものやLoG
(Laplacian of Gaussian)フィルタ等のフィルタで抽出したラプラシアン画像でもよい。照明条件等が著しく変化して、物体の明度自体が大きく変わるような場合は、このような相対的な明度変化を情報として持つ画像に変換してから、画像の変形量や移動量を求める方が安定に処理できる場合もある。また、実施の形態ではモノクロの画像の例で説明したが、当然、カラー画像、マルチスペクトル画像などの多次元画像へも容易に拡張できる。2枚以上の画像を同時に使用して画像の動き量を計算する場合でも、本発明の処理の枠組みは同じであり、容易に適用できる。動き量の計算には明度勾配法を例に挙げて説明したが、当然、対応探索法や周波数領域で分析する他の方法にも、本発明は適用可能である。例えば、ステレオ画像処理などでの対応点検出を行う対応探索処理では、連立方程式で解くと言うより、対応する可能性のある領域のマッチング度合い調べる形になる。このマッチングの度合いは、領域の相互相関やSAD(Sum of Squared Differences)の和SSAD(Sum of SADs)等を用いて計算される。この相互相関やSSAD計算するときに、重み付けを考慮して計算してやればよい。また、マッチングウィンドウ内で明らかに整合性の取れない部分(例えば、ステレオ画像で隠蔽(オクルージョン)等により変化した部分)を排除するように重み付けを適応的に変化させて計算するようにする。この時、対応を調べる位置により排除する部分の比率が変わることになるが、排除する部分が多い場合は全体としての信頼性が低くなるので、それを考慮してマッチング度合いを補正しておくと、より正確な処理ができる。
Even when the invention of this patent is implemented other than when the invention according to claim 7 is implemented, it is not necessarily the original image that is used as the input of the lightness gradient method. An image of the magnitude of the gradient calculated by a Sobel operator or LoG
A Laplacian image extracted by a filter such as a (Laplacian of Gaussian) filter may be used. When the lighting conditions etc. change significantly and the brightness of the object changes significantly, convert the relative brightness change into an image with information, and then calculate the amount of deformation or movement of the image Can be processed stably. Further, in the embodiment, the example of the monochrome image has been described, but naturally, it can be easily extended to a multidimensional image such as a color image or a multispectral image. Even when two or more images are used simultaneously to calculate the amount of motion of the image, the processing framework of the present invention is the same and can be easily applied. Although the lightness gradient method has been described as an example for calculating the amount of motion, the present invention can naturally be applied to the correspondence search method and other methods for analysis in the frequency domain. For example, in correspondence search processing for detecting corresponding points in stereo image processing or the like, a matching degree of a region that may be supported is examined rather than solved by simultaneous equations. The degree of matching is calculated by using cross-correlation between regions, sum of SAD (Sum of Squared Differences), SSAD (Sum of SADs), or the like. What is necessary is just to calculate in consideration of weighting when calculating this cross-correlation or SSAD. Further, the calculation is performed by adaptively changing the weighting so as to exclude a portion that is clearly inconsistent in the matching window (for example, a portion that has changed due to occlusion or the like in the stereo image). At this time, the ratio of the part to be excluded changes depending on the position to check the correspondence, but if there are many parts to be excluded, the reliability as a whole becomes low, so if the degree of matching is corrected considering that , More accurate processing.

以上本発明の実施の形態について説明してきたが、本発明はこれに限定されることなく請求項の記載の範囲内において各種の変形、変更が可能なことは当業者には自明であろう。   Although the embodiments of the present invention have been described above, it will be obvious to those skilled in the art that the present invention is not limited to these embodiments, and various modifications and changes can be made within the scope of the claims.

請求項1記載の発明に対応する実施の形態1の処理ブロック図である。It is a processing block diagram of Embodiment 1 corresponding to the invention of Claim 1. 実施の形態1における重み付け等を考慮した動き計算手段の実現例を示す処理ブロック図である6 is a processing block diagram illustrating an implementation example of motion calculation means in consideration of weighting and the like according to Embodiment 1. FIG. 請求項3記載の発明に対応する実施の形態2であって、多重解像度の画像としてピラミッド画像を用いて動き量を計算する処理ブロック図である。It is Embodiment 2 corresponding to invention of Claim 3, Comprising: It is a processing block diagram which calculates a motion amount using a pyramid image as a multi-resolution image. ピラミッド画像の例を示す説明図である。It is explanatory drawing which shows the example of a pyramid image. ピラミッド画像生成手段の実現例を示す処理ブロック図である。It is a processing block diagram which shows the implementation example of a pyramid image generation means. ピラミッド画像を用いて階層的に動き量を計算する手順を示すフロー図である。It is a flowchart which shows the procedure which calculates a motion amount hierarchically using a pyramid image. 請求項4記載の発明に対応する実施の形態3であって、前のフレームの処理結果を利用し、時系列で効率的に処理する場合のブロック図である。It is Embodiment 3 corresponding to invention of Claim 4, Comprising: It is a block diagram in the case of processing efficiently in time series using the processing result of the previous frame. 動画像を画像安定化する処理例のブロック図である。It is a block diagram of the example of a process which stabilizes a moving image. 明度勾配法の原理を1次元で説明している説明図である。It is explanatory drawing explaining the principle of the lightness gradient method in one dimension. 画像の勾配を計算する演算マスクの例を示す説明図である。It is explanatory drawing which shows the example of the calculation mask which calculates the gradient of an image. 勾配法は動き量が少ないときに適用できることを示す説明図である。It is explanatory drawing which shows that the gradient method is applicable when there is little motion amount. 2枚の画像間の動き量をアフィン係数で表現する例を示す説明図である。It is explanatory drawing which shows the example which expresses the motion amount between two images with an affine coefficient. 説明に使用する3次元空間中の平面を示す説明図である。It is explanatory drawing which shows the plane in the three-dimensional space used for description. 単純な動き検出では問題が生じるケース( 遠近の物体が混在する場合) を示す説明図である。It is explanatory drawing which shows the case where a problem occurs in simple motion detection (when near objects are mixed). 処理する範囲を事前に指定する従来方式の動き計算の処理ブロック図である。It is a processing block diagram of the motion calculation of the conventional system which designates the range to process beforehand. 何故、重みを付ける必要があるかを示す説明図である。It is explanatory drawing which shows why it is necessary to attach a weight. 重み係数を適応的に調整することの説明図である。It is explanatory drawing of adjusting a weighting coefficient adaptively. 個別のウインドウ領域(ブロック)で処理を行うときの画像の分割例の説明図である。It is explanatory drawing of the example of a division | segmentation of an image when processing by an individual window area | region (block).

符号の説明Explanation of symbols

101 動画像(入力)
102 安定化された動画像
103 動き量計算手段
104 動き量のフィルタリング
105 画像ワープ部
106 画像バッファ
107 入力画像
108 参照画像
1401 動き量計算範囲設定手段
1402 画像全体
1403 動き量が計算される範囲
1801 重み付け等を考慮した動き量計算手段
1802 重み付け等設定手段
1803 注目する部分の情報の入力手段
1804 重み付け等の情報
1805 注目する目標又は背景等の情報
1806 途中処理結果等の情報
1807 注目する目標の位置
1901 明度差算出部
1902 画像勾配計算部
1903 フロー特徴量の積算部
1904 動き量の計算部(連立方程式を解く)
1905 動き量の加算部
1906 ワープ画像
1907 重み付け係数
1908 動き量(推定値)の初期値
1909 動き量の推定値
2601 ピラミッド画像を用いる重み付け等を考慮した動き量計算手段
2602 ピラミッド画像生成手段
2603 ピラミッドレベル選択手段
2604 ピラミッド画像
2801 選択回路
2802 ガウシアンフィルタ
2803 間引き処理
2901 ピラミッドレベル2の動き量計算部
2902 ピラミッドレベル1の動き量計算部
2903 ピラミッドレベル0の動き量計算部
3001 注目する部分の情報の設定(スタート)
3002 注目する部分の情報の設定(前のフレームを利用)
3003 前のフレームの結果
101 Video (input)
DESCRIPTION OF SYMBOLS 102 Stabilized moving image 103 Motion amount calculation means 104 Motion amount filtering 105 Image warp unit 106 Image buffer 107 Input image 108 Reference image 1401 Motion amount calculation range setting means 1402 Whole image 1403 Range where motion amount is calculated 1801 Weighting 1802 Weighting setting unit 1803 Information input unit of interest 1804 Information of weighting 1805 Information of target or background 1806 Information of intermediate processing result 1807 Position of target 1901 Lightness difference calculation unit 1902 Image gradient calculation unit 1903 Flow feature amount integration unit 1904 Motion amount calculation unit (solves simultaneous equations)
1905 Motion amount addition unit 1906 Warp image 1907 Weighting coefficient 1908 Initial value of motion amount (estimated value) 1909 Estimated value of motion 2601 Motion amount calculating means 2602 considering weighting using a pyramid image 2602 Pyramid image generating means 2603 Pyramid level Selection means 2604 Pyramid image 2801 Selection circuit 2802 Gaussian filter 2803 Thinning process
2901 Pyramid level 2 motion amount calculation unit 2902 Pyramid level 1 motion amount calculation unit 2903 Pyramid level 0 motion amount calculation unit 3001 Setting of information of a portion of interest (start)
3002 Setting the information of the part of interest (using the previous frame)
3003 Previous frame result

Claims (7)

画像中の目標又は背景の動き量を検出する画像の動き検出装置において、
注目する目標又は背景の部分の情報を入力又は設定する、注目する部分の情報の入力手段と、
重み付けとは前記注目する部分を画像位置と関連付けて画像位置により変化する重み係数を設定することであり、前記注目する部分の情報の入力手段からの情報と画像の内容とをつき合わせ、前記注目する部分は重みを大きく、前記注目する部分以外と考えられる部分の重みは小さくするように重み付けし、必要に応じて動き量計算の初期値を設定する重み付け等設定手段と、
前記重み付け等設定手段で設定された重み付けの重み係数や動き量計算の初期値を利用して、前記注目する部分に着目し又は注目する部分を排除して画像の動き量を推定する重み付け等を考慮した動き量計算手段とを備え、
画像の動き量を検出する過程において、前記重み付け等設定手段及び前記重み付け等を考慮した動き量計算手段は少なくとも1回以上の反復処理を繰り返して最終的な画像の動き量を推定するものであり、前記重み付け等設定手段は反復処理の中で前記重み付け等を考慮した動き量計算手段の画像の動き量推定結果を反映して重み付けを適応的に調整する機能を有し、前記重み付け等を考慮した動き量計算手段は反復処理の中で前記重み付け等設定手段で適応的に調整された重み付けの重み係数を利用することを特徴とする画像の動き検出装置。
In an image motion detection device for detecting a target or background motion amount in an image,
A means for inputting information of a target portion for inputting or setting information of a target or background portion of interest;
Weighting refers to setting a weighting coefficient that changes according to an image position by associating the portion of interest with an image position. The information from the information input unit of the portion of interest is combined with the content of the image, A weighting setting unit that sets a weight for a part to be large and weights a part considered to be other than the part of interest to be small, and sets an initial value of motion amount calculation as necessary;
Using the weighting weighting coefficient set by the weighting setting means or the initial value of the motion amount calculation, weighting for estimating the motion amount of the image while paying attention to the portion of interest or excluding the portion of interest A motion amount calculation means that takes into account,
In the process of detecting the amount of motion of the image, the weighting setting unit and the motion amount calculation unit taking into account the weighting, etc., estimate the final amount of motion of the image by repeating at least one iteration. The weighting setting means has a function of adaptively adjusting the weighting by reflecting the motion amount estimation result of the image of the motion amount calculation means considering the weighting in the iterative processing, and taking the weighting into consideration The motion amount calculating means uses a weighting coefficient that is adaptively adjusted by the weighting setting means in the iterative process.
前記注目する部分の情報の入力手段は、前記注目する目標又は背景の部分の画像位置、画像範囲、距離、大きさ、変形度、2次元形状、3次元形状、テクスチャ、色、反射率又は透過率、見え方、存在確率、車種、型式、カテゴリー、個数、速度、加速度、角速度、画像撮像装置の動きの情報又はそれらの予測情報のうち少なくとも一つ以上の情報を入力又は設定する請求項1記載の画像の動き検出装置。   The information input means for the part of interest includes an image position, an image range, a distance, a size, a deformation degree, a two-dimensional shape, a three-dimensional shape, a texture, a color, a reflectance, or a transmission of the target target or background part. 2. At least one information among rate, appearance, existence probability, vehicle type, model, category, number, speed, acceleration, angular velocity, movement information of the image pickup apparatus or prediction information thereof is input or set. The image motion detection apparatus described. 動き量を計測する入力画像から多重解像度の画像を生成し、その多重解像度の画像を利用して粗密探索を行い、処理の反復の過程で徐々に画像の動き量を推定する請求項1又は2記載の画像の動き検出装置。   3. A multi-resolution image is generated from an input image for measuring a motion amount, a coarse-fine search is performed using the multi-resolution image, and the motion amount of the image is gradually estimated in the process iteration. The image motion detection apparatus described. 前記注目する部分の情報の入力手段は、時系列的に前の処理結果の情報を利用して、注目する部分の情報を設定する請求項1,2又は3記載の画像の動き検出装置。   4. The image motion detection apparatus according to claim 1, wherein the information input means for the part of interest sets information of the part of interest by using information of a previous processing result in time series. 前記注目する部分を画像位置と関連付ける、画像位置により変化する重み係数について、矩形ウインドウ単位又は任意の形状の領域単位で同じ重み係数で扱う形の処理で具現化するか、又は矩形ウインドウ単位又は任意の形状の領域単位で重み係数を0又は1と選択するのと等価な処理で具現化した請求項1,2,3又は4記載の画像の動き検出装置。   The weighting coefficient that changes the image position by associating the part of interest with the image position is realized by processing in the form of handling the same weighting coefficient in units of rectangular windows or regions of arbitrary shapes, or in units of rectangular windows or arbitrary The image motion detection apparatus according to claim 1, 2, 3, or 4, embodied by a process equivalent to selecting a weighting factor of 0 or 1 for each area of the shape. 前記重み係数とは、注目する部分を画像位置と関連付ける、画像位置により変化する重み係数であり、画像変化とは画像の動き量を計測する対象の画像間での撮影環境、画像撮像装置の違いから生じる変化であり、画像間の動き量を計測するのに障害となる画像変化の大きい部分は注目しないように重み係数を適応的に調整する請求項1,2,3,4又は5記載の画像の動き検出装置。   The weighting factor is a weighting factor that changes depending on the image position, associating the portion of interest with the image position, and the image change is the difference in the shooting environment and the image pickup device between the images to be measured for the amount of motion of the image 6. The weight coefficient is adaptively adjusted so as not to pay attention to a portion of a large image change that is an obstacle to measuring the amount of motion between images. Image motion detection device. 可視画像と赤外画像、近赤外と遠赤外などの異種画像センサーで取得した画像間の対応付けを計算する請求項6記載の画像の動き検出装置。   The image motion detection device according to claim 6, wherein correspondence between images acquired by different types of image sensors such as a visible image and an infrared image, a near-infrared image, and a far-infrared image is calculated.
JP2003398244A 2003-11-27 2003-11-27 Image motion detection device Expired - Lifetime JP3914973B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003398244A JP3914973B2 (en) 2003-11-27 2003-11-27 Image motion detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003398244A JP3914973B2 (en) 2003-11-27 2003-11-27 Image motion detection device

Publications (2)

Publication Number Publication Date
JP2005157924A true JP2005157924A (en) 2005-06-16
JP3914973B2 JP3914973B2 (en) 2007-05-16

Family

ID=34723144

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003398244A Expired - Lifetime JP3914973B2 (en) 2003-11-27 2003-11-27 Image motion detection device

Country Status (1)

Country Link
JP (1) JP3914973B2 (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007087049A (en) * 2005-09-21 2007-04-05 Kddi Corp Dynamic image processor
JP2007174626A (en) * 2005-11-01 2007-07-05 Liteon It Corp Dvd recorder having monitor function
WO2009005025A1 (en) * 2007-07-03 2009-01-08 Konica Minolta Holdings, Inc. Moving object detection device
JP2009512053A (en) * 2005-10-17 2009-03-19 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Motion estimation and compensation of image sequences
JP2009110424A (en) * 2007-10-31 2009-05-21 Toshiba Elevator Co Ltd Abnormal action detector
JP2009294733A (en) * 2008-06-03 2009-12-17 Konica Minolta Holdings Inc Image processor and image processing method
JP2010009375A (en) * 2008-06-27 2010-01-14 Fujifilm Corp Image processor, image processing method and image processing program
JP2012133716A (en) * 2010-12-24 2012-07-12 Nikon Corp Image processing system, imaging apparatus and program
JP2012133484A (en) * 2010-12-20 2012-07-12 Nippon Telegr & Teleph Corp <Ntt> Image retrieval device, and image retrieval program
US8743123B2 (en) 2010-05-27 2014-06-03 Fuhitsu Limited Visualization processing method and apparatus with mask surface
CN104123734A (en) * 2014-07-22 2014-10-29 西北工业大学 Visible light and infrared detection result integration based moving target detection method
JP2017054501A (en) * 2015-09-08 2017-03-16 株式会社リコー Optimization method of motion prediction, device, and system

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4743601B2 (en) * 2005-09-21 2011-08-10 Kddi株式会社 Moving image processing device
JP2007087049A (en) * 2005-09-21 2007-04-05 Kddi Corp Dynamic image processor
JP2009512053A (en) * 2005-10-17 2009-03-19 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Motion estimation and compensation of image sequences
JP2007174626A (en) * 2005-11-01 2007-07-05 Liteon It Corp Dvd recorder having monitor function
WO2009005025A1 (en) * 2007-07-03 2009-01-08 Konica Minolta Holdings, Inc. Moving object detection device
JP2009110424A (en) * 2007-10-31 2009-05-21 Toshiba Elevator Co Ltd Abnormal action detector
JP2009294733A (en) * 2008-06-03 2009-12-17 Konica Minolta Holdings Inc Image processor and image processing method
JP2010009375A (en) * 2008-06-27 2010-01-14 Fujifilm Corp Image processor, image processing method and image processing program
US8743123B2 (en) 2010-05-27 2014-06-03 Fuhitsu Limited Visualization processing method and apparatus with mask surface
JP2012133484A (en) * 2010-12-20 2012-07-12 Nippon Telegr & Teleph Corp <Ntt> Image retrieval device, and image retrieval program
JP2012133716A (en) * 2010-12-24 2012-07-12 Nikon Corp Image processing system, imaging apparatus and program
CN104123734A (en) * 2014-07-22 2014-10-29 西北工业大学 Visible light and infrared detection result integration based moving target detection method
JP2017054501A (en) * 2015-09-08 2017-03-16 株式会社リコー Optimization method of motion prediction, device, and system

Also Published As

Publication number Publication date
JP3914973B2 (en) 2007-05-16

Similar Documents

Publication Publication Date Title
EP2420975B1 (en) System and method for 3d wireframe reconstruction from video
US8059915B2 (en) Apparatus for and method of robust motion estimation using line averages
JP5538617B2 (en) Methods and configurations for multi-camera calibration
US6819318B1 (en) Method and apparatus for modeling via a three-dimensional image mosaic system
US5963664A (en) Method and system for image combination using a parallax-based technique
JP5487298B2 (en) 3D image generation
US7003136B1 (en) Plan-view projections of depth image data for object tracking
US6219462B1 (en) Method and apparatus for performing global image alignment using any local match measure
Zhang et al. Video stabilization based on a 3D perspective camera model
JP3914973B2 (en) Image motion detection device
JP2007000205A (en) Image processing apparatus, image processing method, and image processing program
US20070098219A1 (en) Method and system for filtering, registering, and matching 2.5D normal maps
US20060050788A1 (en) Method and device for computer-aided motion estimation
US10460472B2 (en) System and method for model adaptation
JP2008176504A (en) Object detector and method therefor
CN111383252B (en) Multi-camera target tracking method, system, device and storage medium
Senst et al. Robust local optical flow: Long-range motions and varying illuminations
CN113838069B (en) Point cloud segmentation method and system based on flatness constraint
WO2021230157A1 (en) Information processing device, information processing method, and information processing program
CN113642397A (en) Object length measuring method based on mobile phone video
JP6806160B2 (en) 3D motion evaluation device, 3D motion evaluation method, and program
Heel Direct dynamic motion vision
Collins et al. System for automated site model acquisition
English et al. Development of a practical 3D automatic target recognition and pose estimation algorithm
Gandhi et al. Motion analysis of omni-directional video streams for a mobile sentry

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060821

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060927

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20061220

R150 Certificate of patent or registration of utility model

Ref document number: 3914973

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

EXPY Cancellation because of completion of term