JPH08242454A - Method for detecting global motion parameter - Google Patents

Method for detecting global motion parameter

Info

Publication number
JPH08242454A
JPH08242454A JP4274495A JP4274495A JPH08242454A JP H08242454 A JPH08242454 A JP H08242454A JP 4274495 A JP4274495 A JP 4274495A JP 4274495 A JP4274495 A JP 4274495A JP H08242454 A JPH08242454 A JP H08242454A
Authority
JP
Japan
Prior art keywords
block
motion vector
blocks
estimated
representative
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP4274495A
Other languages
Japanese (ja)
Inventor
Masaaki Ishikawa
雅朗 石川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP4274495A priority Critical patent/JPH08242454A/en
Publication of JPH08242454A publication Critical patent/JPH08242454A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE: To reduce the required processing amount without much deteriorating estimate accuracy in the method that panning and zooming parameters are estimated with the least squares method by using a motion vector MV in the unit of blocks. CONSTITUTION: When the reliability of estimating detection of a motion vector MV from each reference position block of a coding object frame 2 is low, a block with high reliability of estimating detection of the MV is sought from object positions around the reference position instead. An MV detection circuit 11 detects the MV based on image data in each reference area corresponding to each block to be selected and a coding reference frame 1 and it is used to estimate panning parameters e, f and a zooming parameter (m) by using the MV by means of the least squares method. A substitute block is sought as to blocks where a difference between the expanded MV memory 15 and the detection MV memory 12 to estimate a final parameter.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、動画像のグローバル動
きのパラメタの検出に係り、特に、グローバル動きのう
ちのパン(水平及び垂直方向の平行移動)とズーム(拡
大、縮小)を表わすパラメタの検出に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to detection of a global motion parameter of a moving image, and more particularly to a parameter representing pan (horizontal and vertical translation) and zoom (enlargement / reduction) of global motion. Regarding the detection of.

【0002】本発明は、デジタル動画像の通信、蓄積、
放送等々、動画の動き補償フレーム間予測によるデータ
量圧縮の必要な分野に利用でき、特に処理量の軽減が重
視される小型デジタルビデオカメラ等のための動画像符
号化システムに利用するのに好適である。
The present invention relates to communication, storage of digital moving images,
It can be used in fields such as broadcasting where data amount compression is required by motion-compensated inter-frame prediction of moving images, and is particularly suitable for use in moving image coding systems for small digital video cameras, etc. where reduction of processing amount is important. Is.

【0003】[0003]

【従来の技術】通常、動画像データ圧縮には動き補償フ
レーム間予測法が使われる(MPEG、H.261
等)。この動き補償フレーム間予測法では、画面内を複
数のブロックに分割し、復号済みの別のフレームの画像
との間でそれぞれ平行移動ベクトルを検出し、その動き
ベクトル情報とともに、動きベクトル分ずらした位置の
画像から予測して差分を符号化する。
2. Description of the Related Art Generally, a motion compensation interframe prediction method is used for moving image data compression (MPEG, H.261).
etc). In this motion-compensated inter-frame prediction method, the screen is divided into multiple blocks, the translation vector is detected between each of the decoded image and the image of another frame, and the motion vector information is shifted together with the motion vector information. The difference is encoded by predicting from the position image.

【0004】ところで、パン(水平,垂直方向の平行移
動)やズーム(拡大または縮小)のようなカメラ操作に
よって画面全体が動いた場合、画面内の殆どのブロック
で動きベクトルが発生し、その動きベクトル情報のデー
タ量も大きくなる。ここにおいて、パンやズームすなわ
ち画面の平行移動、拡大・縮小のパラメタを抽出し、こ
のパラメタのみを伝送すれば、動きベクトル情報の伝送
データ量を削減できる。また、ズームシーンにおいて
は、ブロック単位の平行移動では正確な動きを補償する
ことは本来できないが、ズームのパラメタが正確に抽出
されれば、ズームパラメタを用いて画素単位で動きベク
トルを展開することによって、正確な補償も可能とな
る。
By the way, when the whole screen is moved by a camera operation such as pan (translation in horizontal and vertical directions) and zoom (enlargement or reduction), motion vectors are generated in most blocks in the screen, and the motion is generated. The amount of vector information data also increases. Here, the amount of transmission data of motion vector information can be reduced by extracting parameters for panning and zooming, that is, parallel movement of the screen and enlargement / reduction, and transmitting only these parameters. Also, in a zoom scene, it is essentially impossible to compensate for accurate motion by parallel movement in block units, but if zoom parameters are accurately extracted, it is possible to expand motion vectors in pixel units using zoom parameters. By this, accurate compensation is also possible.

【0005】画像情報からパンやズームのパラメタを抽
出する手法がいくつか提案されている。その一つは、画
像を複数のブロックに分割し、各ブロックの動きベクト
ルを求めた後、これら動きベクトルのすべてを用いて最
小二乗推定によりパンとズームのパラメタを推定する方
法である(特開平3−191688号)。この方法は、
本発明と直接関連するので、次に簡単に説明する。
Several methods for extracting pan and zoom parameters from image information have been proposed. One of them is a method in which an image is divided into a plurality of blocks, the motion vector of each block is obtained, and then the pan and zoom parameters are estimated by least-squares estimation using all of these motion vectors. 3-191688). This method
Since it is directly related to the present invention, it will be briefly described below.

【0006】画面全体が動いたときの画素毎の動きベク
トルは、次の(1)式のように6個のパラメタa〜fで
表現できる。
A motion vector for each pixel when the entire screen moves can be expressed by six parameters a to f as in the following expression (1).

【0007】[0007]

【数1】 [Equation 1]

【0008】ただし、(x,y)は画素の位置(x座
標,y座標)、(Vx,Vy)は画素の動きベクトル
(水平方向成分,垂直方向成分)である。ここで、
However, (x, y) is a pixel position (x coordinate, y coordinate), and (Vx, Vy) is a pixel motion vector (horizontal component, vertical component). here,

【0009】[0009]

【数2】 [Equation 2]

【0010】この(2)式において、 p1=(a+d)/2 p2=(−b+c)/2 p3=(a−d)/2 p4=(b+c)/2 であり、p1はズームパラメタ、p2は回転パラメタ、
p3は縦横歪みパラメタ、p4は斜め歪みパラメタ、e
とfは水平方向と垂直方向のパンパラメタである。
In this equation (2), p1 = (a + d) / 2 p2 = (-b + c) / 2 p3 = (ad) / 2 p4 = (b + c) / 2, where p1 is the zoom parameter and p2 Is the rotation parameter,
p3 is the vertical / horizontal distortion parameter, p4 is the diagonal distortion parameter, e
And f are pan parameters in the horizontal and vertical directions.

【0011】ここで、a〜fのうちズームパラメタm=
(a+d/2)とパンパラメータe,fのみを使用した
次の(3)式のモデルを考える。したがって、b=c=
0、p2=p3=P4=0である。
Here, among a to f, the zoom parameter m =
Consider a model of the following expression (3) using only (a + d / 2) and pan parameters e and f. Therefore, b = c =
0 and p2 = p3 = P4 = 0.

【0012】[0012]

【数3】 (Equation 3)

【0013】そして、予め検出した各ブロックの動きベ
クトルを(3)式に当てはめ、最小二乗誤差法により
m,e,fの各パラメタを推定することを考える。図1
3は、この推定アルゴリズムを示す簡略化したC言語ソ
ースリストである。
Then, it is considered that the motion vector of each block detected in advance is applied to the equation (3) and each parameter of m, e, and f is estimated by the least square error method. FIG.
3 is a simplified C language source list showing this estimation algorithm.

【0014】図13において、(Y_WIDTH,Y_HEIGHT)
は画素単位の画面の水平方向,垂直方向のサイズ、ME_B
LK_SZは正方ブロックの一辺のサイズで、これらは予め
指定される。(MB_X_SIZE,MB_Y_SIZE)はブロック単位
の画面の水平方向,垂直方向のサイズである。(x,y)
はブロックの中心画素の位置のx,y座標、(vx,v
y)はブロック中心画素の動きベクトルの垂直方向,水
平方向の成分であり、これは予め代表ブロックについて
求められて三次元の配列mvとして与えれている。zoom
_param(=gmc_params[D])は(3)式のmに相当し、g
mc_params[E]は(3)式のeに相当し、gmc_params[F]
は(3)式のfに相当するもので、これらが、ここで求
めようとするものである。
In FIG. 13, (Y_WIDTH, Y_HEIGHT)
Is the horizontal and vertical size of the screen in pixels, ME_B
LK_SZ is the size of one side of the square block, and these are specified in advance. (MB_X_SIZE, MB_Y_SIZE) is the horizontal and vertical size of the screen in block units. (X, y)
Is the x, y coordinate of the position of the central pixel of the block, (vx, v
y) are vertical and horizontal components of the motion vector of the block center pixel, which are obtained in advance for the representative block and given as a three-dimensional array mv. zoom
_param (= gmc_params [D]) corresponds to m in equation (3), and g
mc_params [E] corresponds to e in equation (3), gmc_params [F]
Corresponds to f in the equation (3), and these are the ones to be obtained here.

【0015】ここに示された処理の概略は次のとおりで
ある。最初の2行はブロック単位の画面サイズを定義す
るためのプリプロセッサ制御文である。次の2行は各種
変数を0に初期化する部分である。次の入れ子構造のf
or文の部分は、ブロックの垂直方向番号blno_yを0か
ら1ずつインクリメントしつつ(ブロック行を上から下
へ順に移動しながら)、ブロックの水平方向番号bloc_x
を0から1ずつインクリメントし(ブロック行中のブロ
ックを左から右へ順に選択しながら)、各ブロックの中
心画素の位置(x,y)を求め、その画素位置の動きベ
クトルの垂直方向成分と水平方向成分を配列mvより読
み出して変数vy,vxに代入し、また各種変数のイン
クリメント、加算の操作を繰り返し、画面の右下のブロ
ックまで処理すると終了する。 次の2行で配列変数gmc
_params[B]とgmc_parms[C]を0クリアし、次の7行で配
列変数gmc_params[A]=gmc_params[D]を求めるための倍
精度演算を行なう。そして、次の3行で目的の3つのパ
ラメータを得る。
The outline of the processing shown here is as follows. The first two lines are preprocessor control statements for defining the screen size in block units. The next two lines are parts for initializing various variables to 0. F of the next nested structure
The or statement portion increments the block vertical direction number blno_y by 1 from 0 (moving the block row from top to bottom), and the block horizontal direction number bloc_x.
Is incremented by 1 from 0 (while selecting blocks in a block row in order from left to right), the position (x, y) of the central pixel of each block is obtained, and the vertical direction component of the motion vector at that pixel position is calculated. The horizontal component is read from the array mv, substituted into the variables vy and vx, and the operations of incrementing and adding various variables are repeated, and the processing is performed up to the block at the lower right of the screen. Array variable gmc in the next two lines
_params [B] and gmc_parms [C] are cleared to 0, and double precision arithmetic is performed in the next 7 lines to obtain the array variable gmc_params [A] = gmc_params [D]. Then, in the next three lines, three target parameters are obtained.

【0016】なお、ブロックの配置は画面中心点に関し
て対称であるので、パラメタ計算に全ブロックの動きベ
クトルを使用する場合、図13に示した推定式中のsum_
xとsum_yは0となり、推定式はより簡単になる。特開平
3−191688号公報では、この場合について上記方
法がより簡潔な形で述べられている。
Since the blocks are arranged symmetrically with respect to the screen center point, when motion vectors of all blocks are used for parameter calculation, sum_ in the estimation formula shown in FIG. 13 is used.
x and sum_y become 0, and the estimation formula becomes simpler. Japanese Patent Laid-Open No. 3-191688 describes the above method in this case in a simpler form.

【0017】[0017]

【発明が解決しようとする課題】さて、特公平3−19
1688号のパラメタ推定方法は、画面の分割ブロック
のすべてについて動きベクトルを求め、その全部をグロ
ーバル動きパラメタ推定に用いることが前提となってい
る。これは、通常の動画像符号化では、ブロック単位の
動き補償予測のため何等かの方法で既にブロック単位の
動きベクトルが求められているのが普通であるというこ
とが背景になっている。
[Problems to be Solved by the Invention] Japanese Patent Publication No. 3-19
The parameter estimation method of No. 1688 is based on the premise that motion vectors are obtained for all divided blocks on the screen and all of them are used for global motion parameter estimation. This is because, in normal moving image coding, it is usual that a motion vector in a block unit is already obtained by some method for motion compensation prediction in a block unit.

【0018】しかし、ブロック単位の動き検出処理は、
符号化処理全体の処理量の大半を占めるので、従来のよ
うに、すべてのブロックについて動き検出を行なうこと
は、処理量の面で、簡易な構成の動画像符号化システム
には負担が大きいという問題があった。
However, the block-by-block motion detection processing is
Since it occupies most of the processing amount of the entire encoding processing, performing motion detection for all blocks as in the conventional method is a heavy burden on a moving image encoding system having a simple configuration in terms of processing amount. There was a problem.

【0019】かかる問題点を解決することが本発明の主
要な課題である。すなわち、本発明の目的は、より少な
い処理量で、動画像のグローバル動きパラメータを十分
な精度で求める手段を提供し、以てグローバル動き補償
をする簡易な構成の動画像符号化システムの実現を可能
にすることである。
Solving such a problem is the main object of the present invention. That is, an object of the present invention is to provide a means for obtaining a global motion parameter of a moving image with sufficient accuracy with a smaller processing amount, thereby realizing a moving image coding system having a simple structure for global motion compensation. It is possible.

【0020】[0020]

【課題を解決するための手段】上記目的を達成するた
め、請求項1記載の発明は、画面内の全ブロックの動き
ベクトルをパン及びズームのパラメタの推定に用いるの
ではなく、一定のルールに従って選択した一部のブロッ
クの動きベクトルだけをパン及びズームのパラメタの推
定に用いることを特徴とするものである。請求項2乃至
10の各項記載の発明の主たる特徴は、パン及びズーム
のパラメタの推定に用いられるブロックの選択に係わる
ものである。
In order to achieve the above object, the invention according to claim 1 does not use the motion vectors of all the blocks in the screen for estimating the pan and zoom parameters, but follows a certain rule. It is characterized in that only the motion vectors of some selected blocks are used for estimating the pan and zoom parameters. A main feature of the invention described in each of claims 2 to 10 relates to selection of a block used for estimation of pan and zoom parameters.

【0021】すなわち、請求項2記載の発明は、画面内
の複数ブロックより水平方向及び垂直方向に一定数ブロ
ックおきに一部のブロックを代表ブロックとして選択
し、代表ブロックとして選択されたブロックについての
み、その動きベクトルを検出して、それをパン及びズー
ムのパラメタの推定に用いることを特徴とするものであ
る。
That is, according to the second aspect of the present invention, some blocks are selected as a representative block every predetermined number of blocks in the horizontal and vertical directions from a plurality of blocks in the screen, and only the blocks selected as the representative block are selected. , The motion vector is detected and used for estimating the pan and zoom parameters.

【0022】請求項3記載の発明は、請求項2記載の発
明と同様に、画面内の複数ブロックより水平及び垂直方
向に一定数ブロックおきに一部のブロックを代表ブロッ
クとして選択するが、選択されたブロックの中で、動き
ベクトルの検出の信頼度が低いと推定されるブロックは
代表ブロックより除外し、残った代表ブロックについて
のみ、その動きベクトルを検出して、それをパン及びズ
ームのパラメタの推定に用いることを特徴とするもので
ある。
According to the third aspect of the present invention, like the second aspect of the invention, some blocks are selected as a representative block in the horizontal and vertical directions from a plurality of blocks in the screen at a fixed number of blocks at a time. Among the selected blocks, blocks that are estimated to have low reliability of motion vector detection are excluded from the representative block, and the motion vector of only the remaining representative block is detected, and the motion vector is detected as a pan and zoom parameter. It is characterized by being used for estimating.

【0023】請求項4記載の発明は、請求項3記載の発
明と同様に、一定数ブロックおきに代表ブロックとして
選択したブロックの中で、動きベクトルの検出の信頼度
が低いと推定されるブロックを代表ブロックより除外す
るが、除外されたブロックの周囲の予め定められた位置
に、動きベクトルの検出の信頼度が高いと推定されるブ
ロックが存在するときには、そのブロックを代表ブロッ
クとし、最終的に代表ブロックとされたブロックについ
てのみ、その動きベクトルを検出してパン及びズームの
パラメタの推定に用いることを特徴とするものである。
According to a fourth aspect of the present invention, similarly to the third aspect of the present invention, among the blocks selected as the representative block at every fixed number of blocks, the block estimated to have low reliability of motion vector detection. Is excluded from the representative block, but at a predetermined position around the excluded block, if there is a block estimated to have high reliability of motion vector detection, that block is set as the representative block, and The motion vector of only the block that is the representative block is detected and used for estimating the pan and zoom parameters.

【0024】請求項5記載の発明は、画面内の複数ブロ
ックの中より一定のルールによって一部のブロックを代
表ブロックとして選択し、選択されたブロックについ
て、動きベクトルの検出をし、得られた動きベクトルを
用いて最小二乗誤差法によりパン及びズームのパラメタ
を推定する。推定されたパン及びズームのパラメタか
ら、代表ブロックとして選択されたブロックの動きベク
トルを展開し、代表ブロックとして選択されたブロック
の中で、展開された動きベクトルと検出された動きベク
トルとの差が所定の閾値を超えるブロックは代表ブロッ
クより除外する。そして、除外されずに残った代表ブロ
ックとしてのブロックについて検出された動きベクトル
だけを用いて、最小二乗誤差法により最終的なパン及び
ズームのパラメタを推定することを特徴とするものであ
る。
According to the fifth aspect of the invention, a part of the blocks is selected as a representative block from a plurality of blocks on the screen according to a certain rule, and a motion vector is detected for the selected block. The parameters of pan and zoom are estimated by the least square error method using the motion vector. From the estimated pan and zoom parameters, expand the motion vector of the block selected as the representative block, and in the block selected as the representative block, the difference between the expanded motion vector and the detected motion vector is A block exceeding a predetermined threshold is excluded from the representative block. Then, the final pan and zoom parameters are estimated by the least-squares error method using only the motion vector detected for the block as the representative block remaining without being excluded.

【0025】請求項6記載の発明は、画面内の複数ブロ
ックより水平方向及び垂直方向に一定数ブロックおきに
一部のブロックを代表ブロックとして選択し、代表ブロ
ックとして選択されたブロックの中で、動きベクトルの
検出の信頼度が低いと推定されるブロックを代表ブロッ
クより除外し、除外されたブロックの周囲の予め定めら
れた位置に、動きベクトルの検出の信頼度が高いと推定
されるブロックが存在するときには、そのブロックを代
表ブロックとする。この段階において代表ブロックとさ
れたブロックについて、動きベクトルの検出をし、得ら
れた動きベクトルを用いて最小二乗誤差法によりパン及
びズームのパラメタを推定する。推定されたパン及びズ
ームのパラメタから、代表ブロックとされたブロックの
動きベクトルを展開し、代表ブロックとされたブロック
の中で、展開された動きベクトルと検出された動きベク
トルとの差が所定の閾値を超えるブロックは代表ブロッ
クより除外する。除外されたブロックの周囲の予め定め
られた位置に、動きベクトルの検出の信頼度が高いと推
定されるブロックが存在するときには、この信頼度が高
いと推定されたブロックの動きベクトルを検出し、この
検出された動きベクトルと、先に推定されたパラメタに
より展開された、当該信頼度が高いと推定されたブロッ
クに対応する動きベクトルとの差が所定の閾値以下のと
きは、当該信頼度が高いと推定されたブロックを代表ブ
ロックとする。そして、この段階において代表ブロック
とされたブロックについて検出された動きベクトルだけ
を用いて、最小二乗誤差法により最終的なパン及びズー
ムのパラメタを推定する。
According to a sixth aspect of the present invention, a part of blocks is selected as a representative block in the horizontal and vertical directions from a plurality of blocks in the screen at a fixed number of blocks, and among the blocks selected as the representative block, A block estimated to have low reliability of motion vector detection is excluded from the representative block, and a block estimated to have high reliability of motion vector detection is placed at a predetermined position around the excluded block. When it exists, the block is set as a representative block. At this stage, the motion vector is detected for the block that is the representative block, and the pan and zoom parameters are estimated by the least square error method using the obtained motion vector. From the estimated pan and zoom parameters, the motion vector of the block that is the representative block is expanded, and the difference between the expanded motion vector and the detected motion vector in the block that is the representative block is predetermined. Blocks that exceed the threshold are excluded from the representative block. At a predetermined position around the excluded block, when there is a block that is estimated to have high reliability of motion vector detection, the motion vector of the block that is estimated to have high reliability is detected, When the difference between the detected motion vector and the motion vector corresponding to the block estimated to have high reliability, which is developed by the previously estimated parameter, is less than or equal to a predetermined threshold, the reliability is A block estimated to be high is set as a representative block. Then, the final pan and zoom parameters are estimated by the least-squares error method using only the motion vector detected for the block that is the representative block at this stage.

【0026】請求項3,4または6記載の発明におい
て、ブロックの動きベクトルの検出の信頼度の高低を推
定する必要がある。請求項7,8,9及び10記載の発
明は、この動きベクトルの検出の信頼度の推定に関する
もので、動きベクトルの検出の信頼度の推定のために、
ブロック内の輝度信号の勾配ベクトルの分布の広がりの
大きさを用いる。請求項8記載の発明の特徴は、対象と
なる動画像がインタレース画像である場合に、ブロック
内の輝度信号の勾配ベクトルの分布の広がりの大きさを
求める際に、勾配ベクトルの垂直方向成分については1
ラインおきに勾配を計算することである。請求項9記載
の発明の特徴は、ブロック内の輝度信号の勾配ベクトル
の分布の広がりの大きさの評価値として、ブロック内全
画素の勾配ベクトルの平均の方向と、これに直交する方
向について、勾配ベクトルの分布を覆うところの、これ
ら方向の軸に直交する最小の矩形の面積を用いることで
ある。請求項10記載の発明の特徴は、ブロック内の輝
度信号の勾配ベクトルの分布の広がりの大きさの評価値
として、勾配ベクトルの分布を覆うところの水平及び垂
直方向軸に直交する最小の矩形の面積と、勾配ベクトル
の分布を覆うところの水平及び垂直方向軸を45度回転
させた軸に直交する最小の矩形の面積のうちの小さいほ
うの面積を用いることである。
In the invention according to claim 3, 4 or 6, it is necessary to estimate the reliability of detection of the motion vector of the block. The inventions according to claims 7, 8, 9 and 10 relate to the estimation of the reliability of the motion vector detection, and for the estimation of the reliability of the motion vector detection,
The magnitude of the spread of the gradient vector of the luminance signal in the block is used. The feature of the invention according to claim 8 is that, when the target moving image is an interlaced image, the vertical direction component of the gradient vector is obtained when the size of the spread of the distribution of the gradient vector of the luminance signal in the block is obtained. About 1
It is to calculate the slope every line. The feature of the invention according to claim 9 is that, as an evaluation value of the spread of the distribution of the gradient vector of the luminance signal in the block, the average direction of the gradient vectors of all the pixels in the block, and the direction orthogonal to this direction, To use the smallest rectangular area orthogonal to the axes of these directions that covers the gradient vector distribution. The feature of the invention according to claim 10 is that, as the evaluation value of the spread of the distribution of the gradient vector of the luminance signal in the block, the smallest rectangular shape orthogonal to the horizontal and vertical axes covering the distribution of the gradient vector is used. The smaller area of the area and the area of the smallest rectangle orthogonal to the axis obtained by rotating the horizontal and vertical axes covering the distribution of the gradient vector by 45 degrees is used.

【0027】[0027]

【作用】請求項1乃至10の各項記載の発明によれば、
画面内の選択された一部のブロックの動きベクトルだけ
を、予め検出するか、またはブロックの選択後もしくは
ブロックの選択過程で検出するだけでパン及びズームの
パラメタを推定できるため、動きベクトル検出の処理量
を削減することができる。
According to the invention described in each of claims 1 to 10,
Since the pan and zoom parameters can be estimated only by detecting the motion vectors of some selected blocks in the screen in advance, or by only detecting them after the block selection or during the block selection process, the motion vector detection The processing amount can be reduced.

【0028】請求項2記載の発明によれば、パラメタ推
定に用いるブロックの選択のための処理量を少なくで
き、また、選択されたブロック以外の動きベクトルの検
出は全く必要とされないので、処理量の大幅削減が可能
である。ブロック選択は、例えば、画面を垂直方向にN
等分割、垂直方向にM分割し、分割領域の中心位置にあ
るブロックを選択する方法とすることができる。その一
例を図14に示す。図14において、縦横線は画面の分
割線であり、一つの一つのブロックは方形格子によって
示されている。黒ベタの格子は分割領域の中心位置(以
下、基本選択位置と呼ぶことにする)にあるブロックを
意味し、請求項2記載の発明によれば、基本選択位置に
あるブロックが、パラメタ推定のための代表ブロックと
して選択される。
According to the second aspect of the present invention, the processing amount for selecting the block used for parameter estimation can be reduced, and the detection of the motion vector other than the selected block is not required at all. Can be significantly reduced. For block selection, for example, N is displayed vertically on the screen.
It is possible to adopt a method in which the block at the center position of the divided area is selected by equally dividing the image into M pieces in the vertical direction. An example thereof is shown in FIG. In FIG. 14, the vertical and horizontal lines are dividing lines of the screen, and each one block is shown by a rectangular grid. The solid black grid means a block at the center position (hereinafter referred to as a basic selection position) of the divided area. According to the invention of claim 2, the block at the basic selection position is used for parameter estimation. Is selected as the representative block.

【0029】請求項3記載の発明によれば、請求項2記
載の発明と同様にして代表ブロックとして選択されたブ
ロックの動きベクトルの検出を実際に行なう前に、動き
ベクトルの検出の信頼度を推定し、推定された信頼度が
低いブロックを除いたブロックについてのみ動きベクト
ルの検出を行なう。このように、推定される信頼度の低
いブロックの動きベクトルをパラメタ推定に用いないの
で、パラメタの検出精度が向上する。
According to the third aspect of the invention, the reliability of the motion vector detection is determined before the motion vector of the block selected as the representative block is actually detected in the same manner as the second aspect of the invention. Estimate and detect the motion vector only for blocks excluding the blocks with low estimated reliability. In this way, since the motion vector of the estimated block with low reliability is not used for parameter estimation, the parameter detection accuracy is improved.

【0030】請求項7乃至10の各項記載の発明によれ
ば、動きベクトル検出の信頼度の推定に、ブロック内の
輝度信号の勾配ベクトルの分布の広がりの大きさが用い
られる。ブロック内の輝度信号の勾配ベクトルの分布の
広がりは、例えば図15のようになる。図15は、ブロ
ック内の各画素の輝度勾配をxy平面にプロットし、各
プロット点を原点と直線で結んだものである。
According to the invention described in each of claims 7 to 10, the extent of the spread of the gradient vector distribution of the luminance signal in the block is used for the estimation of the reliability of the motion vector detection. The spread of the gradient vector distribution of the luminance signal in the block is, for example, as shown in FIG. In FIG. 15, the brightness gradient of each pixel in the block is plotted on the xy plane, and each plotted point is connected to the origin by a straight line.

【0031】このようなブロック内の輝度信号の勾配ベ
クトルの分布の広がりの大きさと、動きベクトル検出の
信頼度(実際に動きベクトル検出を行なったときに得ら
れる動きベクトルの信頼性の度合)との間には、次に述
べるような定性的な関係がある。
The magnitude of the spread of the gradient vector distribution of the luminance signal in such a block, the reliability of the motion vector detection (the degree of reliability of the motion vector obtained when the motion vector detection is actually performed), and There is a qualitative relationship as described below.

【0032】ブロック内の輝度変化が平坦である場合、
そのブロックの動きベクトル検出の信頼度は低いが、勾
配ベクトルの分布の広がりは小さくなる。直線状のエッ
ジ成分のみを含むブロックの場合も、このエッジ方向の
動きベクトルの成分は特定できないため動きベクトル検
出の信頼度が低くいが、勾配ベクトルは同一方向に揃う
ので、その分布の広がりは小さくなる。なお、規則的テ
クスタャの場合も動きベクトル検出の信頼度が低いが、
この信頼度の低さはブロック内の輝度信号の勾配ベクト
ルの分布の広がりの大きさに反映されない。このこと
は、背景に隠れていた部分が出て来たときのように参照
画素上に対応する部分が存在しない場合も同様である。
If the luminance change in the block is flat,
Although the reliability of the motion vector detection of the block is low, the spread of the gradient vector distribution becomes small. Even in the case of a block that includes only linear edge components, the reliability of motion vector detection is low because the component of the motion vector in this edge direction cannot be specified, but since the gradient vectors are aligned in the same direction, the spread of the distribution is Get smaller. In addition, even in the case of regular texturer, the reliability of motion vector detection is low,
This low reliability is not reflected in the size of the spread of the gradient vector distribution of the luminance signal in the block. This is the same when there is no corresponding portion on the reference pixel as when a portion hidden in the background comes out.

【0033】このような関係があるので、請求項7乃至
10の各項記載の発明によれば動きベクトル検出の信頼
度を推定することができる。
Because of this relationship, the reliability of motion vector detection can be estimated according to the invention described in each of claims 7 to 10.

【0034】インターレス画像の場合、動き部分で、1
ライン毎に、1/60秒だけ時間がずれた画像が櫛状に
現われるため、輝度信号の勾配ベクトルの垂直方向成分
を求める際に垂直方向に隣接する画素を使用して勾配を
計算すると、得られた勾配ベクトルの分布の広がりの大
きさが大きくなりやすく、その結果、動きベクトル検出
の信頼度が高めに推定されるという不都合がある。請求
項8記載の発明によれば、同じパリティのフィールド画
像のみが用いられるため、そのような不都合は解消され
る。
In the case of an interlaced image, the moving part is 1
An image with a time difference of 1/60 seconds appears for each line in a comb shape. Therefore, when calculating the gradient using the vertically adjacent pixels when obtaining the vertical component of the gradient vector of the luminance signal, it is possible to obtain There is an inconvenience that the spread of the distribution of the obtained gradient vector is likely to be large, and as a result, the reliability of motion vector detection is estimated to be high. According to the invention described in claim 8, since only field images of the same parity are used, such inconvenience is eliminated.

【0035】請求項9記載の発明及び請求項10記載の
発明は、ブロック内の輝度信号の勾配ベクトルの分布の
広がりの大きさを大雑把に評価する。すなわち、請求項
9記載の発明では、例えば図16に示すように、ブロッ
ク内全画素の勾配ベクトルの平均の方向(軸1001の
方向)と、これに直交する方向(軸1002の方向)に
ついて、勾配ベクトルの分布を覆うところの、各軸10
01,1002と直交する最小の矩形1003の面積
を、ブロック内の輝度信号の勾配ベクトルの分布の広が
りの大きさの評価値として用いる。なお、この矩形10
03は原点に対して対称にとる。また、勾配ベクトルの
平均の方向(1001)と、それを180度回転した方
向は本質的に同じであるので、例えば、勾配ベクトルの
うちx−y平面の左半分のもの(x<0)を180度回
転してx−y平面の右半分に揃えたうえで、平均ベクト
ルをとることができる。
According to the ninth and tenth aspects of the invention, the extent of the spread of the gradient vector distribution of the luminance signal in the block is roughly evaluated. That is, in the invention according to claim 9, for example, as shown in FIG. 16, with respect to the average direction (direction of axis 1001) of the gradient vectors of all pixels in the block and the direction (direction of axis 1002) orthogonal thereto, Each axis 10 covering the gradient vector distribution
The area of the smallest rectangle 1003 orthogonal to 01 and 1002 is used as the evaluation value of the spread of the distribution of the gradient vector of the luminance signal in the block. The rectangle 10
03 is symmetrical with respect to the origin. Also, since the average direction of the gradient vector (1001) and the direction obtained by rotating it by 180 degrees are essentially the same, for example, the left half of the gradient vector (x <0) in the xy plane is An average vector can be taken after rotating 180 degrees and aligning with the right half of the xy plane.

【0036】請求項10記載の発明では、例えば図17
に示すように、勾配ベクトルの分布を覆う、x,y軸
(水平方向軸,垂直方向軸)に直交する最小の矩形10
05の面積と、勾配ベクトルの分布を覆う、x,y軸を
45度回転した軸1006,1007に直交する最小の
矩形1008の面積のうち小さいほうの面積(図17で
は矩形1005の面積)を、ブロック内の輝度信号の勾
配ベクトルの分布の広がりの大きさの表価値として用い
る。なお、矩形1005,1008は原点に対して対称
にとる。この評価方法は請求項9記載の発明の評価方法
を簡略化したもので、水平,垂直方向と45度斜め方向
のみのエッジ成分を評価するものである。請求項4記載
の発明によれば、請求項3記載の発明と同様にして代表
ブロックとして選択されたブロックの中から動きベクト
ルの検出の信頼度が低いと推定されたブロックを除く
が、その周囲の所定位置に動きベクトル検出の信頼度の
高いブロックが見つかるときには、それを削除されたブ
ロックの代わりに代表ブロックとする。例えば図14に
示すように、基本選択位置ブロックの周囲に候補選択位
置ブロック(網掛け格子で示されている)を設定してお
き、基本選択位置ブロックが代表ブロックから除外され
たときに、その周囲の候補選択位置ブロックの中に動き
ベクトル検出の信頼度が高いと推定されるものがあれ
ば、そのブロックを削除された代表ブロックの代わりに
代表ブロックとする。請求項4記載の発明によれば、パ
ラメタ推定に用いるブロック数が過少になることを防止
し、パラメタ推定の精度を維持できる。
In the invention described in claim 10, for example, FIG.
As shown in, the smallest rectangle 10 that covers the gradient vector distribution and is orthogonal to the x and y axes (horizontal axis, vertical axis)
05 and the area of the smallest rectangle 1008 that covers the gradient vector distribution and is orthogonal to the axes 1006 and 1007 with the x and y axes rotated by 45 degrees, whichever is smaller (the area of rectangle 1005 in FIG. 17). , It is used as a table value of the spread of the distribution of the gradient vector of the luminance signal in the block. The rectangles 1005 and 1008 are symmetrical with respect to the origin. This evaluation method is a simplification of the evaluation method of the invention described in claim 9, and evaluates the edge components only in the horizontal and vertical directions and the 45-degree diagonal direction. According to the invention described in claim 4, the block estimated to have low reliability of motion vector detection is excluded from the blocks selected as the representative block in the same manner as in the invention described in claim 3, but its surroundings are excluded. When a block with high reliability of motion vector detection is found at a predetermined position of, it is used as a representative block instead of the deleted block. For example, as shown in FIG. 14, candidate selection position blocks (shown by a meshed grid) are set around the basic selection position block, and when the basic selection position block is excluded from the representative block, If there is a surrounding candidate selected position block that is estimated to have high reliability in motion vector detection, that block is used as the representative block instead of the deleted representative block. According to the invention described in claim 4, it is possible to prevent the number of blocks used for parameter estimation from becoming excessively small and maintain the accuracy of parameter estimation.

【0037】さて、画像の性質によっては、動きベクト
ル検出の信頼度は高く、実際に正しい動きベクトルが検
出されたブロックが、グローバルな動きと無関係に動い
ている部分のものである可能性がある。このような背景
のグローバルな動きと違う動きをする部分の動きベクト
ルをパラメタ推定に用いないのが望ましい。しかし、こ
のような望ましくないブロックの判定は、実際に動きベ
クトルを検出してはじめて可能である。
Depending on the nature of the image, the reliability of motion vector detection is high, and the block in which the correct motion vector is actually detected may be the part that is moving regardless of the global motion. . It is desirable not to use the motion vector of such a part having a motion different from the global motion of the background for parameter estimation. However, such an undesired block can be determined only after actually detecting the motion vector.

【0038】請求項5または6記載の発明によれば、そ
のような望ましくないブロックを代表ブロックから除外
するため、代表ブロックとして選択されたブロックにつ
いてブロックマッチング法等の従来技術によって動きベ
クトルを検出し、その動きベクトルを用いて最小二乗誤
差法によりパン及びズームのパラメタを推定する。そし
て、このパラメタを展開して動きベクトルを求め、これ
と実際に検出された動きベクトルとの差が所定の閾値を
超えるブロックは、上記の望ましくないブロックと判断
し、代表ブロックから除外する。請求項6記載の発明に
よれば、さらに、除外されたブロックについて、同様の
方法によって代表ブロックにふさわしい代替のブロック
を見つける操作を行なう。このようにして最終的に代表
ブロックとされたブロックについて検出された動きベク
トルを用い、最小二乗誤差法によりパラメタの最終推定
が行なわれる。
According to the fifth or sixth aspect of the invention, in order to exclude such undesired blocks from the representative block, the motion vector is detected by the conventional technique such as the block matching method for the block selected as the representative block. , The parameters of pan and zoom are estimated by the least squares error method using the motion vector. Then, this parameter is expanded to obtain a motion vector, and a block in which the difference between the motion vector and the actually detected motion vector exceeds a predetermined threshold value is determined as the above-mentioned undesirable block and excluded from the representative blocks. According to the invention of claim 6, an operation of finding an alternative block suitable for the representative block is performed for the excluded block by the same method. Thus, the final estimation of the parameter is performed by the least square error method using the motion vector detected for the block finally determined as the representative block.

【0039】このように、グローバル動きと無関係な動
き部分のブロックを代表ブロックから排除することによ
って、より高精度のパラメタ推定が可能となる。一旦代
表ブロックとされたブロックで最終的に除外されたブロ
ックについて検出された動きベクトルは無駄になり、そ
の検出処理は無駄な処理となる。しかし、それ以外の排
除されなかったブロックについては、動きベクトルの検
出を1回行なうだけでよく、得られた動きベクトルはパ
ラメタ最終推定に利用されるので、動きベクトル検出処
理量がそれほど増加する心配はない。
As described above, by excluding the block of the motion portion unrelated to the global motion from the representative block, it is possible to estimate the parameter with higher accuracy. The motion vector detected for the block that has been once excluded as the representative block is wasted, and the detection process is wasted. However, for other blocks that have not been excluded, it is only necessary to detect the motion vector once, and the obtained motion vector is used for the final parameter estimation. There is no.

【0040】また、請求項5記載の発明と請求項6記載
の発明とを比較によれば、前者は代表ブロックから除外
されたブロックの代替ブロックを補充しないので、処理
量の面では後者より有利である。しかし、代表ブロック
から除外されたブロックの部分の動きベクトルを利用し
ない分、パラメタ推定の精度の面では後者に劣る可能性
がある。
Further, according to the comparison between the invention according to claim 5 and the invention according to claim 6, since the former block does not replenish the alternative block of the block excluded from the representative block, it is more advantageous than the latter in terms of throughput. Is. However, since the motion vector of the block excluded from the representative block is not used, the accuracy of parameter estimation may be inferior to the latter.

【0041】[0041]

【実施例】以下、MPEG符号化に適用された本発明の
いくつかの実施例について、添付図面を参照し詳細に説
明する。まず図1を参照し、各実施例に係る処理系の一
例について説明する。なお、MPEG符号化手段は従来
と同様のものでよく、これは図1には示されていない。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Some embodiments of the present invention applied to MPEG encoding will be described below in detail with reference to the accompanying drawings. First, an example of a processing system according to each embodiment will be described with reference to FIG. The MPEG encoding means may be the same as the conventional one, which is not shown in FIG.

【0042】図1において、参照フレーム画像メモリ1
は参照フレームの画像データを記憶するためのメモリで
あり、符号化対象フレーム画像メモリ2は符号化対象フ
レームの画像データを記憶するためのメモリである。選
択ブロック位置アドレス生成回路3は選択ブロック位置
アドレスを発生する回路であり、参照領域画像読み出し
回路4は選択ブロック位置アドレスに従って参照フレー
ム画像メモリ1より参照領域の画像データを読み出す回
路であり、選択ブロック画像読み出し回路5は選択ブロ
ック位置アドレスに従って符号化対象フレーム画像メモ
リ2より選択ブロックの画像データを読み出す回路であ
る。読み出された参照領域画像データは参照領域画像メ
モリ6に一時的に記憶され、また、読み出された選択ブ
ロックの画像データは選択ブロック画像メモリ7に一時
的に記憶される。
In FIG. 1, reference frame image memory 1
Is a memory for storing the image data of the reference frame, and the encoding target frame image memory 2 is a memory for storing the image data of the encoding target frame. The selected block position address generation circuit 3 is a circuit that generates a selected block position address, and the reference area image read circuit 4 is a circuit that reads the image data of the reference area from the reference frame image memory 1 according to the selected block position address. The image reading circuit 5 is a circuit for reading the image data of the selected block from the encoding target frame image memory 2 in accordance with the selected block position address. The read reference area image data is temporarily stored in the reference area image memory 6, and the read image data of the selected block is temporarily stored in the selected block image memory 7.

【0043】評価器8は、メモリ7の選択ブロック画像
データより同ブロック内の輝度信号の勾配ベクトルの広
がりの大きさの評価値を求める回路である。閾値判定器
9は、評価器8により得られた評価値と閾値メモリ(#
1)10に格納されている閾値とを比較し、評価値≦閾
値のときに選択ブロック位置アドレス生成回路3に対し
リジェクト信号R1を出力するものである。
The evaluator 8 is a circuit for obtaining an evaluation value of the extent of spread of the gradient vector of the luminance signal in the same block from the image data of the selected block in the memory 7. The threshold value judging unit 9 calculates the evaluation value and the threshold value memory (#
1) The threshold value stored in 10 is compared, and when the evaluation value ≦ the threshold value, the reject signal R1 is output to the selected block position address generation circuit 3.

【0044】MV検出回路11は、メモリ6,7より画
像データを読み込み、ブロックマッチング法等によって
ブロック単位の動きベクトル(MV)を検出する回路で
ある。検出MVメモリ12は、MV検出回路11によっ
て得られたMVを記憶するためのメモリである。グロー
バル動きパラメタ推定回路13は、メモリ12より動き
パラメタを読み込んで最小二乗誤差法によりパン(水平
方向及び垂直方向)パラメタe,fとズームパラメタm
を推定するための回路である。
The MV detection circuit 11 is a circuit for reading image data from the memories 6 and 7 and detecting a motion vector (MV) in block units by a block matching method or the like. The detection MV memory 12 is a memory for storing the MV obtained by the MV detection circuit 11. The global motion parameter estimation circuit 13 reads the motion parameters from the memory 12 and uses the least squares error method to pan (horizontal and vertical directions) parameters e and f and a zoom parameter m.
Is a circuit for estimating.

【0045】MV展開回路14は推定されたパラメタを
展開することによって動きベクトルを求める回路であ
り、ここで得られた動きベクトルは展開MVメモリ15
に一時的に記憶される。MV差判定回路16は、展開M
Vメモリ15より読み込んだ動きベクトルと、検出MV
メモリ12より読み込んだ動きベクトルとの差を、閾値
メモリ(#2)17に格納されている閾値と比較し、動
きベクトル差>閾値のときに検出MVメモリ12に対す
るリジェクトブロックアドレスR2を出力する。このリ
ジェクトブロックアドレスR2は、スイッチ18を介し
て選択ブロック位置アドレス生成回路3へも供給するこ
とができる。
The MV expansion circuit 14 is a circuit for obtaining a motion vector by expanding the estimated parameter, and the motion vector obtained here is the expansion MV memory 15
Is temporarily stored in. The MV difference determination circuit 16 expands M
Motion vector read from V memory 15 and detected MV
The difference from the motion vector read from the memory 12 is compared with the threshold value stored in the threshold value memory (# 2) 17, and when the motion vector difference> the threshold value, the reject block address R2 for the detected MV memory 12 is output. This reject block address R2 can also be supplied to the selected block position address generation circuit 3 via the switch 18.

【0046】<実施例1>図2は本実施例の処理の流れ
の概略を示すフローチャートである。各ステップの処理
内容を、図1のブロック図を適宜参照しつつ説明する。
<Embodiment 1> FIG. 2 is a flow chart showing an outline of the processing flow of this embodiment. The processing content of each step will be described with reference to the block diagram of FIG.

【0047】ステップ100(MV検出ブロック基本選
択):選択ブロック位置アドレス生成回路3で、画面の
水平分割数と垂直分割数を入力として、図14に黒ベタ
格子で示された基本選択位置のブロックのアドレスを生
成する。ここでは、ブロックのサイズは16×16画
素、画面サイズは704×480画素、画面の領域分割
は水平方向が6等分割、垂直方向が4等分割である。た
だし、整数個のブロック毎の分割になるように、画面の
周囲1ブロックラインを除いて領域分割をする。
Step 100 (basic selection of MV detection block): In the selected block position address generation circuit 3, the number of horizontal and vertical divisions of the screen is input, and the block of the basic selection position shown by the solid black grid in FIG. Generates the address of. Here, the block size is 16 × 16 pixels, the screen size is 704 × 480 pixels, and the screen area is divided into 6 equal parts in the horizontal direction and 4 equal parts in the vertical direction. However, the area division is performed excluding the one block line around the screen so that the division is performed for each integer number of blocks.

【0048】選択ブロック画像読み出し回路5によっ
て、符号化対象フレーム画像メモリ2より基本選択位置
のブロックの画像データが順に読み出され選択ブロック
画像メモリ7に格納される。これと同時に、読み出され
た基本選択位置ブロックに対応する参照領域(通常、ブ
ロックのアドレスの周囲±N画素に選ばれる)の画像デ
ータが参照領域画像読み出し回路6によって参照フレー
ム画像メモリ1から読み出され参照領域画像メモリ6に
格納される。
The selected block image reading circuit 5 sequentially reads the image data of the block at the basic selected position from the encoding target frame image memory 2 and stores it in the selected block image memory 7. At the same time, the image data of the read reference area (usually selected as ± N pixels around the block address) corresponding to the read basic selection position block is read from the reference frame image memory 1 by the reference area image reading circuit 6. It is output and stored in the reference area image memory 6.

【0049】ここまでの説明から理解されるように、本
ステップでのブロック選択を特許請求の範囲の記載と対
応させるならば、水平及び垂直方向に一定ブロック数間
隔で定められた基本選択位置にあるブロックを、代表ブ
ロックとして選択するわけである。
As can be understood from the above description, if the block selection in this step corresponds to the description of the claims, the basic selection position defined by the constant number of blocks in the horizontal and vertical directions is selected. A certain block is selected as the representative block.

【0050】ステップ110(MV検出ブロック1次選
択):このステップと前ステップは、全ての基本選択位
置に関して、繰り返し実行される(この繰り返しは図2
には明示されていない)。
Step 110 (MV detection block primary selection): This step and the previous step are repeatedly executed for all basic selection positions (this repetition is shown in FIG. 2).
Not specified).

【0051】評価器8において、メモリ7に格納された
基本選択位置ブロックの画像データを用いて、同ブロッ
ク内の輝度信号の勾配ベクトルの広がりの大きさの評価
値を求める。この評価値と閾値メモリ(#1)10に格
納されている閾値との比較判定を閾値判定器9で行な
う。評価値が閾値より大きいときは、この基本選択位置
のブロックの動きベクトル検出の信頼度は高いと推定さ
れるので、この基本選択位置はMV検出ブロック1次選
択位置とされ、閾値判定器9からはリジェクト信号R1
は出力されない。
The evaluator 8 uses the image data of the basic selection position block stored in the memory 7 to obtain an evaluation value of the spread of the gradient vector of the luminance signal in the block. The threshold determination unit 9 performs comparison determination between the evaluation value and the threshold stored in the threshold memory (# 1) 10. When the evaluation value is larger than the threshold value, the reliability of the motion vector detection of the block at the basic selection position is estimated to be high. Therefore, the basic selection position is set as the MV detection block primary selection position, and the threshold value judgment unit 9 determines Is the reject signal R1
Is not output.

【0052】評価値が閾値以下であるならば、この基本
選択位置ブロックの動きベクトルの検出の信頼度は低い
と推定されるので、この基本選択位置はMV検出ブロッ
ク1次選択位置とはされず、閾値判定器9からリジェク
ト信号R1が出力される。
If the evaluation value is less than or equal to the threshold value, the reliability of the motion vector detection of this basic selection position block is estimated to be low, so this basic selection position is not regarded as the MV detection block primary selection position. The reject signal R1 is output from the threshold value determiner 9.

【0053】リジェクト信号R1が出力された場合、選
択ブロック位置アドレス生成回路3にて、入力された候
補位置パターンに従って、この基本選択位置の周囲の複
数の候補位置の中の一つを選び、その候補位置のブロッ
クのアドレスを発生し、この候補位置のブロックの画像
データが選択ブロック画像読み出し回路3により符号化
対象フレーム画像メモリ2から読み出されて選択ブロッ
ク画像メモリ7に格納される。同時に、このブロックに
対応した参照領域の画像データも参照フレーム画像メモ
リ1より参照領域画像メモリ6に読み出される。
When the reject signal R1 is output, the selected block position address generation circuit 3 selects one of a plurality of candidate positions around the basic selected position according to the input candidate position pattern, The address of the block at the candidate position is generated, and the image data of the block at the candidate position is read from the encoding target frame image memory 2 by the selected block image reading circuit 3 and stored in the selected block image memory 7. At the same time, the image data of the reference area corresponding to this block is also read from the reference frame image memory 1 to the reference area image memory 6.

【0054】このブロックについて、評価器8で輝度信
号の勾配ベクトルの広がりの大きさの評価値を求め、閾
値判定器9でこの評価値について閾値判定を行なう。評
価値>閾値であるならば、この候補位置のブロックは動
きベクトル検出の信頼度が高いと推定されるので、この
候補位置がMV検出ブロック1次選択位置とされる。し
かし、評価値≦閾値ならば、閾値判定器9からリジェク
ト信号R1が再び出力される。選択ブロック位置アドレ
ス生成回路3では、候補位置パターンに従って、前回選
んだ候補位置の次の候補位置を選び、その位置のブロッ
クのアドレスを発生する。このブロックの画像データが
選択ブロック画像メモリ7に読み出され、同様の表価値
の判定が行なわれる。対応した参照領域の画像データも
同時に読み出される。
With respect to this block, the evaluator 8 obtains an evaluation value of the magnitude of the spread of the gradient vector of the luminance signal, and the threshold judgment device 9 makes a threshold judgment for this evaluation value. If the evaluation value> threshold value, the block at this candidate position is estimated to have high reliability in motion vector detection, so this candidate position is set as the MV detection block primary selection position. However, if the evaluation value ≦ threshold value, the reject signal R1 is output again from the threshold value determiner 9. The selected block position address generation circuit 3 selects a candidate position next to the previously selected candidate position according to the candidate position pattern and generates the address of the block at that position. The image data of this block is read to the selected block image memory 7, and the same table value determination is performed. The image data of the corresponding reference area is also read at the same time.

【0055】リジェクト信号R1が出力されなければ、
その候補位置がMV検出ブロック1次選択位置とされる
が、リジェクト信号R1が出力されたならば、次の候補
位置のブロックの画像データが読み出されて評価値の判
定が行なわれる。最後の候補位置まで進み、それに対し
てもリジェクト信号R1が出力された場合には、当該基
本選択位置に関してはMV検出ブロック1次選択位置は
求められないことになる。
If the reject signal R1 is not output,
The candidate position is set as the MV detection block primary selection position, but when the reject signal R1 is output, the image data of the block at the next candidate position is read and the evaluation value is determined. When the process proceeds to the last candidate position and the reject signal R1 is output for that, the MV detection block primary selection position is not obtained for the basic selection position.

【0056】図3は、ここまで説明したMV検出ブロッ
ク1次選択処理の内容を簡略化して示したフローチャー
トである。
FIG. 3 is a flow chart showing the simplified contents of the MV detection block primary selection processing described so far.

【0057】なお、候補位置は基本選択位置に周囲に必
要個数設定すればよいが、本実施例では図14に網掛け
格子で示した8個の候補位置が設定される。候補位置の
個数を多くすれば、基本選択位置に代わりMV検出ブロ
ック1次選択位置が見つからないケースは少なくなるの
で、パラメタ推定精度の面では有利といえる。しかし反
面、MV検出ブロック1次選択処理のための時間が増加
する可能性がある。
It should be noted that the required number of candidate positions may be set around the basic selected position, but in the present embodiment, eight candidate positions shown by a hatched grid in FIG. 14 are set. If the number of candidate positions is increased, the number of cases in which the primary selected position of the MV detection block is not found instead of the basic selected position is reduced, which is advantageous in terms of parameter estimation accuracy. However, on the other hand, the time for the MV detection block primary selection processing may increase.

【0058】ここで、本ステップの処理内容を特許請求
の範囲の記載と対応させれば、次のとおりである。前ス
テップで選択されたブロックの動きベクトル検出の信頼
度を、輝度信号の勾配ベクトルの分布の広がりの大きさ
を評価値によって推定し、それが低いときには当該ブロ
ックを代表ブロックから除外し、その周囲に予め定めた
位置にあるブロックの中から動きベクトルの信頼度が高
いと推定されるブロックを探し、見つかったならば、そ
のブロックを除外されたブロックに代えて代表ブロック
とする。
Here, the processing contents of this step are as follows, corresponding to the description of the claims. The reliability of the motion vector detection of the block selected in the previous step is estimated by the evaluation value of the spread of the distribution of the gradient vector of the luminance signal, and when it is low, the block is excluded from the representative block and its surroundings. A block in which the reliability of the motion vector is estimated to be high is searched for from the blocks at the predetermined positions, and if found, the block is replaced with the excluded block and set as the representative block.

【0059】さて、評価器8において輝度信号の勾配ベ
クトルの分布の広がりの評価値を求めるが、評価値を求
めるためのアルゴリズムの例を次に説明する。
Now, the evaluator 8 obtains an evaluation value of the spread of the distribution of the gradient vector of the luminance signal. An example of an algorithm for obtaining the evaluation value will be described below.

【0060】まず、ブロック内の各画素での輝度信号の
勾配を求める必要がある。そのアルゴリズムは、ノンイ
ンターレス画像の場合、C言語で図4のように記述する
ことができる。ここで、ME_BLK_SIZEはブロックのサイ
ズであり、本実施例ではブロックは16×16画素であ
るので、図4のC言語ソースリストの1行目のプリプロ
セッサ制御文でME_BLK_SIZE=16に定義する。MBImgは
ブロック内の各画素の輝度値の配列である。i,jはブ
ロック内の画素の水平,垂直方向の相対的位置である。
図4の入れ子構造のfor文において、i及びjをME_B
LK_SZ-1に達するまで0から1ずつインクリメントしな
がら、整数演算によって、各画素でのx(水平)方向の
勾配grad[i][j][HORZ]とy(垂直)方向の勾配grad[i]
[j][VERT]が求められる。
First, it is necessary to find the gradient of the luminance signal at each pixel in the block. The algorithm can be described in C language as shown in FIG. 4 for a non-interlaced image. Here, ME_BLK_SIZE is the size of the block, and since the block has 16 × 16 pixels in the present embodiment, ME_BLK_SIZE = 16 is defined in the preprocessor control statement in the first line of the C language source list in FIG. MBImg is an array of luminance values of each pixel in the block. i and j are horizontal and vertical relative positions of pixels in the block.
In the nested for statement of FIG. 4, i and j are ME_B
Gradient grad [i] [j] [HORZ] in the x (horizontal) direction and gradient grad [i] in the y (vertical) direction at each pixel by incrementing from 0 to 1 until reaching LK_SZ-1. ]
[j] [VERT] is required.

【0061】なお、対象画像がインタレース画像の場合
には、y(垂直)方向の勾配については1ラインおきに
輝度値の差をとり、それを1/2倍して求める。したが
って、この場合のアルゴリズムは、C言語で記述すれば
図5のように表現できる。1ラインおきに輝度値の差を
とる関係から、一つの目のfor文の終了条件がME_BLK
_SZ-2に変更され、またgrad[i][j][VERT]の演算式が変
更される。
When the target image is an interlaced image, the difference in luminance value is taken every other line for the gradient in the y (vertical) direction, and it is obtained by halving the difference. Therefore, the algorithm in this case can be expressed as shown in FIG. 5 by describing it in C language. The end condition of the first for sentence is ME_BLK because the difference in luminance value is taken every other line.
_SZ-2 has been changed, and the arithmetic expression of grad [i] [j] [VERT] has also been changed.

【0062】このようにして求めた各画素での勾配を用
いて、ブロック内の輝度信号の勾配ベクトルの分布の広
がりの表価値(ブロックの動きベクトルの検出の推定さ
れる信頼度)を求める。そのためのアルゴリズムの例を
簡略化したC言語ソースリストとして図6と図7に示
す。*reliableが目的の評価値である。abs()は絶対値を
求める関数、MIN()は最大値を求める関数である。
By using the gradient of each pixel thus obtained, the table value of the spread of the distribution of the gradient vector of the luminance signal in the block (the estimated reliability of the detection of the motion vector of the block) is obtained. An example of an algorithm therefor is shown in FIGS. 6 and 7 as a simplified C language source list. * reliable is the target evaluation value. abs () is a function for finding an absolute value, and MIN () is a function for finding a maximum value.

【0063】図6に示したアルゴリズムでは、図16に
示した矩形1003に相当する矩形の面積の1/4の値
を表価値として求める(請求項9に相当)。図7に示し
たアルゴリズムでは、図17に示した矩形1005,1
008に相当する矩形の小さいほうの面積の1/4の値
を表価値として求める(請求項10に相当)。
In the algorithm shown in FIG. 6, a value of 1/4 of the area of the rectangle corresponding to the rectangle 1003 shown in FIG. 16 is obtained as the table value (corresponding to claim 9). In the algorithm shown in FIG. 7, the rectangles 1005 and 1 shown in FIG.
A value of 1/4 of the smaller area of the rectangle corresponding to 008 is obtained as the table value (corresponding to claim 10).

【0064】ステップ120(グローバル動きパラメタ
1次推定):前ステップで決定されたMV検出ブロック
1次選択位置のブロック(この段階までに代表ブロック
とされたブロック)のアドレスが選択ブロック位置アド
レス生成回路3で生成され、それら各ブロックと対応し
た参照領域の画像データがそれぞれ、選択ブロック画像
読み出し回路5及び参照領域画像読み出し回路4によっ
て、符号化対象フレーム画像メモリ4及び参照フレーム
画像メモリ1より順次読み出され、選択ブロック画像メ
モリ7及び参照領域画像メモリ6を介してMV検出回路
11に入力される。MV検出回路11では、入力された
ブロックと参照領域の画像データから、ブロックマッチ
ング法等によって、当該ブロックの動きベクトルを検出
する。検出された動きベクトルとブロックのアドレスは
検出MVメモリ12に格納される。
Step 120 (Global motion parameter primary estimation): The address of the block of the MV detection block primary selection position determined in the previous step (the block which has been the representative block up to this stage) is the selected block position address generation circuit. 3, the image data of the reference area corresponding to each of the blocks is sequentially read from the encoding target frame image memory 4 and the reference frame image memory 1 by the selected block image reading circuit 5 and the reference area image reading circuit 4, respectively. It is output and input to the MV detection circuit 11 via the selected block image memory 7 and the reference area image memory 6. The MV detection circuit 11 detects the motion vector of the block from the input block and the image data of the reference area by a block matching method or the like. The detected motion vector and block address are stored in the detected MV memory 12.

【0065】全てのMV検出ブロック1次選択位置のブ
ロックについて動きベクトルが得られると、グローバル
動きパラメタ推定回路13において、それら動きベクト
ル(代表MV)を用い、最小二乗誤差法によりパンパラ
メタe,fとズームパラメタmが推定される。
When the motion vectors have been obtained for all the blocks of the MV detection block primary selection positions, the global motion parameter estimation circuit 13 uses the motion vectors (representative MV) and the pan parameters e and f by the least square error method. And the zoom parameter m is estimated.

【0066】図8は、この推定アルゴリズムを示す簡略
化したC言語ソースリストである。図8において、mvは
代表MVの配列、Y_WIDTH,Y_HEIGHTは画素単位の画面
の水平方向,垂直方向のサイズである。ME_BLK_SZはブ
ロックの一辺のサイズでり、ここでは1行目の制御文で
16と定義される。MB_X_SIZE,MB_Y_SIZEはブロック単
位の画面の水平方向,垂直方向のサイズであり、2行目
と3行目の制御文で定義される。DEF_MV_SPLT_Xは画面
の水平分割数(水平方向の代表MV数)、DEF_MV_SPLT_
Yは画面の垂直分割数(垂直方向の代表MV数)であ
り、それぞれ4行目と5行目の制御文で6と4に定義さ
れる。(x,y)はブロックの中心画素の位置、(vx,
vy)はブロック中心画素の動きベクトルの垂直方向,
水平方向の成分である。gmc_params[E],gmc_params[F]
は目的の水平,垂直方向のパンパラメタ(前出の(3)
式のe,f)であり、zoom_params(=gmc_params[D])
は目的のズームパラメタ((3)式のm)である。
FIG. 8 is a simplified C language source list showing this estimation algorithm. In FIG. 8, mv is the array of representative MVs, and Y_WIDTH and Y_HEIGHT are the horizontal and vertical sizes of the screen in pixel units. ME_BLK_SZ is the size of one side of the block, and is defined as 16 in the control statement on the first line here. MB_X_SIZE and MB_Y_SIZE are the horizontal and vertical sizes of the screen in block units, and are defined by the control statements on the second and third lines. DEF_MV_SPLT_X is the number of horizontal divisions of the screen (the number of representative MVs in the horizontal direction), DEF_MV_SPLT_
Y is the number of vertical divisions of the screen (the number of MVs in the vertical direction), which are defined as 6 and 4 in the control statements on the 4th and 5th lines, respectively. (X, y) is the position of the central pixel of the block, (vx,
vy) is the vertical direction of the motion vector of the block center pixel,
This is the horizontal component. gmc_params [E], gmc_params [F]
Is the desired horizontal and vertical pan parameters ((3) above).
E, f) of the formula, and zoom_params (= gmc_params [D])
Is the target zoom parameter (m in equation (3)).

【0067】この処理の概略は次のとおりである。各種
変数を初期化した後、入れ子構造のfor文の部分で、
ブロックの垂直方向番号blno_yと水平方向番号bloc_xを
インクリメントしながら、各ブロックの中心画素の位置
(x,y)を求め、その画素位置の動きベクトルの垂直
方向成分と水平方向成分を配列mvより読み出して(実
際にはメモリ15より読み出す)、これを変数vy,v
xに代入し、また各種変数のインクリメント、加算の操
作を繰り返す。これを終了後、パラメタを算出する。
The outline of this process is as follows. After initializing various variables, in the nested for statement,
While incrementing the vertical direction number blno_y and horizontal direction number bloc_x of the block, the position (x, y) of the center pixel of each block is obtained, and the vertical direction component and horizontal direction component of the motion vector at that pixel position are read from the array mv. (Actually read from the memory 15)
The operation of substituting for x and incrementing and adding various variables is repeated. After this, the parameters are calculated.

【0068】ステップ130(MV展開1次):MV展
開回路14において、前ステップで得られたパラメタ
e,f,mを前出(3)式に代入し、各MV検出ブロッ
ク1次選択位置のブロックの動きベクトルを展開する。
展開された動きベクトルは展開MVメモリ15に格納さ
れる。
Step 130 (MV expansion primary): In the MV expansion circuit 14, the parameters e, f, m obtained in the previous step are substituted into the above equation (3) to determine the primary selection position of each MV detection block. Expand the motion vector of a block.
The expanded motion vector is stored in the expanded MV memory 15.

【0069】ステップ140(MV検出ブロック2次選
択):MV差判定回路16において、各MV検出ブロッ
ク1次選択位置のブロックについて、展開MVメモリ1
5内のパラメタ展開された動きベクトルと、検出MVメ
モリ12内の検出された動きベクトルとの差(例えば、
動きベクトルのx,y成分の差の絶対値の和)を、閾値
メモリ(#2)17に格納されている閾値と比較する。
動きベクトル差<閾値ならば、当該ブロックはMV検出
ブロック2次選択位置のブロックに入れるべきと判断さ
れるので、MV差判定回路16は何もしない。つまり、
当該ブロックの検出動きベクトルは有効なものとして検
出MVメモリ12内に保存されることになる。
Step 140 (second selection of MV detection block): In the MV difference determination circuit 16, the expanded MV memory 1 for the block of each MV detection block primary selection position
The difference between the parameter expanded motion vector in 5 and the detected motion vector in the detection MV memory 12 (for example,
The sum of the absolute values of the differences between the x and y components of the motion vector) is compared with the threshold value stored in the threshold value memory (# 2) 17.
If the motion vector difference <threshold value, it is determined that the block should be included in the block of the MV detection block secondary selection position, and the MV difference determination circuit 16 does nothing. That is,
The detected motion vector of the block is stored in the detected MV memory 12 as valid.

【0070】しかし、動きベクトル差≧閾値ならば、当
該ブロックはMV検出ブロック2次選択位置のブロック
から除外すべきと判断されるので、MV差判定回路16
は当該ブロック(リジェクトブロック)のアドレスを検
出MVメモリ12へ送り、検出MVメモリ12より当該
ブロックの検出動きベクトルを削除する。この時に、リ
ジェクトブロックの代替ブロックを探すモードと探さな
いモードを選ぶことができる。
However, if the motion vector difference ≧ threshold value, it is determined that the block should be excluded from the block of the MV detection block secondary selection position. Therefore, the MV difference determination circuit 16
Sends the address of the block (reject block) to the detection MV memory 12, and deletes the detected motion vector of the block from the detection MV memory 12. At this time, it is possible to select a mode in which a substitute block of the reject block is searched or a mode in which it is not searched.

【0071】代替ブロックを探さないモードが選ばれる
と、図1中のスイッチ18は図示のように開いた状態と
なり、リジェクトブロックアドレスを選択ブロック位置
アドレス生成回路3へは与えられず、格別の処理は行な
われない。
When the mode in which the alternative block is not searched is selected, the switch 18 in FIG. 1 is in the open state as shown in the figure, the reject block address is not given to the selected block position address generation circuit 3, and special processing is performed. Is not done.

【0072】一方、代替ブロックを探すモードが選ばれ
たときには、図1中のスイッチ18は閉じた状態とさ
れ、リジェクトブロックアドレスは選択ブロック位置ア
ドレス生成回路3へも送られ、次に述べる処理が行なわ
れる。
On the other hand, when the mode for searching for an alternative block is selected, the switch 18 in FIG. 1 is closed and the reject block address is also sent to the selected block position address generation circuit 3 to perform the processing described below. Done.

【0073】選択ブロック位置アドレス生成回路3にお
いて、当該リジェクトブロックに対応する代替ブロック
位置アドレスを生成する。リジェクトブロックが基本選
択位置のブロックであったときには、候補位置パターン
従って最初の候補位置から順に代替ブロック位置を選
ぶ。リジェクトブロックがある候補位置のブロックであ
ったときは、候補位置パターンに従って、その次の候補
位置から順に代替ブロックを選ぶ。この代替ブロックに
ついて、ステップ110と同様な動きベクトル検出の信
頼度の評価を行なう。信頼度が低いと判断されたときは
閾値判定器9からリジェクト信号R1が出るので、選択
ブロック位置アドレス生成回路3で次の代替ブロックの
アドレスが生成され、そのブロックについて同様の評価
が行なわれる。代替ブロックの読み出し時に、対応した
参照領域も同時に読み出される。
The selected block position address generation circuit 3 generates a substitute block position address corresponding to the reject block. When the reject block is the block at the basic selection position, the alternative block position is sequentially selected from the first candidate position according to the candidate position pattern. If the reject block is a block at a certain candidate position, alternative blocks are sequentially selected from the next candidate position according to the candidate position pattern. For this alternative block, the reliability of motion vector detection is evaluated in the same manner as in step 110. When it is determined that the reliability is low, the reject signal R1 is output from the threshold value determiner 9. Therefore, the selected block position address generation circuit 3 generates the address of the next alternative block, and the same evaluation is performed for that block. When reading the alternative block, the corresponding reference area is also read at the same time.

【0074】このようにして、動きベクトル検出の信頼
度が高いと推定される代替ブロックが見つかると、この
代替ブロックの動きベクトルをMV検出回路11で検出
し、検出した動きベクトルを検出MVメモリ12に格納
する。そして、この検出動きベクトルと、展開MVメモ
リ15内の当該リジェクトブロックの展開動きベクトル
との差の判定がMV差判定回路16で行なう。動きベク
トル差<閾値ならば、当該代替ブロックがリジェクトブ
ロックの代わりにMV検出ブロック2次選択位置とされ
る。
In this way, when a substitute block estimated to have high reliability in motion vector detection is found, the motion vector of this substitute block is detected by the MV detection circuit 11, and the detected motion vector is detected by the MV memory 12. To store. Then, the MV difference determination circuit 16 determines the difference between the detected motion vector and the developed motion vector of the reject block in the developed MV memory 15. If the motion vector difference <threshold value, the substitute block is set as the MV detection block secondary selection position instead of the reject block.

【0075】しかし、ここでも動きベクトル差≧閾値と
なったときには、当該代替ブロックのアドレスがリジェ
クトブロックアドレスとして、検出MVメモリ12へ送
られて対応の検出動きベクトルが削除され、また選択ブ
ロック位置アドレス生成回路3へも送られ、次の候補位
置から代替ブロックを探す処理を続ける。最後の候補位
置まで進んでも有効な代替ブロックが見つからない場合
には、リジェクトブロックに対応する分割領域では、パ
ラメタ最終推定に用いるブロックは選ばれないことにな
る。
However, when the motion vector difference ≧ threshold value again, the address of the substitute block is sent to the detection MV memory 12 as the reject block address and the corresponding detection motion vector is deleted, and the selected block position address is also deleted. It is also sent to the generation circuit 3, and the process of searching for a substitute block from the next candidate position is continued. If a valid alternative block is not found even after reaching the last candidate position, the block used for final parameter estimation will not be selected in the divided area corresponding to the reject block.

【0076】図9は、代替ブロックを探すモードにおけ
る上述のMV検出ブロック2次選択処理の内容を簡略化
して示したフローチャートである。
FIG. 9 is a flow chart showing a simplified content of the above-mentioned MV detection block secondary selection processing in the mode for searching for an alternative block.

【0077】代替ブロックを探すモードは、探さないモ
ードに比べて処理量が増加する可能性はあるが、代表す
るブロックのない分割領域が生じにくい分、最終的なパ
ラメタ推定精度を上げることができる。
Although there is a possibility that the mode for searching for the alternative block will increase the processing amount as compared with the mode for not searching, the final parameter estimation accuracy can be improved because it is difficult to generate a divided area without a representative block. .

【0078】ステップ150(グローバル動きパラメタ
2次推定):これは本発明の最終処理ステップである。
グローバル動きパラメタ推定回路13において、検出M
Vメモリ12に格納されているMV検出ブロック2次選
択位置及びその位置のブロックり検出動きベクトルを用
いて、前記ステップ120と同じ処理により、グローバ
ル動きのパンパラメタe,f及びズームパラメタmを推
定する。これがパラメタの最終的な推定結果である。
Step 150 (Secondary estimation of global motion parameters): This is the final processing step of the present invention.
In the global motion parameter estimation circuit 13, the detection M
Using the MV detection block secondary selection position stored in the V memory 12 and the block detection motion vector at that position, the pan parameters e and f and the zoom parameter m of the global motion are estimated by the same processing as step 120. To do. This is the final parameter estimation result.

【0079】ステップ160(MV展開(2次)),ス
テップ170(MPEG符号化):MV展開回路14に
より、前ステップで推定されたパラメタe,f,mを用
い前出(3)式に従って全てのブロックの動きベクトル
を展開し、展開MVメモリ15に格納する(ステップ1
60)。この展開動きベクトルを使用し、図示しない公
知の符号化手段によってMPEG符号化を行なう(ステ
ップ170)。
Step 160 (MV expansion (secondary)), step 170 (MPEG encoding): The MV expansion circuit 14 uses the parameters e, f, and m estimated in the previous step, and all of them are performed according to the above equation (3). The motion vector of the block is expanded and stored in the expanded MV memory 15 (step 1
60). Using this expansion motion vector, MPEG coding is performed by a known coding means (not shown) (step 170).

【0080】<実施例2>図10は本実施例の処理の流
れの概略を示すフローチャートである。本実施例は前記
実施例1の処理を簡略化したものであるので、前記実施
例1との相違点を中心に処理内容を説明する。
<Embodiment 2> FIG. 10 is a flow chart showing the outline of the processing flow of this embodiment. Since the present embodiment is a simplification of the processing of the first embodiment, the processing content will be described focusing on the differences from the first embodiment.

【0081】ステップ400、ステップ410及びステ
ップ420はそれぞれ図2のステップ100、ステップ
110及びステップ120と同一の処理ステップであ
る。ステップ430及びステップ440はそれぞれ図2
のステップ160及びステップ170と同じ処理ステッ
プであるが、ステップ430はステップ420により推
定されたパンパラメタ及びズームパラメタを最終的な推
定結果として用いる。
Steps 400, 410 and 420 are the same processing steps as steps 100, 110 and 120 of FIG. 2, respectively. Steps 430 and 440 are shown in FIG.
This is the same processing step as steps 160 and 170, but step 430 uses the pan and zoom parameters estimated in step 420 as the final estimation result.

【0082】本実施例は、図2のステップ130,14
0,150に相当する処理ステップが省かれているので
(MV差判定回路16に関係した動作は行なわれな
い)、その分、前記実施例1より処理量は減るという利
点がある。しかし、前記実施例に比べ、背景のグローバ
ルな動きと異なる動き部分のブロックがパラメタ推定の
ための代表ブロックとして最終的に選ばれる危険性が増
加する分、パラメタの推定精度の面では不利である。し
たがって、本実施例は前記実施例1ほどのパラメタ推定
精度を必要としないが、一層の処理量削減が望まれる場
合に好適である。
In this embodiment, steps 130 and 14 in FIG.
Since the processing steps corresponding to 0 and 150 are omitted (the operation related to the MV difference determination circuit 16 is not performed), there is an advantage that the processing amount is reduced as compared with the first embodiment. However, as compared with the above-mentioned embodiment, the risk that the block of the motion part different from the global motion of the background is finally selected as the representative block for parameter estimation increases, which is disadvantageous in terms of parameter estimation accuracy. . Therefore, this embodiment does not require the accuracy of parameter estimation as in the first embodiment, but is suitable when a further reduction in the processing amount is desired.

【0083】<実施例3>本実施例は前記実施例2をさ
らに簡略化したもので、図11は本実施例の処理の流れ
の概略を示すフローチャートである。
<Embodiment 3> This embodiment is a further simplification of Embodiment 2, and FIG. 11 is a flow chart showing the outline of the processing flow of this embodiment.

【0084】図11において、ステップ500は図2の
ステップ100と同じ処理ステップである。ステップ5
10は図2のステップ110に対応する処理ステップで
あり、ブロック内の輝度信号の勾配ベクトルの広がりの
大きさの評価値を用いて、基本選択位置のブロックの動
きベクトル検出の信頼度を評価し、信頼度が低いと判断
したブロックはパラメタ推定のための代表ブロックから
除外するが、ステップ110とは異なり、除外したブロ
ックの代替のブロックを探す操作は行なわない(閾値判
定器9からリジェクト信号R1が出力されても、選択ブ
ロック位置アドレス生成回路3は候補位置のブロックの
アドレスを生成する動作は行なわず、除外されたブロッ
クが無視されるだけである)。図11のステップ52
0,530,540は図2のステップ120,160,
170と同じ処理ステップである。
In FIG. 11, step 500 is the same processing step as step 100 in FIG. Step 5
Reference numeral 10 is a processing step corresponding to step 110 in FIG. 2, in which the reliability of motion vector detection of the block at the basic selection position is evaluated using the evaluation value of the spread of the gradient vector of the luminance signal in the block. The block determined to have low reliability is excluded from the representative block for parameter estimation, but unlike step 110, the operation of searching for a block that is a substitute for the excluded block is not performed (the threshold decision unit 9 rejects the reject signal R1. Is output, the selected block position address generation circuit 3 does not generate the address of the block at the candidate position, and the excluded block is simply ignored). Step 52 of FIG.
0, 530, and 540 are steps 120, 160, and
These are the same processing steps as 170.

【0085】本実施例は、ステップ510において除外
したブロックの代替ブロックを探さないため、前記実施
例2に比べ、パラメタ推定に用いられるブロックの個数
が減少してパラメタ推定精度が悪化する虞があるが、処
理量は減少する。したがって、本実施例は、処理量の削
減を優先する用途に好適である。
In the present embodiment, since the alternative block of the block excluded in step 510 is not searched, there is a possibility that the number of blocks used for parameter estimation is reduced and the parameter estimation accuracy is deteriorated as compared with the second embodiment. However, the throughput is reduced. Therefore, the present embodiment is suitable for an application that prioritizes reduction of the processing amount.

【0086】<実施例4>本実施例は前記実施例3をさ
らに簡略化したもので、図12は本実施例の処理の流れ
の概略を示すフローチャートである。
<Embodiment 4> This embodiment is a further simplification of Embodiment 3, and FIG. 12 is a flow chart showing the outline of the processing flow of this embodiment.

【0087】図12において、ステップ600及びステ
ップ610はそれぞれ図2のステップ100及びステッ
プ120と同一の処理ステップである。ステップ620
及びステップ630はそれぞれ図2のステップ160及
びステップ170と同じ処理ステップである。
In FIG. 12, step 600 and step 610 are the same processing steps as step 100 and step 120 of FIG. 2, respectively. Step 620
And step 630 are the same processing steps as step 160 and step 170 of FIG. 2, respectively.

【0088】本実施例は、基本選択位置のブロックがそ
のままパラメタ推定のための代表ブロックとされるの
で、動きベクトル検出の信頼度の低いブロックの動きパ
ラメタがパラメタ推定に用いられる危険性が高い分、そ
れほど高いパラメタ推定精度を期待できない場合がある
が、処理量は極めて少ない。評価器8、閾値判定器9、
MV差判定回路16、それらの周辺ハードウエアは不要
となる。したがって、本実施例は、処理量の削減、処理
の高速化及びハードウエアの削減を最優先する用途に適
するといえよう。
In this embodiment, since the block at the basic selection position is directly used as the representative block for parameter estimation, there is a high risk that the motion parameter of the block with low reliability of motion vector detection will be used for parameter estimation. , It may not be possible to expect such high parameter estimation accuracy, but the amount of processing is extremely small. Evaluator 8, threshold value determiner 9,
The MV difference determination circuit 16 and its peripheral hardware are unnecessary. Therefore, it can be said that the present embodiment is suitable for an application in which reduction of the processing amount, acceleration of the processing, and reduction of the hardware are given the highest priority.

【0089】以上、本発明のいくつかの実施例について
説明したが、それらの変形や組合せも可能であることは
当業者にとって明白であろう。また、本発明のパラメタ
推定方法は、動画像符号化以外の目的にも応用できるこ
とは当然である。
Although some embodiments of the present invention have been described above, it will be apparent to those skilled in the art that modifications and combinations thereof are possible. Further, it is natural that the parameter estimation method of the present invention can be applied to purposes other than moving picture coding.

【0090】[0090]

【発明の効果】以上、詳細に説明したように、請求項1
乃至10の各項記載の発明は、動画像のグローバル動き
パラメタ推定処理のネックとなってぃた動きベクトル検
出のための処理量の削減を、パラメタ推定精度をそれほ
ど落とすことなく、達成でき、したがって、処理量の削
減が重要な小型のデジタルビデオカメラのような、グロ
ーバル動きのみ補償する簡易な動画像符号化システムの
実現に大きく寄与するものである。
As described in detail above, claim 1 is as follows.
The inventions described in the respective items (1) to (10) can achieve a reduction in the amount of processing for motion vector detection, which has been a bottleneck in the global motion parameter estimation processing of moving images, without significantly lowering the parameter estimation accuracy. The present invention greatly contributes to the realization of a simple moving image coding system that compensates only global motion, such as a small digital video camera in which the reduction of the processing amount is important.

【0091】請求項2記載の発明によれば、パラメタ推
定に用いるブロックの選択のための処理量が少なく、選
択されたブロック以外の動きベクトルの検出は全く必要
とされないので、処理量の大幅削減と処理の高速化が可
能となる。
According to the second aspect of the present invention, the processing amount for selecting the block used for parameter estimation is small, and it is not necessary to detect the motion vector other than the selected block. Therefore, the processing amount is greatly reduced. And the processing speed can be increased.

【0092】請求項3記載の発明によれば、動きベクト
ルを検出する前に、動きベクトルの検出の信頼度を推定
し、信頼度が高いと推定されるブロックのみ用いてグロ
ーバル動きパラメタの推定を行なうので、動きベクトル
検出のための処理量を削減しつつ、高精度なパラメタ推
定が可能となる。
According to the third aspect of the invention, the reliability of the motion vector detection is estimated before the motion vector is detected, and the global motion parameter is estimated using only the blocks estimated to have high reliability. Since the processing is performed, it is possible to estimate the parameter with high accuracy while reducing the processing amount for detecting the motion vector.

【0093】請求項4記載の発明によれば、パラメタ推
定に用いるブロック数が過少になることを防止し、パラ
メタ推定の精度を維持できる。
According to the fourth aspect of the present invention, it is possible to prevent the number of blocks used for parameter estimation from becoming too small and maintain the accuracy of parameter estimation.

【0094】請求項5または6記載の発明によれば、背
景のグローバルな動きと違う動きをする部分のブロック
の動きベクトルがパラメタ推定に用いられることによる
パラメタ推定精度の悪化を防止できる。さらに、請求項
6記載の発明によれば、そのような部分のブロックの代
替ブロックを探すことにより、パラメタ推定に用いられ
るブロックが過少になることを避けることができるた
め、より高精度のパラメタ推定が可能である。
According to the fifth or sixth aspect of the present invention, it is possible to prevent the deterioration of the parameter estimation accuracy due to the use of the motion vector of the block of the portion having a motion different from the global motion of the background for parameter estimation. Further, according to the invention as set forth in claim 6, it is possible to avoid an excessive number of blocks used for parameter estimation by searching for a substitute block of a block of such a portion, so that it is possible to estimate the parameter with higher accuracy. Is possible.

【0095】請求項7乃至10の各項記載の発明によれ
ば、ブロック内の輝度信号の勾配ベクトルの分布の広が
りの大きさ、または、その評価値によって、ブロックの
動きベクトルを実際に検出することなく、動きベクトル
検出の信頼度を簡易に評価し、パラメタ推定に用いるの
に適したブロックを効率的に選択することができる。
According to the invention described in each of claims 7 to 10, the motion vector of the block is actually detected by the size of the spread of the distribution of the gradient vector of the luminance signal in the block or its evaluation value. Without doing so, it is possible to easily evaluate the reliability of motion vector detection and efficiently select a block suitable for use in parameter estimation.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明を実施するための処理系の一例を示すブ
ロック図である。
FIG. 1 is a block diagram showing an example of a processing system for carrying out the present invention.

【図2】実施例1の処理の流れを示す概略フローチャー
トである。
FIG. 2 is a schematic flowchart showing the flow of processing of the first embodiment.

【図3】図2中のステップ110の処理内容を簡略化し
て示すフローチャートである。
FIG. 3 is a flowchart showing a simplified processing content of step 110 in FIG.

【図4】ブロック内の各画素での輝度信号の勾配を定義
するためのアルゴリズムの一例を記述したC言語ソース
リストを示す図である。
FIG. 4 is a diagram showing a C language source list describing an example of an algorithm for defining a gradient of a luminance signal at each pixel in a block.

【図5】インターレス画像の場合のブロック内の各画素
での輝度信号の勾配を定義するためのアルゴリズムの一
例を記述したC言語ソースリストを示す図である。
FIG. 5 is a diagram showing a C language source list describing an example of an algorithm for defining a gradient of a luminance signal at each pixel in a block in the case of an interless image.

【図6】ブロックの輝度信号の勾配ベクトルの分布の広
がりの大きさの評価値を求めるためのアルゴリズムの一
例を記述したC言語ソースリストを示す図である。
FIG. 6 is a diagram showing a C language source list describing an example of an algorithm for obtaining an evaluation value of a spread magnitude of a gradient vector distribution of a luminance signal of a block.

【図7】ブロックの輝度信号の勾配ベクトルの分布の広
がりの大きさの評価値を求めるためのアルゴリズムの他
の例を記述したC言語ソースリストを示す図である。
FIG. 7 is a diagram showing a C language source list describing another example of the algorithm for obtaining the evaluation value of the spread of the distribution of the gradient vector of the luminance signal of the block.

【図8】図2中のステップ120におけるグローバル動
きパラメタ推定アルゴリズムの一例を記述したC言語ソ
ースリストを示す図である。
8 is a diagram showing a C language source list describing an example of a global motion parameter estimation algorithm in step 120 in FIG.

【図9】図2中のステップ140の処理内容を簡略化し
て示すフローチャートである。
FIG. 9 is a flowchart showing a simplified processing content of step 140 in FIG.

【図10】実施例2の処理の流れを示す概略フローチャ
ートである。
FIG. 10 is a schematic flowchart showing the flow of processing of the second embodiment.

【図11】実施例3の処理の流れを示す概略フローチャ
ートである。
FIG. 11 is a schematic flowchart showing the flow of processing of the third embodiment.

【図12】実施例4の処理の流れを示す概略フローチャ
ートである。
FIG. 12 is a schematic flowchart showing the flow of processing of the fourth embodiment.

【図13】最小二乗誤差法によるグローバル動きパラメ
タの推定アルゴリズムを記述したC言語ソースリストを
示す図である。
FIG. 13 is a diagram showing a C language source list describing an algorithm for estimating a global motion parameter by the least square error method.

【図14】パラメタ推定のための代表ブロックの選択に
関連した画面領域分割、基本選択位置及び候補選択位置
の例を示す図である。
FIG. 14 is a diagram showing an example of screen area division, a basic selection position, and a candidate selection position related to selection of a representative block for parameter estimation.

【図15】ブロック内の輝度信号の勾配ベクトルの分布
の広がりの例を示す図である。
FIG. 15 is a diagram showing an example of the spread of the distribution of the gradient vector of the luminance signal in the block.

【図16】ブロック内の輝度信号の勾配ベクトルの分布
の広がりの大きさの評価方法の一例を説明するための図
である。
FIG. 16 is a diagram for explaining an example of a method of evaluating the extent of spread of the gradient vector distribution of the luminance signal in a block.

【図17】ブロック内の輝度信号の勾配ベクトルの分布
の広がりの大きさの評価方法の他の一例を説明するため
の図である。
FIG. 17 is a diagram for explaining another example of the evaluation method of the extent of the spread of the gradient vector distribution of the luminance signal in the block.

【符号の説明】[Explanation of symbols]

1 参照フレーム画像メモリ 2 符号化対象フレーム画像メモリ 3 選択ブロック位置アドレス生成回路 4 参照領域画像読み出し回路 5 選択ブロック画像読み出し回路 6 参照域画像メモリ 7 選択ブロック画像メモリ 8 評価器 9 閾値判定器 10 閾値メモリ(#1) 11 MV検出回路 12 検出MVメモリ 13 グローバル動きパラメタ推定回路 14 MV展開回路 15 展開MVメモリ 16 MV差判定回路 17 閾値メモリ(#2) 1 Reference Frame Image Memory 2 Encoding Target Frame Image Memory 3 Selected Block Position Address Generation Circuit 4 Reference Area Image Reading Circuit 5 Selected Block Image Reading Circuit 6 Reference Area Image Memory 7 Selected Block Image Memory 8 Evaluator 9 Threshold Judgment Device 10 Threshold Memory (# 1) 11 MV detection circuit 12 Detection MV memory 13 Global motion parameter estimation circuit 14 MV expansion circuit 15 Expansion MV memory 16 MV difference determination circuit 17 Threshold memory (# 2)

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】 動画像の各フレームの画面を複数ブロッ
クに分割し、ブロック単位の動きベクトルからグローバ
ル動きの中のパン及びズームを表わすパラメタを最小二
乗誤差法により推定するグローバル動きパラメタ検出方
法において、 画面内の複数ブロックより一定のルールによって選択し
た一部のブロックの動きベクトルのみをパン及びズーム
のパラメタの推定に用いることを特徴とするグローバル
動きパラメタ検出方法。
1. A global motion parameter detection method in which a screen of each frame of a moving image is divided into a plurality of blocks, and parameters representing pan and zoom in global motion are estimated by a least square error method from motion vectors in block units. , A global motion parameter detection method characterized in that only motion vectors of some blocks selected from a plurality of blocks in a screen by a certain rule are used for estimation of pan and zoom parameters.
【請求項2】 動画像の各フレームの画面を複数ブロッ
クに分割し、ブロック単位の動きベクトルからグローバ
ル動きの中のパン及びズームを表わすパラメタを最小二
乗誤差法により推定するグローバル動きパラメタ検出方
法において、 画面内の複数ブロックより水平方向及び垂直方向に一定
数ブロックおきに一部のブロックを代表ブロックとして
選択し、 代表ブロックとして選択されたブロックについてのみ、
その動きベクトルを検出して、それをパン及びズームの
パラメタを推定に用いることを特徴とするグローバル動
きパラメタ検出方法。
2. A global motion parameter detection method for dividing a screen of each frame of a moving image into a plurality of blocks, and estimating parameters representing pan and zoom in global motion from a motion vector in block units by a least square error method. , Select some blocks as a representative block every certain number of blocks in the horizontal and vertical directions from multiple blocks in the screen, and only for the block selected as the representative block,
A global motion parameter detection method characterized by detecting the motion vector and using the pan and zoom parameters for estimation.
【請求項3】 動画像の各フレームの画面を複数ブロッ
クに分割し、ブロック単位の動きベクトルからグローバ
ル動きの中のパン及びズームを表わすパラメタを最小二
乗誤差法により推定するグローバル動きパラメタ検出方
法において、 画面内の複数ブロックより水平方向及び垂直方向に一定
ブロック数おきに一部のブロックを代表ブロックとして
選択し、 代表ブロックとして選択されたブロックの中で、動きベ
クトルの検出の信頼度が低いと推定されるブロックを代
表ブロックより除外し、 除外されずに残った代表ブロックについてのみ、その動
きベクトルを検出して、それをパン及びズームのパラメ
タの推定に用いることを特徴とするグローバル動きパラ
メタ検出方法。
3. A global motion parameter detection method for dividing a screen of each frame of a moving image into a plurality of blocks and estimating parameters representing pan and zoom in global motion from a motion vector of each block by a least square error method. , Select some blocks as a representative block in the horizontal and vertical directions from a plurality of blocks in the screen at a constant number of blocks, and if the reliability of motion vector detection is low among the blocks selected as the representative block, Global motion parameter detection characterized by excluding the estimated block from the representative block, detecting the motion vector only for the representative block that remains unexcluded, and using it for estimating the pan and zoom parameters Method.
【請求項4】 動画像の各フレームの画面を複数ブロッ
クに分割し、ブロック単位の動きベクトルからグローバ
ル動きのなかのパン及びズームを表わすパラメタを最小
二乗誤差法により推定するグローバル動きパラメタ検出
方法において、 画面内の複数ブロックより水平方向及び垂直方向に一定
数ブロックおきに一部のブロックを代表ブロックとして
選択し、 代表ブロックとして選択されたブロックの中で、動きベ
クトルの検出の信頼度が低いと推定されるブロックを代
表ブロックより除外し、 代表ブロックより除外されたブロックの周囲の予め定め
られた位置に、動きベクトルの検出の信頼度が高いと推
定されるブロックが存在するときには、そのブロックを
代表ブロックとし、 最終的に代表ブロックとされたブロックについてのみ、
その動きベクトルを検出してパン及びズームのパラメタ
の推定に用いることを特徴とするグローバル動きパラメ
タ検出方法。
4. A global motion parameter detection method for dividing a screen of each frame of a moving image into a plurality of blocks, and estimating parameters representing pan and zoom in global motion from a motion vector of each block by a least square error method. , Select some blocks in the horizontal and vertical direction from a plurality of blocks in the screen at regular intervals as a representative block, and if the reliability of motion vector detection is low among the blocks selected as the representative block, Exclude the estimated block from the representative block, and if there is a block estimated to have high reliability of motion vector detection at a predetermined position around the block excluded from the representative block, remove that block. As a representative block, only for the block that was finally made a representative block,
A method for detecting a global motion parameter, characterized by detecting the motion vector and using it for estimating pan and zoom parameters.
【請求項5】 動画像の各フレームの画面を複数ブロッ
クに分割し、ブロック単位の動きベクトルからグローバ
ル動きのなかのパン及びズームを表わすパラメタを最小
二乗誤差法により推定するグローバル動きパラメタ検出
方法において、 画面内の複数ブロックより一定のルールによって一部の
ブロックを代表ブロックとして選択し、 代表ブロックとして選択されたブロックについて、動き
ベクトルの検出をし、得られた動きベクトルを用いて最
小二乗誤差法によりパン及びズームのパラメタを推定
し、 推定されたパン及びズームのパラメタから、代表ブロッ
クとして選択されたブロックの動きベクトルを展開し、 代表ブロックとして選択されたブロックの中で、展開さ
れた動きベクトルと検出された動きベクトルとの差が所
定の閾値を超えるブロックは代表ブロックより除外し、 除外されずに残った代表ブロックとしてのブロックにつ
いて検出された動きベクトルだけを用いて最小二乗誤差
法により最終的なパン及びズームのパラメタを推定する
ことを特徴とするグローバル動きパラメタ検出方法。
5. A global motion parameter detection method, wherein a screen of each frame of a moving image is divided into a plurality of blocks, and parameters representing pan and zoom in global motion are estimated from a motion vector of each block by a least square error method. , Select some blocks from the multiple blocks on the screen as a representative block according to a certain rule, detect the motion vector for the block selected as the representative block, and use the obtained motion vector to calculate the least squares error. Estimate the pan and zoom parameters with, expand the motion vector of the block selected as the representative block from the estimated pan and zoom parameters, and expand the motion vector in the block selected as the representative block. The difference between the detected motion vector and Block is excluded from the representative block, and the final pan and zoom parameters are estimated by the least-squares error method using only the motion vector detected for the block as the representative block that remains without being excluded. Method for detecting global motion parameters.
【請求項6】 動画像の各フレームの画面を複数ブロッ
クに分割し、ブロック単位の動きベクトルからグローバ
ル動きのなかのパン及びズームを表わすパラメタを最小
二乗誤差法により推定するグローバル動きパラメタ検出
方法において、 (a)画面内の複数ブロックより水平方向及び垂直方向
に一定数ブロックおきに一部のブロックを代表ブロック
として選択し、 (b)代表ブロックとして選択されたブロックの中で、
動きベクトルの検出の信頼度が低いと推定されるブロッ
クを代表ブロックより除外し、除外されたブロックの周
囲の予め定められた位置に、動きベクトルの検出の信頼
度が高いと推定されるブロックが存在するときには、そ
のブロックを代表ブロックとし、 (c)この段階において代表ブロックとされたブロック
について、動きベクトルの検出をし、得られた動きベク
トルを用いて最小二乗誤差法によりパン及びズームのパ
ラメタを推定し、 (e)推定されたパン及びズームのパラメタから、代表
ブロックとされたブロックの動きベクトルを展開し、代
表ブロックとされたブロックの中で、展開された動きベ
クトルと検出された動きベクトルとの差が所定の閾値を
超えるブロックは代表ブロックより除外し、除外された
ブロックの周囲の予め定められた位置に、動きベクトル
の検出の信頼度が高いと推定されるブロックが存在する
ときには、当該信頼度が高いと推定されたブロックの動
きベクトルを検出し、この動きベクトルと、当該信頼度
が高いと推定されたブロックに対応する前記(c)で展
開された動きベクトルとの差が所定の閾値以下のとき
は、当該信頼度が高いと推定されたブロックを代表ブロ
ックとし、 (f)この段階において代表ブロックとされたブロック
について検出された動きベクトルだけを用いて最小二乗
誤差法により最終的なパン及びズームのパラメタを推定
することを特徴とするグローバル動きパラメタ検出方
法。
6. A global motion parameter detection method, wherein a screen of each frame of a moving image is divided into a plurality of blocks, and a parameter representing pan and zoom in global motion is estimated from a motion vector of each block by a least square error method. , (A) select a certain block as a representative block every certain number of blocks in the horizontal and vertical directions from a plurality of blocks in the screen, and (b) among the blocks selected as the representative block,
A block estimated to have low reliability of motion vector detection is excluded from the representative block, and a block estimated to have high reliability of motion vector detection is placed at a predetermined position around the excluded block. If it exists, the block is set as a representative block, and (c) the motion vector is detected for the block that is set as the representative block at this stage, and the obtained motion vector is used to perform pan and zoom parameters by the least squares error method. And (e) expand the motion vector of the block that is the representative block from the estimated pan and zoom parameters, and detect the expanded motion vector and the detected motion in the block that is the representative block. Blocks that differ from the vector by more than a predetermined threshold are excluded from the representative block, and the surrounding blocks of the excluded blocks are excluded. When there is a block that is estimated to have a high reliability of motion vector detection at the determined position, the motion vector of the block that is estimated to have a high reliability is detected. When the difference between the motion vector developed in (c) corresponding to the block estimated to be high is less than or equal to a predetermined threshold value, the block estimated to have high reliability is set as a representative block, and (f) A global motion parameter detection method characterized in that the final pan and zoom parameters are estimated by the least-squares error method using only the motion vector detected for the block that is the representative block at this stage.
【請求項7】 請求項3,4または6記載のグローバル
動きパラメタ検出方法において、ブロックの動きベクト
ルの検出の信頼度を推定するために、ブロック内の輝度
信号の勾配ベクトルの分布の広がりの大きさを用いるこ
とを特徴とするグローバル動きパラメタ検出方法。
7. The global motion parameter detecting method according to claim 3, 4 or 6, wherein the magnitude of the spread of the gradient vector distribution of the luminance signal in the block is estimated in order to estimate the reliability of the motion vector detection of the block. A method for detecting global motion parameters, characterized in that
【請求項8】 請求項7記載のグローバル動きパラメタ
検出方法において、対象となる動画像がインタレース画
像である場合には、ブロック内の輝度信号の勾配ベクト
ルの分布の広がりの大きさを求める際に、勾配ベクトル
の垂直方向成分については1ラインおきに勾配を計算す
ることを特徴とするグローバル動きパラメタ検出方法。
8. The global motion parameter detection method according to claim 7, wherein when the target moving image is an interlaced image, the extent of the spread of the gradient vector distribution of the luminance signal in the block is calculated. A global motion parameter detection method characterized in that the gradient is calculated every other line in the vertical direction component of the gradient vector.
【請求項9】 請求項7記載のグローバル動きパラメタ
検出方法において、ブロック内の輝度信号の勾配ベクト
ルの分布の広がりの大きさの評価値として、ブロック内
全画素の勾配ベクトルの平均の方向と、これに直交する
方向について、勾配ベクトルの分布を覆うところの、こ
れら方向の軸に直交する最小の矩形の面積を用いること
を特徴とするグローバル動きパラメタ検出方法。
9. The global motion parameter detection method according to claim 7, wherein an average value of the gradient vectors of all pixels in the block is used as an evaluation value of the spread of the distribution of the gradient vector of the luminance signal in the block, A method for detecting a global motion parameter, characterized by using the smallest rectangular area orthogonal to the axis of these directions that covers the distribution of gradient vectors in the direction orthogonal to this.
【請求項10】 請求項7記載のグローバル動きパラメ
タ検出方法において、ブロック内の輝度信号の勾配ベク
トルの分布の広がりの大きさの評価値として、勾配ベク
トルの分布を覆うところの水平及び垂直方向軸に直交す
る最小の矩形の面積と、勾配ベクトルの分布を覆うとこ
ろの水平及び垂直方向軸を45度回転させた軸に直交す
る最小の矩形の面積のうちの小さいほうの面積を用いる
ことを特徴とするグローバル動きパラメタ検出方法。
10. The global motion parameter detection method according to claim 7, wherein horizontal and vertical axes that cover the gradient vector distribution are used as evaluation values of the extent of spread of the gradient vector distribution of the luminance signal in the block. It is characterized by using the smallest rectangular area that is orthogonal to the minimum rectangular area and the minimum rectangular area that is orthogonal to the axis that rotates the horizontal and vertical axes by 45 degrees that covers the gradient vector distribution. Global motion parameter detection method.
JP4274495A 1995-03-02 1995-03-02 Method for detecting global motion parameter Pending JPH08242454A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4274495A JPH08242454A (en) 1995-03-02 1995-03-02 Method for detecting global motion parameter

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4274495A JPH08242454A (en) 1995-03-02 1995-03-02 Method for detecting global motion parameter

Publications (1)

Publication Number Publication Date
JPH08242454A true JPH08242454A (en) 1996-09-17

Family

ID=12644533

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4274495A Pending JPH08242454A (en) 1995-03-02 1995-03-02 Method for detecting global motion parameter

Country Status (1)

Country Link
JP (1) JPH08242454A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1999021135A1 (en) * 1997-10-16 1999-04-29 Electronics And Telecommunications Research Institute Method of deciding presence of global motion by using 2-dimensional translational motion vectors and linear regression
CN1053547C (en) * 1997-01-10 2000-06-14 广播电影电视部广播科学研究院 Device for estimating image movement by program producing parameter and its method
CN1055187C (en) * 1996-10-07 2000-08-02 广播电影电视部广播科学研究院 Video program production parameter extracting method and system
JP2002544723A (en) * 1999-05-07 2002-12-24 シーメンス アクチエンゲゼルシヤフト Method and apparatus for computer assisted motion compensation of digitized images and computer program product and computer readable storage medium
CN109495756A (en) * 2018-05-24 2019-03-19 曜科智能科技(上海)有限公司 Adaptive motion search method based on rotation scaling

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1055187C (en) * 1996-10-07 2000-08-02 广播电影电视部广播科学研究院 Video program production parameter extracting method and system
CN1053547C (en) * 1997-01-10 2000-06-14 广播电影电视部广播科学研究院 Device for estimating image movement by program producing parameter and its method
WO1999021135A1 (en) * 1997-10-16 1999-04-29 Electronics And Telecommunications Research Institute Method of deciding presence of global motion by using 2-dimensional translational motion vectors and linear regression
JP2002544723A (en) * 1999-05-07 2002-12-24 シーメンス アクチエンゲゼルシヤフト Method and apparatus for computer assisted motion compensation of digitized images and computer program product and computer readable storage medium
JP4796696B2 (en) * 1999-05-07 2011-10-19 プレゼント インヴェストメンツ エルエルシー Method and apparatus for computer-aided motion compensation of digitized images and computer-readable recording medium
CN109495756A (en) * 2018-05-24 2019-03-19 曜科智能科技(上海)有限公司 Adaptive motion search method based on rotation scaling
CN109495756B (en) * 2018-05-24 2022-11-01 曜科智能科技(上海)有限公司 Self-adaptive motion search method based on rotation scaling

Similar Documents

Publication Publication Date Title
KR100492127B1 (en) Apparatus and method of adaptive motion estimation
US8625673B2 (en) Method and apparatus for determining motion between video images
JP4472986B2 (en) Motion estimation and / or compensation
JP5877469B2 (en) Object tracking using moment and acceleration vectors in motion estimation systems
US6380986B1 (en) Motion vector search method and apparatus
US6240211B1 (en) Method for motion estimated and compensated field rate up-conversion (FRU) for video applications and device for actuating such method
US8605787B2 (en) Image processing system, image processing method, and recording medium storing image processing program
KR0182058B1 (en) Apparatus and method of multi-resolution circulating search for motion estimation
JP2000134585A (en) Motion vector deciding method and method and circuit for number of frames of image signal conversion
KR100727795B1 (en) Motion estimation
KR20040105866A (en) Motion estimation unit and method of estimating a motion vector
US20060098886A1 (en) Efficient predictive image parameter estimation
US20100322313A1 (en) System and method for estimating sum of absolute differences
JPH08242454A (en) Method for detecting global motion parameter
JP2009295029A (en) Moving quantity detection device and moving quantity detection method
JP3237815B2 (en) Motion vector search method and apparatus
JP2000324495A (en) Device and method for converting field frequency
JPH0795587A (en) Method for detecting moving vector
JP4570700B2 (en) Motion vector detector
JP2840007B2 (en) Motion vector detection circuit
KR100204477B1 (en) Method of estimating the motion of background image and an apparatus for using thereof
JPH10248065A (en) Motion vector detector
JPH09102955A (en) Method and device for detecting motion vector
JPH104554A (en) Motion vector detector
JPH07107485A (en) Method for detecting moving vector