JP2980810B2 - Motion vector search method and apparatus - Google Patents

Motion vector search method and apparatus

Info

Publication number
JP2980810B2
JP2980810B2 JP10444094A JP10444094A JP2980810B2 JP 2980810 B2 JP2980810 B2 JP 2980810B2 JP 10444094 A JP10444094 A JP 10444094A JP 10444094 A JP10444094 A JP 10444094A JP 2980810 B2 JP2980810 B2 JP 2980810B2
Authority
JP
Japan
Prior art keywords
block
motion vector
pixel
processed
matching
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP10444094A
Other languages
Japanese (ja)
Other versions
JPH07298265A (en
Inventor
真樹 佐藤
亮磨 大網
清晴 相澤
光俊 羽鳥
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GURAFUITSUKUSU KOMYUNIKEESHON RABORATORIIZU KK
Original Assignee
GURAFUITSUKUSU KOMYUNIKEESHON RABORATORIIZU KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GURAFUITSUKUSU KOMYUNIKEESHON RABORATORIIZU KK filed Critical GURAFUITSUKUSU KOMYUNIKEESHON RABORATORIIZU KK
Priority to JP10444094A priority Critical patent/JP2980810B2/en
Publication of JPH07298265A publication Critical patent/JPH07298265A/en
Application granted granted Critical
Publication of JP2980810B2 publication Critical patent/JP2980810B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/40Tree coding, e.g. quadtree, octree

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、動画像符号化における
動きベクトル探索方法と装置に関する。具体的には、ク
ワッド・トリー(Quad-Tree)を用いることにより、動
きベクトル場をより少数の代表動きベクトルにより表現
し、動きベクトル場の情報量を削減する新規な方法と装
置を提供しようとするものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method and an apparatus for searching for a motion vector in moving picture coding. More specifically, an attempt is made to provide a novel method and apparatus for expressing a motion vector field with a smaller number of representative motion vectors by using a quad-tree, and reducing the information amount of the motion vector field. Is what you do.

【0002】[0002]

【従来の技術】動画像符号化では、動き情報の推定によ
るフレーム間予測と、予測誤差の符号化の組み合わせに
よる方式が多く用いられている。より低いレート(少な
い画像データ)での符号化のためには、動き情報をいか
に推定し、利用するかが重要である。従来より動画像符
号化で多用されてきたブロック・マッチング法による動
きベクトル推定では、ブロック内に異なる動きを有する
ものが存在するとき、推定精度が著しく劣化するという
問題がある。このような問題を解決する方式を示したい
くつかの文献がある。
2. Description of the Related Art In moving picture coding, a method using a combination of inter-frame prediction by estimating motion information and coding of prediction error is often used. For encoding at a lower rate (less image data), it is important how motion information is estimated and used. In the motion vector estimation based on the block matching method, which has been frequently used in moving image coding, there is a problem that when there is a block having a different motion, the estimation accuracy is significantly deteriorated. There are several documents showing a method for solving such a problem.

【0003】文献1.J.L.Barron, D.J.Fleet, S.S.Bea
uchemin,T.A.Burkitt: “Performance of Optical Flow
Techniques", Proceeding CVPR June, 1992, pp. 236-
242
Reference 1. JLBarron, DJFleet, SSBea
uchemin, TABurkitt: “Performance of Optical Flow
Techniques ", Proceeding CVPR June, 1992, pp. 236-
242

【0004】文献2.大綱 亮磨、佐藤 真樹、相澤
清晴、羽鳥 光俊:“1画素マッチングに基づく動き推
定の基礎検討”,テレビ学技法,ICS94-38(1994)
Reference 2. Ryoma Ohtsuna, Maki Sato, Aizawa
Kiyoharu, Hatori Mitsutoshi: "Basic Study of Motion Estimation Based on One Pixel Matching", Television Techniques, ICS94-38 (1994)

【0005】文献1では、コンピュータ・ビジョン等の
分野で、高次の処理のためにより密なベクトル場を推定
している。密な動きベクトル場が利用できれば、異なる
動きの境界領域においても推定精度が著しく劣化するこ
とがない。
[0005] Reference 1 estimates a denser vector field for higher-order processing in the field of computer vision and the like. If a dense motion vector field can be used, the estimation accuracy will not be significantly degraded even in a boundary region between different motions.

【0006】文献2では、密なベクトル場の生成に際し
ては、1画素単位のマッチングによる誤差情報を利用す
る方式を用いている。この方式によれば、1画素毎に有
している誤差平面が、計算に有効に利用できる。
[0006] In Reference 2, when a dense vector field is generated, a method of using error information by matching on a pixel-by-pixel basis is used. According to this method, an error plane provided for each pixel can be effectively used for calculation.

【0007】文献2の内容を以下に説明する。The contents of Reference 2 will be described below.

【0008】1画素マッチングに基づく動き推定[0008] Motion estimation based on one-pixel matching

【0009】一般に、ブロック・マッチング法により動
き推定を行う場合は、画素xを中心としたマッチング・
ウインドウWm と、探索範囲Ws を設定し、式(1)に
示すように誤差関数eB(Δx) を最小にする動きベク
トルΔxを求める。 eB(Δx)=Σ|Ik+1(x+Δx)−Ik(x)| (1) ここでΣは、マッチング・ウィンドウWm 内に含まれた
すべての画素xについての累和を、Ik+1(x+Δx)
は参照画像を、Ik(x)は原画像を示している。
In general, when motion estimation is performed by the block matching method, matching is performed around the pixel x.
A window W m and a search range W s are set, and a motion vector Δx that minimizes the error function e B (Δx) is obtained as shown in Expression (1). e B (Δx) = Σ | I k + 1 (x + Δx) −I k (x) | (1) where Σ is the sum of all the pixels x included in the matching window W m . I k + 1 (x + Δx)
Denotes a reference image, and I k (x) denotes an original image.

【0010】このマッチング・ウインドウWm に含まれ
る画素数を1画素まで減らした場合、すなわちブロック
でなく1画素でマッチングをとる場合には、式(1)は
式(2)となる。 ex(Δx)=|Ik+1(x+Δx)−Ik(x)| (2) これを画素xにおける1画素マッチングの誤差関数 ex
(Δx)として定義する。
[0010] If the number of pixels included in the matching window W m was reduced to one pixel, that is, when the matching is one pixel rather than block, Equation (1) becomes Equation (2). e x (Δx) = | I k + 1 (x + Δx) −I k (x) | (2) This is an error function of one pixel matching at the pixel x ex
(Δx).

【0011】図7には1画素マッチングの誤差関数ex
(Δx)に、画素 x0 を含む領域Rx0 (図中の黒塗
り)内に含まれた多くの画素xについて、オペレータF
を作用させて、画素x0 における動きベクトルΔx0
求める様子を示しており、仮定する動きモデルとして
は、平行移動のモデルやアフィン・モデルなどがある。
ここで1画素マッチングの基本的な枠組では、まず、1
画素でマッチンクを行い、その結果に何等かのオペレー
タFを作用させて動きを求める。このとき、画素毎に誤
差関数ex(Δx)を予め計算し、その値(画素単位で
の distortion plane:誤差平面)を保持しておくた
め、処理の自由度が増し、オペレータFとして非線形関
数等を用いることにより、より柔軟な動き推定が可能に
なる。
FIG. 7 shows an error function e x for one-pixel matching.
In (Δx), for many pixels x included in a region Rx 0 (solid black in the figure) including the pixel x 0 , the operator F
Is applied to obtain the motion vector Δx 0 at the pixel x 0 , and examples of the assumed motion model include a parallel movement model and an affine model.
Here, in the basic framework of one-pixel matching, first, 1
Matching is performed at the pixels, and some operator F acts on the result to obtain a motion. At this time, an error function e x (Δx) is calculated in advance for each pixel, and its value (distortion plane in a pixel unit: error plane) is held, so that the degree of freedom of processing increases, and the nonlinear function as the operator F is increased. And the like, more flexible motion estimation becomes possible.

【0012】具体的には、画素x0 の動きベクトルΔx
0 を求める場合、1画素マッチングに基づく動き推定の
基本的な枠組は、 1) まず、ある閾値Tに対し、ex0(Δx0 )≦Tとな
るΔx0 を動きベクトルの候補として選ぶ。この動きベ
クトルの集合を、 Vx0={Δx0 |ex0(Δx0 )≦T} で表わす。 2) x0 を含む領域Rx0に対し、何等かの動きモデルの
仮定のもとに、 ex(Δx)(ただし、xは領域Rx0
含まれている)に評価関数となるオペレータF[・]を
作用させる。 3) Δx0 =arg min F[ex(Δx0),ただし、xは
領域Rx0に含まれている]となるベクトルVx0に含まれ
た動きベクトルΔx0を求める。
Specifically, the motion vector Δx of the pixel x 0
When seeking 0, the basic framework of a motion estimation based on 1 pixel matching, 1) First, with respect to some threshold T, motion e x0 ([Delta] x 0) becomes ≦ T [Delta] x 0 selected as candidate vectors. This set of motion vectors, V x0 = | represented by {Δx 0 e x0 (Δx 0 ) ≦ T}. For a region R x0 including 2) x 0, under the assumption of some kind of motion model, e x ([Delta] x) (where the operator x is an evaluation function in which) is included in the region R x0 F Apply [•]. 3) Δx 0 = arg min F [e x (Δx 0), here, x is included in the region R x0] obtaining a motion vector [Delta] x 0 contained in the vector V x0 where the.

【0013】この枠組の中では、オペレータF、領域R
x0の指定に対して自由度があるため、画像の各領域の性
質に適した動き推定が可能になる。
In this framework, an operator F, an area R
Since there is a degree of freedom in specifying x0 , it is possible to perform motion estimation suitable for the properties of each region of the image.

【0014】このように、1画素マッチングによるベク
トル場の導出には、オペレータFの選択や領域Rx0の制
御により、様々な手法が考えられるが、最終的に代表動
きベクトルを抽出するためには、適度に領域分割される
ことが望ましい。ここでは、距離変換とクラスタリング
に類似した手法により、動きと領域の推定を同時に行
う。
As described above, various methods are conceivable for deriving the vector field by one-pixel matching, depending on the selection of the operator F and the control of the region R x0 , but in order to finally extract the representative motion vector, It is desirable that the region is appropriately divided. Here, motion and region estimation are performed simultaneously by a method similar to distance conversion and clustering.

【0015】この手法は、“1”または“0”にラベル
付けした2値のラベル画像の作成と、その画像の距離変
換の繰り返しからなる。まず、閾値Tm で1画素マッチ
ングの誤差関数 ex(Δx)を2値化し、これを式
(3)の2値化誤差関数f(Δx)で表わす。 ex(Δx)≦Tm のときは、 f(Δx)=1 ex(Δx)>Tm のときは、 f(Δx)=0 (3)
This method includes the steps of creating a binary label image labeled "1" or "0" and repeating distance conversion of the image. First, 1 pixel matching error function e x a ([Delta] x) binarized by the threshold T m, which represents in binary error function f ([Delta] x) of equation (3). When the e x (Δx) ≦ T m , when f (Δx) = 1 e x (Δx)> T m is, f (Δx) = 0 ( 3)

【0016】各動きベクトルΔxに対し2値化誤差関数
f(Δx)により得られるラベル画像の距離変換を行
い、その距離変換値dx(Δx)を指標として用いる。
The distance conversion of the label image obtained by the binarization error function f (Δx) is performed on each motion vector Δx, and the distance conversion value d x (Δx) is used as an index.

【0017】図8には各動きベクトルΔxに対応して分
類されたラベル画像の距離変換を示している。そこにお
ける黒塗り部分はマッチングのとれなかった画素xを表
わしている。点Aからの距離変換値dはその値を大きく
していったときマッチングのとれなかったいくつかの画
素のうちのある画素79に最初に接するまでの距離dに
相当し、画素xから距離 dx(Δx)の円71の範囲内
にはマッチングのとれた画素のみが存在する。よってこ
の dx(Δx)の値が大きくなるΔxが、真の動きベク
トルである可能性が高いと考えられることから、距離
x(Δx)の最大値を与えるΔxを動きベクトルとす
る。すなわち、 dx max=maxdx(Δx) (4) を与えるΔxを動きベクトルとする。
FIG. 8 shows distance conversion of label images classified according to each motion vector Δx. The black portions represent pixels x that could not be matched. The distance conversion value d from the point A is equivalent to the distance d from the pixel x to the first contact with a certain pixel 79 among several pixels that could not be matched when the value was increased, and the distance d from the pixel x. Only matched pixels exist within the range of the circle 71 of x (Δx). Therefore, since it is considered that Δx in which the value of d x (Δx) increases is likely to be a true motion vector, the distance x
Δx that gives the maximum value of d x (Δx) is defined as a motion vector. That is, the motion vector [Delta] x to give d x max = maxd x (Δx ) (4).

【0018】具体的には、雑音等の影響も考慮し、以下
の手順に従う。 1.各動きベクトルΔxのラベル画像に対して距離変換
を行う。距離の最大値dx max がある値d0 より大きく
なる画素には、dx max を与えるΔxを動きベクトルと
して割り当てる。 2.動きベクトルの確定した画素xについては、2値化
誤差関数f(Δx)は、動きベクトルΔxが距離dx
max を与えるとき、 f(Δx)=1 動きベクトルΔxが距離dx max を与えないとき、 f(Δx)=0 (5) としてラベル付けをし、ラベル画像を更新する。 3.以上のことを距離d0 を少しづつ小さくしながら繰
り返す。
Specifically, the following procedure is taken in consideration of the influence of noise and the like. 1. Distance conversion is performed on the label image of each motion vector Δx. Distance The larger pixel than the maximum value d x max is the value d 0 of assigned as a motion vector Δx give d x max. 2. For the pixel x for which the motion vector is determined, the binarization error function f (Δx) is obtained by calculating the motion vector Δx by the distance d x
When giving the max, when f (Δx) = 1 motion vector [Delta] x does not give the distance d x max, and labeled as f (Δx) = 0 (5 ), and updates the label image. 3. The above is repeated while the distance d 0 is gradually reduced.

【0019】このようにして求められたベクトル場は、
領域Rx0単位で動きベクトルΔxが一様となり、代表動
きベクトルによる補間近似に適したものとなる。以上が
文献2に開示された概要である。
The vector field obtained in this way is
The motion vector Δx becomes uniform for each region R x0, which is suitable for interpolation approximation using the representative motion vector. The above is the outline disclosed in Reference 2.

【0020】動きベクトル抽出に用いるブロック・マッ
チング法には、しばしばクワッド・トリー(Quad-Tre
e) が用いられる。このクワッド・トリーはそのブロッ
クの予測誤差がある閾値よりも大きな場合には4分割を
行い、4分割された各ブロックのブロック・マッチング
を行い予測誤差を調べ、それがある閾値よりも大きな場
合には、その閾値を越えたブロックについて、さらに4
分割してブロック・マッチングを行い予測誤差を調べて
いる。しかし、その閾値は画像に依存し、閾値が小さい
場合、必要以上に分割が進み付加情報の増大と、小さい
ブロック・サイズに伴う雑音等の影響のため、動きの誤
推定を引き起こす可能性がある。また、閾値を大きくし
た場合には、小領域の抽出が難しくなり、動きベクトル
場の再現性と予測誤差の劣化が生ずる。このため従来の
クワッド・トリーの分割では、画像を予め小さなサブブ
ロックに分割し、同じベクトルを持つブロックを統合す
るという統合手順をとっている。
A block matching method used for extracting a motion vector often includes a quad tree (Quad-Tre).
e) is used. If the prediction error of the block is larger than a certain threshold, this quad tree performs quadrant division, performs block matching of each of the four divided blocks, checks the prediction error, and if the prediction error is larger than a certain threshold, Is 4 more for blocks that exceed the threshold
The prediction error is examined by performing block matching by dividing. However, the threshold value depends on the image, and if the threshold value is small, there is a possibility that erroneous estimation of a motion may be caused due to an increase in additional information and an influence of noise due to a small block size if the threshold value is small. . If the threshold value is increased, it becomes difficult to extract a small area, and the reproducibility of the motion vector field and the prediction error deteriorate. For this reason, in the conventional quad tree division, an integration procedure of dividing an image into small sub-blocks in advance and integrating blocks having the same vector is adopted.

【0021】[0021]

【発明が解決しようとする課題】文献1および2に開示
された手法で求められたベクトル場は、1画素単位の密
なもので、動きの境界領域における精度も確保されてい
る。しかし、超低レート符号化におけるフレーム間予測
情報として伝送する場合、まだ情報量が大きいという解
決されねばならない課題があった。また、ブロック・マ
ッチング法を用いる場合には、そのブロック・サイズを
大きくすることにより、ベクトル数の減少を実現した場
合、付加情報が不要で、簡単に情報量の減少が可能とな
るが、ブロック内でベクトルが一様となり、予測誤差が
増大し、ベクトル場の再現性の劣化が生ずる。
The vector fields obtained by the methods disclosed in Documents 1 and 2 are dense on a pixel-by-pixel basis, and the accuracy in the boundary region of motion is ensured. However, when transmitting as inter-frame prediction information in ultra-low-rate coding, there is a problem that the amount of information is still large and needs to be solved. Also, when the block matching method is used, if the number of vectors is reduced by increasing the block size, additional information is unnecessary and the amount of information can be easily reduced. , The vector becomes uniform, the prediction error increases, and the reproducibility of the vector field deteriorates.

【0022】そこで従来のクワッド・トリーの分割によ
り画像を予め小さなサブブロックに分割し、そのサブブ
ロックの中で同じベクトルを持つサブブロックを統合す
るという統合手順をとる場合には、この統合手順に付随
して処理量が増大してしまうという未解決の課題が残さ
れていた。
Therefore, when an image is divided into small sub-blocks in advance by the conventional quad tree division and an integration procedure of integrating sub-blocks having the same vector in the sub-block is adopted, this integration procedure is used. There remains an unsolved problem that the amount of processing increases accordingly.

【0023】[0023]

【課題を解決するための手段】本発明はこのような課題
を解決するためになされたものである。すなわち、ブロ
ックをクワッド・トリーにより分割する場合には、ま
ず、1画素単位の1画素マッチングの誤差関数ex(Δ
x) を予め計算し、1画素単位の密なベクトル場を持
つことにより、そのベクトル場から計算される予測誤差
値をブロック分割の閾値とし、分割に伴う付加情報につ
いては、分割順を予め定めておくことにより、分割の階
層レベルのみを伝達することによってベクトル場を再現
できるように構成した。
SUMMARY OF THE INVENTION The present invention has been made to solve such problems. That is, when a block is divided by a quad tree, first, an error function e x
x) is calculated in advance, and by having a dense vector field on a pixel-by-pixel basis, a prediction error value calculated from the vector field is used as a threshold value for block division. For additional information accompanying the division, the division order is determined in advance. Thus, the vector field can be reproduced by transmitting only the hierarchical level of the division.

【0024】[0024]

【作用】ブロックの分割に先立って、1画素マッチング
の誤差関数 ex(Δx)を計算し、密なベクトル場を得
ているから、そのベクトル場から計算される予測誤差値
を、分割を行うか否かを決定する閾値とすることができ
る。そのために、分割を行うブロックに対応して、閾値
が適応的に変化し、最も符号化効率の良い最適なブロッ
ク分割が可能となった。さらに、画像全体からブロック
分割を開始できるので、代表動きベクトルを大局的に抽
出することが可能となり、従来問題となっていた統合手
順が不要となる。また、閾値の計算は、1画素単位の誤
差関数ex(Δx)を予め計算しておくために、予測誤
差に対する再計算の必要がない。このようにして、クワ
ッド・トリーの生成手順を決めておくことにより、領域
記述のための付加情報が階層レベルだけですみ、代表ベ
クトルの抽出順が、位置的な連続性を保持しているの
で、ベクトルの連続性を利用した差分符号化による情報
量の減少が可能となった。
[Action] Prior to division of the block, one pixel matching error function e x a ([Delta] x) is calculated, because they give a dense vector field, the prediction error value calculated from the vector field, performs division It can be a threshold value for determining whether or not. For this reason, the threshold value changes adaptively according to the block to be divided, and optimal block division with the highest coding efficiency has become possible. Further, since the block division can be started from the entire image, the representative motion vector can be globally extracted, and the integration procedure which has been a problem in the past becomes unnecessary. The calculation of the threshold, in order to advance calculates an error function e x 1 pixel ([Delta] x), there is no need for re-calculation for prediction error. By determining the quad tree generation procedure in this way, additional information for region description is required only at the hierarchical level, and the representative vector extraction order maintains positional continuity. Thus, the amount of information can be reduced by differential encoding using continuity of vectors.

【0025】[0025]

【実施例】図1には本発明の一実施例の回路構成を示し
ている。ここで11は誤差平面計算器、12はメモリ、
13は原ベクトル場生成器、14は閾(しきい)値生成
器、15は分割判断器、16はブロック選択器、17は
ブロック・マッチング器、18はクワッド・トリー生成
器、31〜45は各種の情報をやりとりするための信号
線である。各信号線31〜44でやりとりされる種々の
情報を列挙すると、信号線31は原画像Ik(x)を、 信号線32は参照画像Ik+1(x)を、 信号線33は1画素マッチングの誤差関数ex(Δx)
を、 信号線34はメモリ12から読出した1画素マッチング
の誤差関数ex(Δx)を、 信号線35はベクトル場V(x)を、 信号線36は1画素単位の平均予測誤差er と閾値Tq
の和を、 信号線37はメモリ12から読出した1画素マッチング
の誤差関数ex(Δx)を、 信号線38は分割命令を、 信号線39はブロックbN,M を、 信号線40はベクトルVbN,M を、 信号線41は1画素単位の平均予測誤差ebN,Mを、 信号線42はメモリ12から読出した1画素マッチング
の誤差関数ex(Δx)を、 信号線43はブロック位置M(N)を、 信号線44は代表ベクトル成分VRを、 信号線45は階層レベルNをそれぞれ表わしている。
FIG. 1 shows a circuit configuration of an embodiment of the present invention. Where 11 is an error plane calculator, 12 is a memory,
13 is an original vector field generator, 14 is a threshold value generator, 15 is a division determiner, 16 is a block selector, 17 is a block matching unit, 18 is a quad tree generator, and 31 to 45 are This is a signal line for exchanging various information. When enumerating various kinds of information exchanged through the signal lines 31 to 44, the signal line 31 represents the original image I k (x), the signal line 32 represents the reference image I k + 1 (x), and the signal line 33 represents 1 Error function e x (Δx) of pixel matching
And the signal line 34 of 1 pixel matching read out from the memory 12 the error function e x ([Delta] x), the signal line 35 is a vector field V (x), the average prediction error e r of the signal line 36 is 1 pixel Threshold Tq
Sum, the signal line 37 of 1 pixel matching read out from the memory 12 the error function e x ([Delta] x), the signal lines 38 divide instructions, the signal line 39 is a block b N, the M, signal line 40 is a vector of V bN, the M, the average prediction error e bN of the signal line 41 one pixel unit, the M, signal line 42 of 1 pixel matching read out from the memory 12 the error function e x a ([Delta] x), the signal line 43 is blocked the position M (N), the signal line 44 representative vector components V R, the signal lines 45 represent respectively the hierarchy level N.

【0026】図2には図1の回路構成のクワッド・トリ
ーによる代表ベクトルの抽出動作の原理を示している。
同図(a)は円82や方形83を含む原ベクトル場80
を示し、破線で示した84は分割したブロックを、85
は分割したブロック84と方形83とのオーバラップ部
分を示しており、そこに示された矢印は原ベクトル場8
0内に存在する多数のベクトルのうちの一部を表わして
いる。
FIG. 2 shows the principle of the operation of extracting a representative vector by the quad tree having the circuit configuration of FIG.
FIG. 8A shows an original vector field 80 including a circle 82 and a square 83.
84 is indicated by a broken line, and the divided block is represented by 85
Indicates an overlap portion between the divided block 84 and the square 83, and the arrow shown therein indicates the original vector field 8
It represents a part of a number of vectors existing in 0.

【0027】同図(b)は、(a)に示した分割したブ
ロック84と斜線をつけたオーバラップ部分85を示
し、そこに示された矢印は分割したブロック84でブロ
ック・マッチングをして求めたベクトルを表わしている
が、同図(b)のオーバラップ部分85のベクトルを表
わすものとはなっておらず、この分割の階層レベルにお
いては誤差が大きいことを表わしている。
FIG. 2B shows the divided block 84 shown in FIG. 2A and an overlapped portion 85 indicated by diagonal lines, and the arrow shown therein indicates that the divided block 84 is subjected to block matching. Although the obtained vector is shown, it does not represent the vector of the overlap portion 85 in FIG. 9B, which indicates that the error is large at the hierarchical level of this division.

【0028】同図(c)は、(b)の分割したブロック
84を4分割した場合を示しているが、この4分割にお
いてはオーバラップ部分85を含む右上のブロックのベ
クトルは、なおオーバラップ部分85のベクトルを正確
に表わすものとなっておらずこの分割したブロック84
の(c)に示した4分割の階層レベルにおいては誤差が
大きいことを表わしている。
FIG. 9C shows a case where the divided block 84 shown in FIG. 9B is divided into four parts. In this four-part division, the vector of the upper right block including the overlap part 85 is still overlapped. Since the vector of the portion 85 is not accurately represented, the divided block 84
(C) indicates that the error is large at the hierarchical level of four divisions.

【0029】同図(d)には(c)においてオーバラッ
プ部分85を含んだブロックのベクトルが正確ではな
く、その誤差(1画素マッチングの誤差関数(信号線3
7)の、オーバラップ部分85を含んだブロック内の平
均誤差)が閾値を越えているところから、そのブロック
をさらに4分割して各分割したブロックのベクトルを求
めている。ここではじめて、オーバラップ部分85の正
確なベクトルが得られることを示している。
In FIG. 4D, the vector of the block including the overlapping portion 85 in FIG. 4C is not accurate, and the error (error function of one-pixel matching (signal line 3)
7) In the block including the overlapping portion 85,
Since the average error exceeds the threshold, the block is further divided into four, and the vector of each divided block is obtained. Here, it is shown for the first time that an accurate vector of the overlap portion 85 can be obtained.

【0030】同図(e)には、同図(a)のベクトル場
80による最終的な分割結果90が示されている。そこ
では、各ブロック内のベクトルがほぼ一様になるまで分
割がなされて、同図(a)の円82および方形83にそ
れぞれ対応する円92および方形93が示されている。
FIG. 5E shows a final division result 90 by the vector field 80 shown in FIG. Here, division is performed until the vector in each block becomes substantially uniform, and a circle 92 and a square 93 corresponding to the circle 82 and the square 83 in FIG.

【0031】図3ないし図5には図1に示した回路構成
の動作の流れが示されているので、図1を参照しながら
説明する。
FIGS. 3 to 5 show the flow of operation of the circuit configuration shown in FIG. 1, and will be described with reference to FIG.

【0032】信号線31からは原画像Ik(x)が、信
号線32からは参照画像Ik+1(x)が誤差平面計算器
11に入力され、1画素単位の誤差平面を表わす1画素
マッチングの誤差関数ex(Δx)を、 ex(Δx)=|Ik+1(x+Δx)−Ik(x)| により求めて、信号線33によりメモリ12に送り格納
する。
The original image I k (x) is input from the signal line 31 and the reference image I k + 1 (x) is input from the signal line 32 to the error plane calculator 11. the error function e x ([Delta] x) of the pixel matching, e x (Δx) = | I k + 1 (x + Δx) -I k (x) | by seeking to store feed via a signal line 33 to the memory 12.

【0033】原ベクトル場生成器13はメモリ12から
信号線34により1画素マッチングの誤差関数ex(Δ
x)を読出して、1画素マッチングにより原画像のベク
トル場V(x)を求めて信号線35に出力する(S1、
図3)。
The original vector field generator 13 outputs an error function e x (Δ) for one-pixel matching from the memory 12 through a signal line 34.
x) is read out, the vector field V (x) of the original image is obtained by one-pixel matching, and output to the signal line 35 (S1,
(Fig. 3).

【0034】各回路の構成要素は条件設定がなされてい
る。すなわち、クワッド・トリー生成器18において
は、ブロックの分割手順が定められている。
The conditions of the components of each circuit are set. That is, in the quad tree generator 18, a block division procedure is defined.

【0035】図6にはクワッド・トリーによるブロック
の分割手順の一例が示されている。クワッド・トリーの
階層レベルをNとし分割ブロックの生成順による現在の
ブロック位置をM(N)で表わす。N=0は無分割の画
面全体を表わし、そのブロック位置はM(0)=0とす
る。階層レベルN=1では、画面全体を4分割し、同図
のように左上がM(1)=0、右上がM(1)=1(図
示されてはいない)、左下がM(1)=2、右下がM
(1)=3に条件設定されている。ここで、M(1)=
1の分割ブロックの誤差が閾値以上であるときには階層
レベルN=2として更に4分割して、左上がM(2)=
0、右上がM(2)=1、左下がM(2)=2、右下が
M(2)=3とするように条件設定されている(S
2)。最低の階層レベルはN=NL とする。また、得ら
れたm番目の代表ベクトルをVm とし、その代表ベクト
ルをVm を得た階層をNVmと表わす。
FIG. 6 shows an example of a block dividing procedure by the quad tree. The hierarchical level of the quad tree is N, and the current block position in the generation order of the divided blocks is represented by M (N). N = 0 represents the entire undivided screen, and its block position is M (0) = 0. At the hierarchical level N = 1, the entire screen is divided into four parts, and M (1) = 0 at the upper left, M (1) = 1 at the upper right (not shown), and M (1) at the lower left as shown in FIG. = 2, lower right is M
(1) = 3 is set. Here, M (1) =
When the error of one divided block is equal to or larger than the threshold value, the hierarchical level N is set to N = 2, and the divided block is further divided into four, and M (2) =
0, M (2) = 1 at upper right, M (2) = 2 at lower left, and M (2) = 3 at lower right (S
2). The lowest hierarchical level is N = NL . Further, the m-th representative vectors obtained as V m, representing the representative vectors to obtain a V m hierarchy N Vm.

【0036】まず、階層レベルN=0、M(N)=0、
m=0に初期設定し、クワッド・トリー生成器18は信
号線43に現在のブロック位置M(N)を、信号線45
に階層N(N=0)を出力する(S3)。このブロック
位置M(N)と階層Nとの指示を受けたブロック選択器
16では、代表ベクトルの抽出対象となるブロックb
N,M を決定し、これを信号線39に出力する(S4)。
First, the hierarchical levels N = 0, M (N) = 0,
m = 0, the quad tree generator 18 places the current block position M (N) on the signal line 43 and the signal line 45
Is output to the layer N (N = 0) (S3). The block selector 16 that has received the instruction of the block position M (N) and the hierarchy N selects the block b from which the representative vector is to be extracted.
N and M are determined and output to the signal line 39 (S4).

【0037】図5にはブロックbN,M の決定手順の詳細
が示されている。ブロック位置M(N)=3でブロック
決定手順の再帰処理を指示するフラグfl(fl=1で
再帰処理)が“1”になっているときには(S21Y、
図5)、階層レベルNをN=N−1に設定し(S2
2)、N=0になっていなければ(S23N)、ステッ
プS21に戻り、N=0になっていれば分割がすべて終
了したことを意味するので処理を終了する(S23
Y)。
FIG. 5 shows the details of the procedure for determining the block b N, M. When the flag fl (recursive processing with fl = 1) instructing the recursive processing of the block determination procedure is "1" at the block position M (N) = 3 (S21Y,
FIG. 5), the hierarchical level N is set to N = N−1 (S2
2) If N = 0 has not been reached (N in S23), the process returns to step S21, and if N = 0, it means that all divisions have been completed, and the process ends (S23).
Y).

【0038】ブロック位置M(N)=3でないか、もし
くは、フラグfl=1でないときには(S21N)、フ
ラグfl=0とし(S25)、処理すべきブロックb
N,M を設定して、ブロック選択器16は信号線39にブ
ロックbN,M を出力してブロックbN,M 設定のサブルー
チンを出る(S26)。
If the block position M (N) is not 3 or the flag fl is not 1 (S21N), the flag fl is set to 0 (S25), and the block b to be processed is set.
After setting N and M , the block selector 16 outputs the block bN and M to the signal line 39 and exits the subroutine for setting the block bN and M (S26).

【0039】信号線39により処理の対象とするブロッ
クbN,M の指示を受けたブロック・マッチング器17で
は信号線42によりメモリ12から1画素マッチングの
誤差関数 ex(Δx)を読出してブロック・マッチング
を行い、得た動きベクトルVbN,Mを信号線40によって
出力する(S5)。さらにブロック・マッチング器17
および閾値生成器14では、ベクトルVbN,M および原
画像Ik(x)のブロックbN,M (信号線39)に対応
する画素xのベクトルV(x)(信号線35)とから、
ブロックbN,M (信号線39)に含まれる画素の総数を
S(bN,M )として、1画素単位の平均予測誤差e
bN,M およびerを次の2つの式から求める。 ebN,M =(1/S(bN,M ))Σex(VbN,M ) er=(1/S(bN,M ))Σex(V(x)) ここでxはブロックbN,M (信号線39)に含まれた画
素のすべての点であり、ex(VbN,M )は点xのベクト
ルVbN,M に対する予測誤差であり、ex(V(x))は
点xのベクトルV(x)に対する予測誤差であり、Σは
ブロックbN,M に含まれたすべての点xについての累和
を表わしている。1画素単位の平均予測誤差 ebN,M
ブロック・マッチング器17で算出され信号線41によ
り出力され、原画像に関する平均予測誤差 er、処理
の対象とするブロックb N,M (信号線39)の指示とベ
クトル場V(x)(信号線35)と1画素マッチングの
誤差関数 e x (Δx)(信号線37)とを受けた閾値生
成器14で算出されそれに閾値Tq を加えて信号線36
によって出力される(S6)。
The signal line 39 by the block b N to be processed, the block matching unit 17 in line 42 that has received the instruction for M reads the error function e x from the memory 12 1 pixel matching ([Delta] x) block Perform matching, and output the obtained motion vector V bN, M via the signal line 40 (S5). Further, the block matching unit 17
And the threshold generator 14, based on the vector V bN, M and the vector V (x) (signal line 35) of the pixel x corresponding to the block b N, M (signal line 39) of the original image I k (x),
Assuming that the total number of pixels included in the block b N, M (signal line 39) is S (b N, M ), the average prediction error e in pixel units
bN, obtaining the M and e r from the following two equations. e bN, M = (1 / S (b N, M)) Σe x (V bN, M) e r = (1 / S (b N, M)) Σe x (V (x)) where x block b N, is in all respects the pixels included in M (signal line 39), e x (V bN , M) is a vector V bN, prediction error for M at the point x, e x (V ( x)) is the prediction error of the point x with respect to the vector V (x), and Σ represents the sum of all the points x included in the block b N, M. Mean prediction error e bN of one pixel unit, M is output by the signal line 41 is calculated by the block matching unit 17, an average prediction error e r relates the original image, processing
Of the block b N, M (signal line 39) to be
Vector field V (x) (signal line 35) and 1 pixel matching
Error function e x ([Delta] x) (signal line 37) and add it to the threshold T q are calculated by the threshold generator 14 which has received the signal line 36
Is output (S6).

【0040】分割判断器15では、信号線41により受
けた1画素単位の平均予測誤差 eb N,M と信号線36に
より受けた原画像に関する1画素単位の平均予測誤差
rに閾値Tq を加算したer+Tqとを比較して、 e
bN,M >er+Tq、かつ、階層レベルNが最低階層レベ
ルNL になっていないときには(S7N)、階層レベル
Nをインクリメント(N=N+1)し、分割命令を信号
線38により出力し、4分割ブロックの左上のブロック
をM(N)=0として位置指定してクワッド・トリー生
成器18においてブロックbN,M を分割してステップS
4の動作に戻る(S8)。
In the division judging unit 15, the average prediction error e b N, M per pixel received by the signal line 41 and the average prediction error per pixel pertaining to the original image received by the signal line 36.
by comparing the e r + T q obtained by adding the threshold value T q to e r, e
bN, M> e r + T q and, when the hierarchical level N is not in the lowest hierarchy level N L and (S7: NO), increments the hierarchical level N (N = N + 1), the division instruction is output by the signal line 38 , The upper left block of the four-divided block is designated as M (N) = 0, and the block b N, M is divided by the quad tree generator 18 to obtain a step S
The operation returns to operation 4 (S8).

【0041】クワッド・トリー生成器18においては、
bN,M ≦er+TqまたはN=NLとなっているときには
(S7Y)、代表ベクトルVm をVbN,Mとし、その階層
レベルNVmをNとし、代表ベクトル成分VR を信号線4
4に、階層レベルNを信号線45に出力する。そして、
m番目の代表ベクトルを示す数をm+1とし(S9、図
4)、ブロック位置M(N)をM(N)+1に進め(S
10)、M(N)=4であれば(S11Y)、N=N−
1にし、フラグfl=1にして、ブロック決定処理に再
帰処理が必要であることを示し(S12)、M(N)が
4にはなっていないとき(S11N)とともに、階層レ
ベルNが0であるか否かを調べ(S13)、0でなけれ
ばステップS4の動作に戻り(S13N)、0であれ
ば、分割が全て終了したことを意味するので、処理を終
了する。
In the quad tree generator 18,
e bN, M ≦ e r + T when that is the q or N = N L (S7Y), a representative vector V m V bN, and M, and the hierarchy level N Vm and N, the signal representative vector component V R Line 4
4 and outputs the hierarchical level N to the signal line 45. And
The number indicating the m-th representative vector is set to m + 1 (S9, FIG. 4), and the block position M (N) is advanced to M (N) +1 (S9).
10), if M (N) = 4 (S11Y), N = N−
The flag fl is set to 1 to indicate that recursive processing is necessary for block determination processing (S12). When M (N) is not 4 (S11N), the hierarchical level N is set to 0. It is checked whether there is any data (S13). If it is not 0, the process returns to the operation of step S4 (S13N). If it is 0, it means that all the divisions have been completed, and the process is terminated.

【0042】[0042]

【発明の効果】以上の説明から明らかなように、本発明
によるならば、クワッド・トリーの生成順を決めておく
ことにより、領域記述のための付加情報が階層レベルだ
けですみ、代表ベクトルの抽出順が、位置的な連続性を
保持しているので、ベクトルの連続性を利用した差分符
号化による情報量の減少が可能となったから、本発明の
効果は極めて大きい。
As is clear from the above description, according to the present invention, by determining the generation order of quad trees, additional information for region description is required only at the hierarchical level, and the representative vector Since the extraction order retains the positional continuity, the amount of information can be reduced by differential encoding using the continuity of the vector, and the effect of the present invention is extremely large.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施例を示す回路構成図である。FIG. 1 is a circuit diagram showing an embodiment of the present invention.

【図2】図1の回路構成のクワッド・トリーによる代表
ベクトルの抽出動作の原理を説明するための代表ベクト
ル抽出図である。
FIG. 2 is a representative vector extraction diagram for explaining the principle of a representative vector extraction operation by a quad tree having the circuit configuration of FIG. 1;

【図3】図1の回路構成のクワッド・トリーによる代表
ベクトルの抽出動作の流れを示すフローチャートであ
る。
FIG. 3 is a flowchart showing a flow of an operation of extracting a representative vector by a quad tree having the circuit configuration of FIG. 1;

【図4】図3とともに図1の回路構成のクワッド・トリ
ーによる代表ベクトルの抽出動作の流れを示すフローチ
ャートである。
4 is a flowchart showing a flow of an operation of extracting a representative vector by a quad tree having the circuit configuration of FIG. 1 together with FIG. 3;

【図5】図3の動作の一部の詳細を示すフローチャート
である。
FIG. 5 is a flowchart showing details of a part of the operation in FIG. 3;

【図6】図3の動作におけるクワッド・トリーによるブ
ロックの分割図である。
FIG. 6 is a block diagram of a quad tree in the operation of FIG. 3;

【図7】従来の1画素マッチングに基づく動き推定図で
ある。
FIG. 7 is a motion estimation diagram based on conventional one-pixel matching.

【図8】従来のラベル画像の距離変換図である。FIG. 8 is a distance conversion diagram of a conventional label image.

【符号の説明】[Explanation of symbols]

11 誤差平面計算器 12 メモリ 13 原ベクトル場生成器 14 しきい値生成器 15 分割判断器 16 ブロック選択器 17 ブロック・マッチング器 18 クワッド・トリー生成器 31〜45 信号線 70 画面 71 円 79 マッチングのとれなかった画素 80 原ベクトル場 82 円 83 方形 84 分割したブロック 85 オーバラップ部分 90 原ベクトル場80の最終的な分割結果 92 円82に対応する円 93 方形83に対応する方形 bN,M ブロック d 距離 ebN,M ,er 1画素単位の平均予測誤差 ex(Δx) 1画素マッチングの誤差関数 F オペレータ fl フラグ M(1),M(2),M(N) ブロック位置 N,NVm 階層レベル NL 最低階層レベル Tq 閾値 V(x) ベクトル場(もしくは点xの位置のベクト
ル) Vm m番目の代表ベクトル x 位置
Reference Signs List 11 error plane calculator 12 memory 13 original vector field generator 14 threshold value generator 15 division determiner 16 block selector 17 block matching unit 18 quad tree generator 31-45 signal line 70 screen 71 yen 79 Pixels not removed 80 Original vector field 82 Circle 83 Square 84 Divided block 85 Overlapping part 90 Final division result of original vector field 80 92 Circle corresponding to circle 82 93 Square corresponding to square 83 b N, M block d distance e bN, M, e r 1 average prediction error of the pixel units e x (Δx) 1 pixel error function F operator fl flag M (1) of the matching, M (2), M ( N) block position N, N Vm hierarchy level N L lowest hierarchy level T q threshold V (x) vector field (or vector at position of point x) V m m-th Representative vector x position

───────────────────────────────────────────────────── フロントページの続き (72)発明者 羽鳥 光俊 東京都文京区千石1丁目6番24−808号 (56)参考文献 特開 平1−69182(JP,A) (58)調査した分野(Int.Cl.6,DB名) H04N 7/24 - 7/68 ──────────────────────────────────────────────────続 き Continuation of the front page (72) Inventor Mitsutoshi Hatori 1-6-24-808 Sengoku, Bunkyo-ku, Tokyo (56) References JP-A-1-69182 (JP, A) (58) Fields surveyed ( Int.Cl. 6 , DB name) H04N 7/ 24-7/68

Claims (6)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 動画像のフレーム間の1画素単位の動き
ベクトル場(35)を得るための動きベクトル生成処理
をし(11,12,13)、処理すべきブロック(39)における 前記1画素単位の
動きベクトル場(35)と1画素マッチングの誤差関数
(37)とから得られる予測誤差を用いて処理すべきそ
れぞれのブロック内で計算された原画像に関する1画素
単位での平均予測誤差を求めその平均予測誤差に応じて
変化する閾値(36)を生成する閾値生成処理をし(1
4)、処理すべきブロックの位置(43)と階層レベル(4
5)とから前記処理すべきブロック(39)を選択する
ためのブロック選択処理をし(16)、 前記処理すべきブロック(39)を指示されて、この指
示されたブロックに対応する1画素マッチングの誤差関
数(42)により動きベクトル(40)と1画素単位の
平均予測誤差(41)とを求めるブロック・マッチング
処理をし(17)、 前記ブロック・マッチング処理(17)において求めた
平均予測誤差(41) が前記閾値(36)を越えている
ときにはクワッド・トリーによる動きベクトル場の分割
を行いながら、代表動きベクトル(44)を選択して前
記分割の階層レベル(45)を前記代表ベクトル(4
4)の付加情報とするクワッド・トリー処理をする(
5,18)動きベクトル探索方法。
1. A motion vector generation process for obtaining a motion vector field (35) in units of one pixel between frames of a moving image (11, 12, 13), and the one pixel in a block (39) to be processed. The processing to be performed using the prediction error obtained from the unit motion vector field (35) and the error function (37) of one-pixel matching.
One pixel of the original image calculated in each block
A threshold generation process for obtaining an average prediction error in units and generating a threshold (36) that changes according to the average prediction error is performed (1
4), the position (43) of the block to be processed and the hierarchical level (4
5) to select the block (39) to be processed.
(16), and the block (39) to be processed is designated, and
One-pixel matching error function corresponding to the indicated block
According to the number (42), the motion vector (40) and the
Block matching to find the average prediction error (41)
Processing (17), and obtained in the block matching processing (17).
When the average prediction error (41) exceeds the threshold (36), the representative motion vector (44) is selected and the hierarchical level (45) of the division is set while the motion vector field is divided by the quad tree. Representative vector (4
Perform quad tree processing as additional information in 4) ( 1)
5,18 ) A motion vector search method.
【請求項2】 動画像符号化のフレーム間予測により1
画素マッチングの誤差関数(33,34,37,42)
と1画素単位の動きベクトル場(35)を得るための動
きベクトル生成処理をし(11,12,13)、 処理すべきブロックの位置(43)と階層レベル(4
5)とから処理すべきブロック(39)を選択するため
のブロック選択処理をし(16)、 前記処理すべきブロック(39)を指示されて、この指
示されたブロックに対応する前記1画素マッチングの誤
差関数(42)により動きベクトル(40)と1画素単
位の平均予測誤差(41)とを求めるブロック・マッチ
ング処理をし(17)、 前記処理すべきブロック(39)を指示されて前記1画
素マッチングの誤差関数(37)と前記1画素単位の動
きベクトル場(35)とから予測誤差の平均を求めその
平均予測誤差に応じて適応閾値(36)を生成する閾値
生成処理をし(14)、 前記1画素単位の平均予測誤差(41)と前記適応閾値
(36)とを比較してクワッド・トリー分割すべきか否
かの判断をして分割命令(38)を出すための分割判断
処理をし(15)、 前記分割命令(38)と、前記動きベクトル(40)と
を受けてクワッド・トリー生成のための前記処理すべき
ブロックの位置(43)と前記階層レベル(45)と前
記クワッド・トリー分割の最後に受けた前記動きベクト
ル(40)を代表動きベクトル(44)として出力する
クワッド・トリー生成処理をする(18)動きベクトル
探索方法。
2. An inter-frame prediction of a moving image encoding,
Error function of pixel matching (33, 34, 37, 42)
And a motion vector generation process for obtaining a motion vector field (35) in units of one pixel (11, 12, 13), the position (43) of the block to be processed and the hierarchical level (4)
5) performing a block selection process for selecting a block (39) to be processed from (16), and instructing the block (39) to be processed, the one-pixel matching corresponding to the designated block; A block matching process for obtaining a motion vector (40) and an average prediction error (41) in units of one pixel by an error function (42) of (17) is performed. A threshold generation process is performed to calculate an average of prediction errors from the error function (37) of pixel matching and the motion vector field (35) in units of one pixel and to generate an adaptive threshold (36) according to the average prediction error (14). ), Comparing the average prediction error (41) for each pixel with the adaptive threshold (36) to determine whether or not to perform quadtree division, and issue a division command (38). (15) receiving the division instruction (38) and the motion vector (40), the position (43) of the block to be processed for quad tree generation and the hierarchy level ( 45) and a quadtree generation process for outputting the motion vector (40) received at the end of the quadtree division as a representative motion vector (44) (18).
【請求項3】 前記閾値生成処理(14)が、 前記処理すべきブロック(39)をbN,M とし、前記1
画素マッチングの誤差関数(37)をex(Δx)と
し、前記1画素単位の動きベクトル場(35)をV
(x)とし、前記動きベクトル場V(x)の予測誤差を
x(V(x))とし、任意の閾値定数をTq とし、x
を前記処理すべきブロックbN,M に含まれる画素の位置
とし、前記処理すべきブロックbN,M に含まれる画素の
総数をS(bN,M )とし、前記適応閾値(36)をer
+Tqとしたとき、 er=(1/S(bN,M ))Σex(V(x)) ここでΣは前記処理すべきブロックbN,M に含まれる画
素の位置xについての累和として表わされる計算処理を
含んでいる請求項2の動きベクトル探索方法。
3. The threshold generation process (14) sets the block (39) to be processed to b N, M ,
Error function of pixel matching (37) and e x ([Delta] x), the one pixel of the motion vector field a (35) V
And (x), the prediction error of the motion vector field V (x) and e x (V (x)) , any threshold constant and T q, x
Is the position of a pixel included in the block b N, M to be processed , the total number of pixels included in the block b N, M to be processed is S (b N, M ), and the adaptive threshold (36) is e r
+ When the T q, e r = (1 / S (b N, M)) Σe x (V (x)) where Σ is for the position x of the pixel included in the block b N, M be the processing 3. The motion vector search method according to claim 2, including a calculation process represented as a cumulative sum.
【請求項4】 動画像のフレーム間の1画素単位の動き
ベクトル場(35)を得るための動きベクトル手段(1
1,12,13)と、処理すべきブロック(39)における 前記1画素単位の
動きベクトル場(35)と1画素マッチングの誤差関数
(37)とから得られる予測誤差を用いて処理すべきそ
れぞれのブロック内で計算された原画像に関する1画素
単位での平均予 測誤差を求めその平均予測誤差に応じて
変化する閾値(36)を生成する閾値生成手段(14)
と、処理すべきブロックの位置(43)と階層レベル(4
5)とから前記処理すべきブロック(39)を選択する
ためのブロック選択手段(16)と、 前記処理すべきブロック(39)を指示されて、この指
示されたブロックに対応する1画素マッチングの誤差関
数(42)により動きベクトル(40)と1画素単位の
平均予測誤差(41)とを求めるブロック・マッチング
手段(17)と、 前記ブロック・マッチング手段(17)において求めた
平均予測誤差(41)が前記閾値(36)を越えている
ときには クワッド・トリーによる動きベクトル場の分割
を行いながら、代表動きベクトル(44)を選択して前
記分割の階層レベル(45)を前記代表ベクトル(4
4)の付加情報とするクワッド・トリー手段(15,1
)とを含む動きベクトル探索装置。
4. A motion vector means (1) for obtaining a motion vector field (35) in units of one pixel between frames of a moving image.
And 1,12,13), to processing using the prediction error obtained from the error function of the one pixel unit of the motion vector field (35) and 1 pixel matching in the block (39) to be treated (37) Bekiso
One pixel of the original image calculated in each block
Threshold generating means for generating a threshold value (36) that varies according to the average prediction error calculating an average prediction error of a unit (14)
, The position of the block to be processed (43) and the hierarchical level (4
5) to select the block (39) to be processed.
For selecting a block (39) for processing and a block (39) to be processed.
One-pixel matching error function corresponding to the indicated block
According to the number (42), the motion vector (40) and the
Block matching to find the average prediction error (41)
Means (17) and the block matching means (17)
The average prediction error (41) exceeds the threshold (36)
Sometimes , while dividing the motion vector field by the quad tree, the representative motion vector (44) is selected and the hierarchical level (45) of the division is set to the representative vector (4).
Quad tree means ( 15, 1 ) as additional information of 4)
8 ) A motion vector search device comprising:
【請求項5】 動画像符号化フレーム間の1画素マッチ
ングの誤差関数(33,34,37,42)と1画素単
位の動きベクトル場(35)を得るための動きベクトル
生成手段(11,12,13)と、 処理すべきブロックの位置(43)と階層レベル(4
5)とから処理すべきブロック(39)を選択するため
のブロック選択手段(16)と、 前記処理すべきブロック(39)を指示されて、この指
示されたブロックに対応する前記1画素マッチングの誤
差関数(42)により動きベクトル(40)と1画素単
位の平均予測誤差(41)とを求めるブロック・マッチ
ング手段(17)と、 前記処理すべきブロック(39)を指示されて前記1画
素マッチングの誤差関数(37)と前記1画素単位の動
きベクトル場(35)とから予測誤差の平均を求めその
平均予測誤差に応じて適応閾値(36)を生成する閾値
生成手段(14)と、 前記1画素単位の平均予測誤差(41)と前記適応閾値
(36)とを比較してクワッド・トリー分割すべきか否
かの判断をして分割命令(38)を出すための分割判断
手段(15)と、 前記分割命令(38)と、前記動きベクトル(40)と
を受けてクワッド・トリー生成のための前記処理すべき
ブロックの位置(43)と前記階層レベル(45)と前
記クワッド・トリー分割の最後に受けた前記動きベクト
ル(40)を代表動きベクトル(44)として出力する
クワッド・トリー生成手段(18)とを含む動きベクト
ル探索装置。
5. A motion vector generating means (11, 12) for obtaining an error function (33, 34, 37, 42) of one-pixel matching between video encoded frames and a motion vector field (35) in pixel units. , 13), the position of the block to be processed (43) and the hierarchical level (4
5), a block selecting means (16) for selecting a block (39) to be processed, and a block (39) to be processed is specified, and the one-pixel matching corresponding to the specified block is performed. A block matching means (17) for calculating a motion vector (40) and an average prediction error (41) in units of one pixel by an error function (42); A threshold generation means (14) for calculating an average of prediction errors from the error function (37) of the above and the motion vector field (35) in units of one pixel and generating an adaptive threshold (36) according to the average prediction error; A comparison is made between the average prediction error (41) for each pixel and the adaptive threshold (36) to determine whether or not quadtree division is to be performed, and to issue a division instruction (38). The position (43) of the block to be processed for quad tree generation in response to the determination means (15), the division instruction (38), and the motion vector (40), and the hierarchy level (45) A quad tree generating unit (18) for outputting the motion vector (40) received at the end of the quad tree division as a representative motion vector (44).
【請求項6】 前記閾値生成手段(14)が、 前記処理すべきブロック(39)をbN,M とし、前記1
画素マッチングの誤差関数(37)をex(Δx)と
し、前記1画素単位の動きベクトル場(35)をV
(x)とし、前記動きベクトル場V(x)の予測誤差を
x(V(x))とし、任意の閾値定数をTq とし、x
を前記処理すべきブロックbN,M に含まれる画素の位置
とし、前記処理すべきブロックbN,M に含まれる画素の
総数をS(bN,M )とし、前記適応閾値(36)をer
+Tqとしたとき、 er=(1/S(bN,M ))Σex(V(x)) ここでΣは前記処理すべきブロックbN,M に含まれる画
素の位置xについての累和として表わされる計算動作を
する請求項5の動きベクトル探索装置。
6. The threshold generation means (14) sets the block (39) to be processed to b N, M ,
Error function of pixel matching (37) and e x ([Delta] x), the one pixel of the motion vector field a (35) V
And (x), the prediction error of the motion vector field V (x) and e x (V (x)) , any threshold constant and T q, x
Is the position of a pixel included in the block b N, M to be processed , the total number of pixels included in the block b N, M to be processed is S (b N, M ), and the adaptive threshold (36) is e r
+ When the T q, e r = (1 / S (b N, M)) Σe x (V (x)) where Σ is for the position x of the pixel included in the block b N, M be the processing 6. The motion vector search device according to claim 5, which performs a calculation operation represented as a cumulative sum.
JP10444094A 1994-04-20 1994-04-20 Motion vector search method and apparatus Expired - Lifetime JP2980810B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10444094A JP2980810B2 (en) 1994-04-20 1994-04-20 Motion vector search method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10444094A JP2980810B2 (en) 1994-04-20 1994-04-20 Motion vector search method and apparatus

Publications (2)

Publication Number Publication Date
JPH07298265A JPH07298265A (en) 1995-11-10
JP2980810B2 true JP2980810B2 (en) 1999-11-22

Family

ID=14380727

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10444094A Expired - Lifetime JP2980810B2 (en) 1994-04-20 1994-04-20 Motion vector search method and apparatus

Country Status (1)

Country Link
JP (1) JP2980810B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2872975A1 (en) * 2004-07-06 2006-01-13 Thomson Licensing Sa METHOD AND DEVICE FOR CHOOSING AN ENCODING MODE
FR2872974A1 (en) * 2004-07-06 2006-01-13 Thomson Licensing Sa ADAPTIVE CODING METHOD OR DEVICE
FR2872989A1 (en) * 2004-07-06 2006-01-13 Thomson Licensing Sa METHOD AND DEVICE FOR CHOOSING A MOTION VECTOR FOR ENCODING A BLOCK ASSEMBLY

Also Published As

Publication number Publication date
JPH07298265A (en) 1995-11-10

Similar Documents

Publication Publication Date Title
KR100446235B1 (en) Merging search method of motion vector using multi-candidates
EP0720377B1 (en) Method for detecting motion vectors for use in a segmentation-based coding system
US7046850B2 (en) Image matching
US6301385B1 (en) Method and apparatus for segmenting images prior to coding
US6504569B1 (en) 2-D extended image generation from 3-D data extracted from a video sequence
US5572258A (en) Motion compensation estimating device and method achieving improved motion compensation
KR100583902B1 (en) Image segmentation
US8773595B2 (en) Image processing
JPH07154784A (en) Channel error correction method for video signal by quantization of classified vector
EP2221763A1 (en) Image generation method, device, its program and recording medium stored with program
CN111583138A (en) Video enhancement method and device, electronic equipment and storage medium
JP2002522836A (en) Still image generation method and apparatus
KR20060111528A (en) Detection of local visual space-time details in a video signal
Cho et al. Temporal incoherence-free video retargeting using foreground aware extrapolation
US7522748B2 (en) Method and apparatus for processing image data and semiconductor storage device
JP2980810B2 (en) Motion vector search method and apparatus
JP3979768B2 (en) Digital video segmentation method and apparatus
JP3175914B2 (en) Image encoding method and image encoding device
CN103618904B (en) Motion estimation method and device based on pixels
JP3537616B2 (en) Motion estimation method by computer for temporally consecutive image pixels of video sequence
US20050129312A1 (en) Unit for and method of segmentation
CN110519597B (en) HEVC-based encoding method and device, computing equipment and medium
CA2173888C (en) System and method for focused-based image segmentation for video signals
JP3237815B2 (en) Motion vector search method and apparatus
JP2934151B2 (en) Motion vector search method and apparatus