JPH01233893A - Moving vector detecting method - Google Patents

Moving vector detecting method

Info

Publication number
JPH01233893A
JPH01233893A JP63059879A JP5987988A JPH01233893A JP H01233893 A JPH01233893 A JP H01233893A JP 63059879 A JP63059879 A JP 63059879A JP 5987988 A JP5987988 A JP 5987988A JP H01233893 A JPH01233893 A JP H01233893A
Authority
JP
Japan
Prior art keywords
image data
motion vector
data
frame
memory
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP63059879A
Other languages
Japanese (ja)
Inventor
Hiroo Jofu
上符 浩男
Yasuo Katayama
片山 泰男
Shunichi Masuda
増田 俊一
Koichi Oyama
大山 公一
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GRAPHICS COMMUN TECHNOL KK
Original Assignee
GRAPHICS COMMUN TECHNOL KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GRAPHICS COMMUN TECHNOL KK filed Critical GRAPHICS COMMUN TECHNOL KK
Priority to JP63059879A priority Critical patent/JPH01233893A/en
Publication of JPH01233893A publication Critical patent/JPH01233893A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To save the number of times of evaluation calculation by generating a hierarchy picture from a picture signal so as to detect a rough moving vector and detecting moving vector sequentially with a fine accuracy. CONSTITUTION:Picture data GD1, GD2 of 1st and 2nd frames are stored respectively in 1st and 2nd hierarchy picture memories 2, 4, in hierarcy picture generating section 1, 3, the picture data of the 1st frame in the memory 2 and the picture data of the 2nd frame in the memory 4 are converted into the 1st-Kth hierarchy picture data whose resolution is sequentially made coarse and the result is stored in the memories 2, 4, and a moving vector detection section 5 reads the Kth hierarchy picture data with most rough resolution to obtain the moving vector, and then the (K-1)th hierarchy picture data is read and the moving vector is obtained based on the obtained moving vector. Then similar processing is repeated and then finally based on the data read from the 1st and 2nd frames, the moving vector is obtained based on the moving vector obtained form the 1st hierarchy picture data. Thus, the number of times of evaluation calculation is reduced.

Description

【発明の詳細な説明】 「産業上の利用分野」 本発明は、動画像を伝送する場合等において用いられる
動ベクトル検出方法に関する。
DETAILED DESCRIPTION OF THE INVENTION "Field of Industrial Application" The present invention relates to a motion vector detection method used when transmitting moving images.

「従来の技術」 テレビ電話、テレビ会議等においては、動画像が伝送さ
れるが、この動画像の伝送においては、伝送すべき画像
データのビット数をいかに少なくするか、言い替えれば
、いかにデータ圧縮するかが重要な問題である。
``Prior art'' In videophone calls, video conferences, etc., moving images are transmitted, and when transmitting these moving images, the number of bits of the image data to be transmitted must be reduced, or in other words, how can data be compressed? The important question is whether to do so.

従来、この画像データの圧縮方法として、フレーム間予
測符号化方法が知られている。この方法は、伝送しよう
とするフレームの各画素の輝度(モノクロ画像の場合)
を示す画像データと、1回前に伝送したフレームの各画
像データとの差をとり、この差データを画像データに代
えて現フレーム表示用データとして伝送する方法である
。この方法は、動きの無いあるいは少ない画像について
はフレーム間の相関が大きいので、大幅なデータ圧縮を
行うことができるが、動きの大きい画像についてはフレ
ーム間の相関が小さく、このため、圧縮効果が少ない欠
点がある。
Conventionally, an interframe predictive coding method is known as a method for compressing image data. This method uses the brightness of each pixel of the frame to be transmitted (for monochrome images)
This method calculates the difference between the image data representing the current frame and each image data of the previously transmitted frame, and transmits this difference data as the current frame display data instead of the image data. This method can perform significant data compression for images with no or little movement, as the correlation between frames is large, but for images with large movement, the correlation between frames is small, so the compression effect is low. There are few drawbacks.

これを解決する手段として、動き補償フレーム間予測符
号化方式が知られている。この方法は、フレーム間差デ
ータを求める際に、まず、動ベクトルを求める。この動
ベクトルとは、画像の移動方向および移動距離を示すベ
クトルであり、前フレームの画像が例えば第12図に実
線によって示すものであり、こめ画像が現フレームにお
いて同図に破線によって示す位置へ移動した場合に、そ
の動ベクトルは図に矢印によって示すベクトルVとなる
。実際には、フレームを予め例えば8×8画素を単位と
するブロックに分割し、各ブロック毎に動ベクトルを求
める。次に、求めた各動ベクトルに従って、前フレーム
の画像を移動させ、次いで、この移動させた画像と現フ
レームの画像との間の差データを求め、この差データを
伝送する。
A motion compensated interframe predictive coding method is known as a means to solve this problem. In this method, when obtaining inter-frame difference data, a motion vector is first obtained. This motion vector is a vector indicating the moving direction and moving distance of the image, and the image of the previous frame is, for example, the one shown by the solid line in FIG. When it moves, its motion vector becomes the vector V shown by the arrow in the figure. In practice, a frame is divided in advance into blocks each having, for example, 8×8 pixels, and a motion vector is determined for each block. Next, the image of the previous frame is moved according to each determined motion vector, and then difference data between the moved image and the image of the current frame is determined, and this difference data is transmitted.

この方法によれば、動きの無い画像と同程度のデータ圧
縮効果を動きの有る画像においても得ることができる。
According to this method, it is possible to obtain the same data compression effect even for moving images as for images with no movement.

さて、上述した動ベクトルを検出する方法としては、(
1)動ベクトル探索範囲内のすべての動ベクトルについ
てその適合度を示す評価値を求め、その評価値を最小と
する動ベクトルを求める方法がある。しかしながら、こ
の方法は評価値を計算する回数が多く、例えば、垂直方
向、水平方向とも±7画素を探索範囲とする場合、評価
値計算回数が225回となり、実用的ではなかった。こ
れに対し、(2)前記評価値を求める際に、原画像上で
多段の木探索を行う方法が知られており、この方法によ
れば、評価値計算回数を大幅に削減できる。例えば上述
した探索範囲の場合23回の評価値計算回数で動ベクト
ルを検出できる(特開昭55−158784号公報参照
)。
Now, as a method for detecting the above-mentioned motion vector, (
1) There is a method in which evaluation values indicating the degree of suitability of all the motion vectors within the motion vector search range are obtained, and a motion vector that minimizes the evaluation value is obtained. However, this method requires a large number of times to calculate the evaluation value. For example, when the search range is ±7 pixels in both the vertical and horizontal directions, the number of evaluation value calculations is 225, which is not practical. On the other hand, there is a known method (2) in which a multi-stage tree search is performed on the original image when determining the evaluation value. According to this method, the number of evaluation value calculations can be significantly reduced. For example, in the case of the above-mentioned search range, a motion vector can be detected with 23 evaluation value calculations (see Japanese Patent Laid-Open No. 158784/1984).

「発明が解決しようとする課題」 本発明は上述した事情に鑑みてなされたもので、上記(
2)の方法よりさらに評価値計算回数を減らすことがで
きる動ベクトル検出方法を提供することを目的としてい
る。
"Problem to be solved by the invention" The present invention has been made in view of the above-mentioned circumstances.
It is an object of the present invention to provide a motion vector detection method that can further reduce the number of evaluation value calculations than the method 2).

「課題を解決するための手段」 第1図はこの発明の原理を示すブロック図である。この
発明は、第1のフレームと第2のフレームとの間におけ
る画像の移動方向および移動距離を示ず動ベクトルを検
出する動ベクトル検出方法において、前記第1のフレー
ムの画像データCD!および前記第2のフレームの画像
デ”−タGD2を各々第1.第2の階層画像メモリ2.
4に記憶させると共に、階層画像生成部1.3において
メモリ2内の第1のフレームの画像データおよびメモリ
4内の第2のフレームの画像データを各々解像度を順次
粗くした第1〜第にの階層画像データに変換して第1.
第2の階層画像メモリ2.4に記憶させ、動ベクトル検
出部5において、まず、最も解像度が粗い第にの階層画
像データを前記メモリ2.4から読み出して動ベクトル
を求め、次に、第(K−1)の階層画像データを前記メ
モリ2,4から読み出し、この読み出したデータに基づ
き、上記の求めた動ベクトルを基準にして動ベクトルを
求め、以下、同様の処理を繰り返し、最後に、前記第1
のフレームのおよび第2のフレームの画像データを読み
出し、この読み出したデータに基づき、第1階層の画像
データから求めた動ベクトルを基準にして動ベクトルを
求め、この求めた結果を出力することを特徴としている
"Means for Solving the Problems" FIG. 1 is a block diagram showing the principle of the invention. The present invention provides a motion vector detection method for detecting a motion vector without indicating the moving direction and moving distance of an image between a first frame and a second frame. and the image data GD2 of the second frame are stored in the first and second hierarchical image memories 2 and 2, respectively.
At the same time, the hierarchical image generation unit 1.3 converts the image data of the first frame in the memory 2 and the image data of the second frame in the memory 4 into first to fourth images whose resolutions are sequentially coarsened. The first step is to convert to hierarchical image data.
The motion vector detection section 5 first reads out the first hierarchical image data with the coarsest resolution from the memory 2.4 to obtain a motion vector. The hierarchical image data of (K-1) is read from the memories 2 and 4, and based on the read data, a motion vector is determined using the motion vector determined above as a reference. , said first
The image data of the frame and the second frame are read out, and based on the read data, a motion vector is determined based on the motion vector determined from the image data of the first layer, and the determined result is output. It is a feature.

また、上記の方法において、上位の解像度の粗い階層画
像データによって求めた動ベクトルを、下位の解像度の
細かい階層画像データに基づく処理において相殺し得る
ようにしてもよい。
Furthermore, in the above method, the motion vector obtained using coarse hierarchical image data of a higher resolution may be canceled out in processing based on fine hierarchical image data of a lower resolution.

「作用−1 階層画像データを、例えば第2図に示すように構成した
とする。すなわち、原フレームの4個の画像データを平
均して第1階層の1画素の画像データとし、この第1階
層の4画像データを平均して第2階層の1画素の画像デ
ータとする。この場合、階層画像は1、」二位層になる
ほど総画素数が減少するため、動ベクトルを検出するた
めの前述したブロックの大きさを固定した場合、ブロッ
クの個数も減少する。例えば、原フレームの総画素数を
、XXY画素、ブロックの大きさをN X M画素とす
ると、原画像のブロック数は(X/N)X(77M)個
で、第2図のように、下位層の4画素が上位の1画素に
対応する場合は、第1階層の画像の総画素数は、(XX
Y)/4画素、プロ・ツク数は、(X/N)X(77M
)/4([!!]となる。又、上位層の1個のブロック
は下位層の複数のブロックに影響を持−〕ているため、
最上位層すなわち第2階層で検出した動ベクトルは第1
階層の4個のプロ・ツクの動ベクトル検出の初期値とな
り、第1階層で求めた動ベクトルは第0階層すなわち原
フレームの4個のブロックの動ベクトル検出の初期値と
なる。
Effect-1 Let us assume that the hierarchical image data is configured as shown in FIG. The 4 image data of the layer is averaged to form the image data of 1 pixel of the 2nd layer.In this case, the layer image is 1," because the total number of pixels decreases as the layer goes to the 2nd layer. If the aforementioned block size is fixed, the number of blocks will also decrease. For example, if the total number of pixels in the original frame is XXY pixels and the block size is N x M pixels, the number of blocks in the original image is (X/N) x (77M), as shown in Figure 2. When four pixels in the lower layer correspond to one pixel in the upper layer, the total number of pixels in the first layer image is (XX
Y)/4 pixels, the number of pixels is (X/N)
)/4 ([!!].Also, since one block in the upper layer has an influence on multiple blocks in the lower layer,
The motion vector detected in the top layer, that is, the second layer, is the first
This becomes the initial value for motion vector detection of the four blocks in the layer, and the motion vector determined in the first layer becomes the initial value for motion vector detection in the four blocks of the 0th layer, that is, the original frame.

このため、原フレームの1個のブロックの動ベクトルを
求めるために必要な動ベクトル検出作業は1(原フレー
ム)+1/4(第1階層)+l/16(第2階層)=2
1/16回で済む。従来の技術で述べた±7の探索範囲
における評価値算出回数は本方法の場合、9X21/1
6=11.8125回となり、前述した方式(1)(2
)に比べ大幅に削減されている。−数的には、階層毎の
探索範囲を士R画素、階層数をL層、階層画像の画素減
少率を水平方向、垂直方向ともl/Sであるとすると、
動ベクトル探索範囲は、 となり、評価値計算回数は、 となる。
Therefore, the motion vector detection work required to find the motion vector of one block in the original frame is 1 (original frame) + 1/4 (first layer) + l/16 (second layer) = 2
It only takes 1/16th of a time. In the case of this method, the number of evaluation value calculations in the search range of ±7 described in the conventional technique is 9×21/1.
6 = 11.8125 times, and the above methods (1) (2
) has been significantly reduced compared to - Numerically, assuming that the search range for each layer is R pixels, the number of layers is L layers, and the pixel reduction rate of the layer image is l/S in both the horizontal and vertical directions,
The motion vector search range is as follows, and the number of evaluation value calculations is as follows.

探索範囲を広げることは、各階層における探索範囲を広
げる方法と階層を増す方法があり前者は大幅な計算回数
の増加を伴なうのに対し、後者、すなわち、本発明によ
れば、ごくわずかの計算回数の増加で済む。
There are two ways to widen the search range: one is to widen the search range in each layer, and the other is to increase the number of layers. The former involves a significant increase in the number of calculations, whereas the latter, that is, according to the present invention, requires only a small amount of calculation. This only requires an increase in the number of calculations.

このように、本発明による動ベクトル検出方法は少ない
評価値計算回数で広い探索範囲の動ベクトルを検出でき
るという利点を有している。
As described above, the motion vector detection method according to the present invention has the advantage of being able to detect motion vectors in a wide search range with a small number of evaluation value calculations.

「実施例」 以下、図面を参照してこの発明の一実施例について詳細
に説明する。
"Embodiment" Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings.

第3図はこの発明の一実施例による動ベクトル検出回路
11の構成を示すブロック図である。この図において、
12は現フレーム(これから伝送しようとするフレーム
)の画像データCDIが供給される端子、13は前フレ
ーム(1回前に伝送したフレームまたは再生したフレー
ム)の画像データGD2が供給される端子、14.15
は各々階層画像データ生成部、1.6.17は各々階層
画像メモリである。
FIG. 3 is a block diagram showing the configuration of the motion vector detection circuit 11 according to an embodiment of the present invention. In this diagram,
12 is a terminal to which image data CDI of the current frame (the frame to be transmitted) is supplied; 13 is a terminal to which image data GD2 of the previous frame (the frame transmitted or reproduced one time before) is supplied; 14; .15
are hierarchical image data generation units, and 1.6.17 are hierarchical image memories, respectively.

階層画像データ生成部14は、現画像データGD1に基
づいて第2図に示す第1階層の画像データおよび第2階
−の画像データを各々生成する回路であり、第4図に示
すように、現画像データGDlが供給される端子14t
と、加算回路+4aと、この加算回路14aの出力をラ
ッチするラッチ14bと、このラッチ14bの出力を下
位ビット方向へ2ビツトシフトする、すなわち、ラッチ
1.4bの出力を1/4にするシフタ14Qと、各部を
制御する制御回路14dと、階層画像メモリ16のアド
レスを発生するアドレス発生回路14eとから構成され
ている。また、階層画像メモリ16は、3つの記憶エリ
アEaO〜Ea2を有しており、また、入出力データ端
子りおよびアドレス端子ADが設けられている。
The hierarchical image data generation section 14 is a circuit that generates the first layer image data and the second layer image data shown in FIG. 2 based on the current image data GD1, and as shown in FIG. Terminal 14t to which current image data GDl is supplied
, an adder circuit +4a, a latch 14b that latches the output of the adder circuit 14a, and a shifter 14Q that shifts the output of the latch 14b by 2 bits toward the lower bits, that is, reduces the output of the latch 1.4b to 1/4. , a control circuit 14d that controls each part, and an address generation circuit 14e that generates an address for the hierarchical image memory 16. Furthermore, the hierarchical image memory 16 has three storage areas EaO to Ea2, and is also provided with an input/output data terminal and an address terminal AD.

このような構成において、端子14tへは、現フレーム
の画像データCDI(各画素の輝変データ)が逐次供給
され、この画像デニタGDIが、双方向バスB1を介し
て階層画像メモリ16の入出力データ端子りへ供給され
、該メモリ16の記憶エリアEaOに逐次書き込まれる
。そして、現フレームの全画像データが記憶エリアEa
Oに書き込まれると、次に、記憶エリアEaOから、第
5図の左上区画の4画素の画像データが順次読み出され
、加算回路14aおよびラッチ14bによって累算され
、この累算結果がシフタ14cによって1/4とされ、
この演算結果、すなわち、4画像データの平均値がメモ
リ16の記憶エリアEa1に、第1階層画像データとし
て書き込まれる。
In such a configuration, the image data CDI (brightness variation data of each pixel) of the current frame is sequentially supplied to the terminal 14t, and this image detector GDI is connected to the input/output of the hierarchical image memory 16 via the bidirectional bus B1. The data is supplied to the data terminal and sequentially written into the storage area EaO of the memory 16. Then, all the image data of the current frame is stored in the storage area Ea.
After being written into the memory area EaO, the image data of the four pixels in the upper left section of FIG. It is considered to be 1/4 by
The result of this calculation, ie, the average value of the four image data, is written into the storage area Ea1 of the memory 16 as first layer image data.

以下、記憶エリアEaOから第5図の区分けにしたがっ
て4個の画像データが順次読み出され、平均値が算出さ
れ、この算出結果が記憶エリアEalに順次書き込まれ
る。なお、第5図の符号GFは現フレームを示す。現フ
レームの全画像データCDIについて上記の処理が終了
すると、次に、記憶エリアEatの各第亀階層画像デー
タについて、上記と同様の処理を行う。すなわち、まず
、記憶エリアEalから4個の画像データを順次読み出
し、加算回路14aおよびラッチ14bによって順次累
算し、この累算結果をシフタ14cによって1/4とし
て4画像データの平均値を求め、この平均値を記憶エリ
アEa2に書き込む。以下、上記の処理をエリアEal
内の全画像データについて行う。
Thereafter, four pieces of image data are sequentially read from the storage area EaO according to the classification shown in FIG. 5, an average value is calculated, and the calculation result is sequentially written to the storage area Eal. Note that the symbol GF in FIG. 5 indicates the current frame. When the above processing is completed for all the image data CDI of the current frame, the same processing as above is performed for each of the first layer image data in the storage area Eat. That is, first, four pieces of image data are sequentially read from the storage area Eal, sequentially accumulated by the adder circuit 14a and the latch 14b, and the accumulated result is 1/4 by the shifter 14c to obtain the average value of the four image data. This average value is written into storage area Ea2. Below, the above process is performed in area Eal.
Perform this for all image data within.

なお、上記の処理においては、全画像データが記憶エリ
アEaO内に書き込まれた後に、同エリアEaO内のデ
ータを読み出して処理するようになっているが、これに
代えて、一定数(4デ一タ以上)のデータがエリアEa
Oに書き込まれた時点で次のエリアEal書き込みのた
めの処理を開始してもよい。エリアEal内のデータの
処理についても同様である。
Note that in the above process, after all the image data is written in the storage area EaO, the data in the same area EaO is read out and processed. 1 ta or more) is in area Ea
The process for writing to the next area Eal may be started at the time the data is written to O. The same applies to the processing of data within area Eal.

このようにして、第2図に示す第1階層の画像データお
よび第2階層の画像データが各々生成され、生成された
画像データが階層画像メモリ16に書き込まれる。階層
画像データ生成部15および階層画像メモリ17も、上
記階層画像データ生成部14および階層画像メモリ16
と全く同様に構成されており、前フレームの画像データ
GD2が階層画像メモリ17の記憶エリアEbOに書き
込まれると共に、第1階層画像データおよび第2階層画
像データに変換され、記憶エリアEbl 、Eb2に各
々書き込まれる。
In this way, the first layer image data and the second layer image data shown in FIG. 2 are generated, and the generated image data is written into the layered image memory 16. The hierarchical image data generation section 15 and the hierarchical image memory 17 are also similar to the hierarchical image data generation section 14 and the hierarchical image memory 16.
The image data GD2 of the previous frame is written to the storage area EbO of the hierarchical image memory 17, and is converted into the first layer image data and the second layer image data, and is stored in the storage areas Ebl and Eb2. Each is written.

次に、第3図において、20は階層画像メモリ16、l
 7内の画像データに基づいて動ベクトルを検出する動
ベクトル検出部である。この動ベクトル検出部20にお
いて、アドレス発生部21は、動ベクトル検出の対象と
なる8×8画素のブロック内の各画素を走査するアドレ
スを発生し、階層画像メモリ16へは該アドレスをその
まま出力し、一方、階層画像メモリ17へは、加算器2
2においてオフセット値を加算した後出力する。この加
算器22の他方の入力端へは、初期動ベクトルラッチ2
3の出力と探索ベクトル発生部24の出力とが加算器2
5において加算された加算結果がオフセント値として供
給される。なお、初期動ベクトルラッチ23および探索
ベクトル発生部24については後に説明する。出力ラッ
チ26は加算器25の出力を制御部30からの指令にし
たがって読み込むラッチ、動ベクトルメモリ27は出力
ラッチ26に読み込まれた動ベクトルデータが記憶され
るメモリである。
Next, in FIG. 3, 20 is a hierarchical image memory 16, l
This is a motion vector detection unit that detects a motion vector based on the image data in 7. In this motion vector detection section 20, an address generation section 21 generates an address for scanning each pixel in an 8×8 pixel block that is a target of motion vector detection, and outputs the address as it is to the hierarchical image memory 16. On the other hand, the adder 2
2, the offset value is added and then output. The other input terminal of this adder 22 is connected to the initial motion vector latch 2.
3 and the output of the search vector generator 24 are added to the adder 2.
The addition result added in step 5 is supplied as an offset value. Note that the initial motion vector latch 23 and search vector generation section 24 will be explained later. The output latch 26 is a latch that reads the output of the adder 25 according to a command from the control unit 30, and the motion vector memory 27 is a memory in which the motion vector data read into the output latch 26 is stored.

評価値算出部28は、階層画像メモリ16.17から順
次′読み出されるlブロックの各画像データについて、
次の第(1)式または第(2)式の演算を行って評価値
を求め、求めた評価値を最小値検出部29へ出力する。
The evaluation value calculation unit 28 calculates, for each block of image data sequentially read out from the hierarchical image memory 16.17,
An evaluation value is obtained by calculating the following equation (1) or (2), and the obtained evaluation value is output to the minimum value detection section 29.

−R(lx N+ i+ mx、JX N+ j+ m
y) l・・・・・・(1) −R(lx N+ i+mx、Jx N+ j+ my
))’・・・・・・(2) ここに、E(・)は評価値、mに、myは動ベクトルの
水平方向、垂直方向の成分、S(・)は現フレームの画
像データまたは第1階層画像データまたは第2階層画像
データ、R(・)は前フレームの画像データまたは第1
階層画像データまたは第2階層画像データ、I、Jは対
象となるブロックか左端から何番目で上から何番目かを
各々示すデータ、N、Mは、ブロックの水平方向、垂直
方向の画素数である。なお、上記(1)、(2)式は一
般式で示しであるが、この実施例においては、 mX、my= −1、0゜十l N、M=8 としている。最小値検出部29は評価値検出部2Bから
出力される評価値の中の最小値を検出し、この検出結果
に対応する動ベクトルを指示するデータを制御部30へ
出力する。
-R(lx N+ i+ mx, JX N+ j+ m
y) l...(1) -R(lx N+ i+mx, Jx N+ j+ my
))'・・・・・・(2) Here, E(・) is the evaluation value, m is the horizontal and vertical components of the motion vector, and S(・) is the image data of the current frame or 1st layer image data or 2nd layer image data, R(・) is the image data of the previous frame or the 1st layer image data.
Hierarchical image data or second layer image data, I and J are data indicating the number from the left end and number from the top of the target block, respectively.N and M are the number of pixels in the horizontal and vertical directions of the block. be. Although the above formulas (1) and (2) are shown as general formulas, in this example, mX, my=-1, 0°1 N, M=8. The minimum value detection section 29 detects the minimum value among the evaluation values output from the evaluation value detection section 2B, and outputs data indicating a motion vector corresponding to this detection result to the control section 30.

次に、上記構成による動ベクトル検出部20の動作を説
明する。なお、評価値検出部28は、第(1)式に基づ
いて評価値を算出するものとする。
Next, the operation of the motion vector detection section 20 with the above configuration will be explained. Note that the evaluation value detection unit 28 calculates the evaluation value based on equation (1).

いま、第6図に示す画面GMIを現フレームの第2階層
の画面(第2図参照)、画面GM2を前フレームの第2
階層の画面であるとすると、この動ベクトル検出部20
は、画面GMIの8×8画素のブロックBLI、BL2
・・・・・・の各々について動ベクトルを順次検出する
。次に、この動ベクトルの検出過程を説明する。第7図
(イ)は画面GMIの各画素を示す図、また、(ロ)は
画面GM2の各画素を示す図であり、この図において画
素DOとDOa、DIとD l m、・・−・−・、D
 8とDOaは各々対応している。まず、画素Dlaの
画像データから画素DOの画像データを減算しその絶対
値を求める処理と同じ関係の処理を、ブロックBLI内
の全ての画素について行い、その結果を逐次累算し、こ
の累算結果を第1の評価値データとして最小値検出部2
9へ出力する。この第1の評価値データは、第7図に示
すベクトルVlの成分に対応している。 また、この処
理は、前記第(1)式において、 mx= l 、my= 0 とした場合である。
Now, the screen GMI shown in Fig. 6 is the second layer screen of the current frame (see Fig. 2), and the screen GM2 is the second layer screen of the previous frame.
If it is a hierarchical screen, this motion vector detection unit 20
are the 8x8 pixel blocks BLI and BL2 of the screen GMI
A motion vector is sequentially detected for each of . Next, the process of detecting this motion vector will be explained. FIG. 7 (A) is a diagram showing each pixel of the screen GMI, and (B) is a diagram showing each pixel of the screen GM2. In this diagram, pixels DO and DOa, DI and D l m, . . .・-・、D
8 and DOa correspond to each other. First, the same process as the process of subtracting the image data of pixel DO from the image data of pixel Dla to find its absolute value is performed for all pixels in block BLI, and the results are sequentially accumulated. The minimum value detection unit 2 uses the result as first evaluation value data.
Output to 9. This first evaluation value data corresponds to the components of the vector Vl shown in FIG. Further, this process is performed when mx=l and my=0 in the equation (1).

次に、画素D2aの画像データから画素Doの画像デー
タを減算しその絶対値を求める処理と同じ関係の処理を
、ブロックBLI内の全ての画素について行い、その結
果を逐次累算し、この累算結果を第2の評価値データと
して最小値検出部29へ出力する。この第2の評価値デ
ータは、第7図に示すベクトルv2の成分に対応してお
り、また、この処理は、前記第(1)式において、mx
= l 、my= −1 とした場合である。
Next, the same process as that of subtracting the image data of pixel Do from the image data of pixel D2a to find its absolute value is performed for all pixels in block BLI, and the results are sequentially accumulated. The calculation result is output to the minimum value detection section 29 as second evaluation value data. This second evaluation value data corresponds to the component of vector v2 shown in FIG.
This is the case where = l and my= -1.

以下、同様の処理が繰り返えされ、これにより、第7図
に示すベクトルv1〜v8の各成分に対応する第1〜第
8の評価値データが最小値検出部29へ出力される。最
後に、画素Dlaの画像データから画素DOの画像デー
タを減算しその絶対値を求める処理と同じ関係の処理を
、ブロックBLl内の全ての画素について行い、その結
果を累算し、この累算結果を第9の評価値データとして
最小値検出部29へ出力する。この第9の評価値データ
は、画面GM2と画面GMIにおいて画像が動いていな
い程度を示している。例えば、この第9の評価値データ
が「0」であれば、ブロックBLl内の各画像は画面G
M2のブロックBL la内の画像と全く同じ(動いて
いない)ことになる。また、この処理は、第(1)式に
おいて、mx= O、B= 0 とした場合である。
Thereafter, the same process is repeated, and thereby the first to eighth evaluation value data corresponding to each component of the vectors v1 to v8 shown in FIG. 7 are output to the minimum value detection section 29. Finally, the same process as the process of subtracting the image data of pixel DO from the image data of pixel Dla to find its absolute value is performed for all pixels in block BLl, and the results are accumulated. The result is output to the minimum value detection section 29 as ninth evaluation value data. This ninth evaluation value data indicates the extent to which the image does not move on screen GM2 and screen GMI. For example, if this ninth evaluation value data is "0", each image in block BLl is
This is exactly the same as the image in block BL la of M2 (not moving). Further, this process is performed when mx=O and B=0 in equation (1).

次に、上述した第1〜第9の評価値データを算出する過
程を具体的に説明する。階層画像メモリ16.17に各
々現フレームおよび前フレームの画像データ、第1階層
画像データ、第2階層画像データが書き込まれると、次
に、制御部30が初期ベクトルラッチ23をクリアし、
次いで、探索ベクトル発生部24およびアドレス発生部
21ヘスタート信号を出力する。探索ベクトル発生部2
4ヘスタート信号が供給されると、探索ベクトル発生部
24が、まず、mx= 1 、my= Oに対応する第
1のアドレス補正データを出力する。このアドレス補正
データは、この時、初期動ベクトルラッチ23の出力が
「0」であることから、加算器25を介して加算器22
の第2入力端へ供給される。
Next, the process of calculating the above-mentioned first to ninth evaluation value data will be specifically explained. When the image data of the current frame, the previous frame, the first layer image data, and the second layer image data are respectively written to the hierarchical image memories 16 and 17, the control unit 30 clears the initial vector latch 23,
Next, a start signal is output to the search vector generating section 24 and the address generating section 21. Search vector generator 2
When the start signal to 4 is supplied, the search vector generation unit 24 first outputs first address correction data corresponding to mx=1 and my=O. Since the output of the initial motion vector latch 23 is "0" at this time, this address correction data is sent to the adder 22 via the adder 25.
is supplied to the second input terminal of.

一方、アドレス発生部21ヘスタート信号が供給される
と、以後、アドレス発生部21は第1のブロックBLI
(第6図)の各画素の画像データ(第2階層画像データ
)が記憶されているメモリ16のアドレスを指示するア
ドレスデータを順次出力する。このアドレスデータはア
ドレスバスB3を介してメモリ16のアドレス端子AD
へ供給されると共に、加算器22においてアドレス補正
データが加算され、アドレスバスB4を介してメモリ1
7のアドレス端子ADへ供給される。これによリ、メモ
リ16からブロックBLIの各画素の画像データが順次
出力され、また、メモリ17からは、第7図の画素Do
に対し画素Dlaの関係にある各画素の画素データが順
次出力され、出力された画素データが評価値算出部28
へ供給される。
On the other hand, when the start signal is supplied to the address generation section 21, the address generation section 21 thereafter starts the first block BLI.
Address data indicating the address of the memory 16 where the image data (second layer image data) of each pixel (FIG. 6) is stored is sequentially output. This address data is transferred to the address terminal AD of the memory 16 via the address bus B3.
At the same time, the address correction data is added in the adder 22 and sent to the memory 1 via the address bus B4.
7 address terminal AD. As a result, the image data of each pixel of the block BLI is sequentially output from the memory 16, and the image data of the pixel Do of FIG. 7 is output from the memory 17.
The pixel data of each pixel in the relationship with the pixel Dla is sequentially output, and the output pixel data is sent to the evaluation value calculation unit 28.
supplied to

評価値算出部28は、メモリl 6,17から画像デー
タが供給される毎に、メモリ16の出力データからメモ
リ17の出力データを減算してその絶対値を求め、この
結果を逐次累算し、そして、64データ(8X8画素)
の累算が終了した時点でその結果を第1の評価値データ
として最小値検出部29へ出力する。最小値検出部29
はこの評価値データを受け、内部のメモリに記憶し、次
いで、評価値算出完了を示す信号を制御部30へ出力す
る。制御部30は、この評価値算出完了を示す信号を受
け、探索ベクトル発生部24ヘベクトル変更指令を出力
する。探索ベクトル発生部24はこのベクトル変更指令
を受け、 111に= 1 、tay= −1 に対応するアドレス補正データを加算器25へ出力する
The evaluation value calculation unit 28 subtracts the output data of the memory 17 from the output data of the memory 16 every time image data is supplied from the memories 16 and 17 to obtain its absolute value, and successively accumulates the results. , and 64 data (8x8 pixels)
When the accumulation is completed, the result is outputted to the minimum value detection section 29 as first evaluation value data. Minimum value detection section 29
receives this evaluation value data, stores it in its internal memory, and then outputs a signal indicating completion of evaluation value calculation to the control unit 30. The control unit 30 receives the signal indicating completion of the evaluation value calculation and outputs a vector change command to the search vector generation unit 24. The search vector generation unit 24 receives this vector change command and outputs address correction data corresponding to 111=1 and tay=−1 to the adder 25.

一方、アドレス発生部21は、以後、再び第1のブロッ
クBLIの各画素の画像データが記憶されているメモリ
16のアドレスを指示するアドレスデータを順次出力す
る。これにより、メモリ16からブロックBLIの各画
素の画像データか再び順次出力され、また、メモリ17
からは、第7図の画素DOに対し画素D2aの関係にあ
る各画素の画素データが順次出力され、出力された画素
データが評価値算出部28へ供給される。評価値算出部
28は、供給される各画像データに基づいて第2の評価
値データを算出し、最小値検出部29へ出力する。最小
値検出部29はこの評価値データを受け、内部のメモリ
に記憶し、次いで、パルス信号を制御部30へ出力する
。以下、同様の処理が繰り返され、これにより、第1〜
第9の評価値データが最小値検出部29内のメモリに記
憶される。ここで、最小値検出部29は、第1〜第9の
評価値データの中の最小のものを検出する。
On the other hand, the address generation unit 21 thereafter sequentially outputs address data indicating the address of the memory 16 where the image data of each pixel of the first block BLI is stored. As a result, the image data of each pixel of the block BLI is sequentially output again from the memory 16, and the memory 17
From there, the pixel data of each pixel in the relationship of pixel D2a to pixel DO in FIG. The evaluation value calculation unit 28 calculates second evaluation value data based on each supplied image data, and outputs it to the minimum value detection unit 29. The minimum value detection section 29 receives this evaluation value data, stores it in an internal memory, and then outputs a pulse signal to the control section 30. Hereinafter, the same process is repeated, and as a result, the first to
The ninth evaluation value data is stored in the memory within the minimum value detection section 29. Here, the minimum value detection unit 29 detects the minimum value among the first to ninth evaluation value data.

この検出された評価値データに対応するベクトルがブロ
ックBLIの動ベクトルである。例えば、第2の評価値
データが最小であった場合は、ブロックBLIの動ベク
トルがベクトルV2(第2図)として検出される。また
、第9の評価値データが最小であった場合は、ブロック
BLIの動ベクトルが「0」として検出される。
The vector corresponding to this detected evaluation value data is the motion vector of block BLI. For example, if the second evaluation value data is the minimum, the motion vector of block BLI is detected as vector V2 (FIG. 2). Further, when the ninth evaluation value data is the minimum, the motion vector of the block BLI is detected as "0".

次に、最小値検出部29は、検出した動ベクトルを指示
するデータを制御部30へ出力する。制御部30はこの
動ベクトルを指示するデータを探索ベクトル発生部24
へ出力する。探索ベクトル発生部24は、この動ベクト
ルを指示するデータを受け、そのデータに対応するアド
レス補正データを再び出力する。この結果、加算器25
から同アドレス補正データが出力され、出力ラッチ26
へ供給される。ここで、制御部30が読み込み指令を出
力ラッチ26へ出力する。これにより、上記アドレス補
正データが出力ラッチ26に読み込まれ、動ベクトルメ
モリ27へ供給される。ここで、制御部30がメモリ2
7へ読み込み指令およびアドレスを′出力する。これに
より、最小値検出部29において検出された動ベクトル
に対応するアドレス補正データがメモリ27に書き込ま
れる、。
Next, the minimum value detection unit 29 outputs data indicating the detected motion vector to the control unit 30. The control unit 30 sends the data indicating this motion vector to the search vector generation unit 24.
Output to. The search vector generating section 24 receives data indicating this motion vector and again outputs address correction data corresponding to the data. As a result, adder 25
The same address correction data is output from the output latch 26.
supplied to Here, the control unit 30 outputs a read command to the output latch 26. As a result, the address correction data is read into the output latch 26 and supplied to the motion vector memory 27. Here, the control unit 30
The read command and address are output to 7. As a result, address correction data corresponding to the motion vector detected by the minimum value detection section 29 is written into the memory 27.

次に、制御部30は、アドレス発生部21ヘブロックB
LIの処理終了を示すパルス信号を出力する。以後、上
記と全く同様の過程によって、次のブロックBL2の動
ベクトルが検出され、検出された動ベクトルを示すアド
レス補正データが動ベクトルメモリ27に記憶され、次
いで、ブロックBL3.BL4・・・・・・についても
順次同様の処理が行なわれる。
Next, the control section 30 sends the block B to the address generation section 21.
Outputs a pulse signal indicating completion of LI processing. Thereafter, the motion vector of the next block BL2 is detected by the same process as described above, address correction data indicating the detected motion vector is stored in the motion vector memory 27, and then the motion vector of the next block BL3. Similar processing is sequentially performed for BL4, . . . as well.

以上が、第2階層の画像データに基づく動ベクトル検出
処理である。この処理が終了すると、次に第1階層の画
像データに基づく動ベクトル検出処理が行なわれる。こ
の処理は、初期ベクトルラッチ23内のデータが上述し
た場合と異なる点を除けば、上記の処理と全く同じであ
る。すなわち、上述した第2階層画像データに基づく動
ベクトル検出処理においては、初期ベクトルラッチ23
内のデータが常に「0」であったが、第1階層画像デー
タに基づく処理においては、動ベクトルメモリ27内の
アドレス%17正データか2倍されて(すなわち、lビ
ット上漬方向ヘシフトされて)ラッチ23内に書き込ま
れる。
The above is the motion vector detection process based on the second layer image data. When this process is completed, a motion vector detection process based on the first layer image data is then performed. This process is exactly the same as the process described above, except that the data in the initial vector latch 23 is different from the case described above. That is, in the motion vector detection process based on the second layer image data described above, the initial vector latch 23
However, in processing based on the first layer image data, the data at address %17 in the motion vector memory 27 is doubled (that is, shifted in the upward direction by l bits). ) is written into latch 23.

以下、詳述する。第8図の符号GM3を第1階層の画像
データに基づく画面とする。この画面GMa内の画素数
は、第6図の画面GMI内の画素数の4倍であり、画面
GM3の4画素が画面GMlの1画素に対応している。
The details will be explained below. Reference numeral GM3 in FIG. 8 is a screen based on the image data of the first layer. The number of pixels in this screen GMa is four times the number of pixels in the screen GMI in FIG. 6, and four pixels in the screen GM3 correspond to one pixel in the screen GM1.

また、第6図のブロックBLIが第8図のブロックBM
 1 、l3M2 、I3MK、BM(K+1)に対応
しており、同様に、第6図の他のブロックも各々第8図
の4つのブロックに対応している。第1階層画像データ
に基づく動ベクトル検出処理は、前述した場合と同様に
、第8図のブロックBMI、BM2・・・・・・の順で
順次処理されるが、第6図のブロックBLIに対応する
第8図のブロックBM I 、8M2.BMK、BM(
K+1)の処理においては、ブロックBLIの動ベクト
ルを示すアドレス補正データがメモリ27から読み出さ
れ、このアドレス補正データが2倍されて初期ベジトル
ラッチ23に書き込まれる。
Also, the block BLI in FIG. 6 is the block BM in FIG.
1, l3M2, I3MK, and BM(K+1), and similarly, the other blocks in FIG. 6 also correspond to the four blocks in FIG. 8, respectively. The motion vector detection process based on the first layer image data is sequentially processed in the order of blocks BMI, BM2, etc. in FIG. 8, as in the case described above, but in the block BLI in FIG. The corresponding blocks BM I , 8M2 . BMK, BM(
In the process K+1), address correction data indicating the motion vector of block BLI is read from the memory 27, this address correction data is doubled, and written to the initial vector latch 23.

この意味は次の通りである。いま、ブロックBLlの動
ベクトルが第7図のベクトルv2である場合、すなわち
、mx= 1 、my= −1である場合は、ベクトル
■2の2倍のベクトル、すなわち、rAK’=IX2=
2.my’=−1x2=−2なるベクトルがブロックB
MI 、8M2.BM−に、BM(K+ 1)の動ベク
トル算出の基準ベクトルとなる。したがって、第9図に
おいて、画素DOを階層画像メモリ16内の第1階層画
像データに対応する画素であるとすると、図に示す画素
Ddが動ベクトル検出の基準となる。そして、第1階層
の画像データに基づく動ベクトル検出処理においては、
第9図に示す動ベクトルVat〜Va9のいずれかを検
出することになる。
The meaning is as follows. Now, if the motion vector of block BLl is vector v2 in FIG. 7, that is, mx = 1, my = -1, then the vector is twice the vector ■2, that is, rAK' = IX2 =
2. The vector my'=-1x2=-2 is block B
MI, 8M2. BM- becomes the reference vector for calculating the motion vector of BM(K+1). Therefore, in FIG. 9, if pixel DO is a pixel corresponding to the first hierarchical image data in hierarchical image memory 16, pixel Dd shown in the figure becomes the reference for motion vector detection. In the motion vector detection process based on the first layer image data,
Any one of the motion vectors Vat to Va9 shown in FIG. 9 will be detected.

そして、第8図の全ブロックBMl 、8M2・・・・
・・について動ベクトルの検出が終了し、検出された動
ベクトルに対応するアドレス補正データ(この場合、加
算器25から出力されたアドレス補正データ)が動ベク
トルメモリ27内に記憶されると、次に、メモリ16.
17の各記憶エリアEar。
And all the blocks BMl, 8M2, etc. in Fig. 8.
When the motion vector detection for ... is completed and the address correction data corresponding to the detected motion vector (in this case, the address correction data output from the adder 25) is stored in the motion vector memory 27, the next In memory 16.
17 storage areas Ear.

EbO内の原画像データに基づく動ベクトル検出処理が
行なわれる。この処理は、上述した第1階層画像データ
に基づく動ベクトル検出処理と全く同じであり、初期動
ベクトルラッチ27内に記憶されている第1階層のアド
レス補正データが2倍されて初期動ベクトルラッチ23
に書き込まれ、そして、現フレームの各ブロック(8/
8画素)について検出された各動ベクトルに対応するア
ドレス補正データが動ベクトルメモリ27に書き込まれ
る。この書き込まれたアドレス補正データが、画像伝送
のタイミングに合わせてメモリ27から読み出され、動
ベクトルデータMVとして、出力端子31から出力され
る。
A motion vector detection process is performed based on the original image data in EbO. This process is exactly the same as the motion vector detection process based on the first layer image data described above, and the first layer address correction data stored in the initial motion vector latch 27 is doubled and the initial motion vector latch is 23
and each block (8/
Address correction data corresponding to each motion vector detected for 8 pixels) is written into the motion vector memory 27. This written address correction data is read out from the memory 27 in accordance with the timing of image transmission, and is outputted from the output terminal 31 as motion vector data MV.

以上がこの発明の一実施例による動ベクトル検出回路1
1の詳細である。
The above is the motion vector detection circuit 1 according to one embodiment of the present invention.
1 details.

なお、上記実施例においては、階層画像生成部i4,1
5において、第1.第2階層画像データを1/2の縮小
率で生成したが、他の縮小率としてもよい。そして、縮
小率を例えば1/4とした場合は、動ベクトルメモリ2
7に書き込まれたアドレス補正データを4倍にして初期
ベクトルラッチ23に書き込めばよい。また、上記実施
例においては、現フレームの4画像データの平均値を第
1の階層画像データとし、また、4個の第1階層画像デ
ータの平均値を第2階層画像データとしたが、これに代
えて、複数個の画素の相対的位置関係によって決まる重
み係数(例えば、0.4,0.3,0.2,0.1)を
各画像データに乗算した後、加算してもよい。
Note that in the above embodiment, the hierarchical image generation unit i4,1
5, 1st. Although the second layer image data was generated at a reduction ratio of 1/2, other reduction ratios may be used. If the reduction rate is set to 1/4, for example, the motion vector memory 2
The address correction data written in 7 may be multiplied by 4 and written in the initial vector latch 23. Furthermore, in the above embodiment, the average value of the four image data of the current frame was used as the first layer image data, and the average value of the four pieces of first layer image data was used as the second layer image data. Instead, each image data may be multiplied by a weighting coefficient (for example, 0.4, 0.3, 0.2, 0.1) determined by the relative positional relationship of a plurality of pixels, and then added. .

第10図はこの場合の階層画像生成部14.15の構成
例を示すブロック図である。この図において、33は上
述した重み係数を発生する係数発生部、34は積和演算
部、35は制御部、36は階層画像メモリ37のアドレ
スを発生するアドレス発生部であり、階層画像メモリ3
7から順次読み出された画像データに積和演算部34に
おいて係数発生部33から出力される係数が乗算された
後順次加算され、この加算結果がメモリ37に書き込ま
れる。
FIG. 10 is a block diagram showing an example of the configuration of the hierarchical image generation section 14.15 in this case. In this figure, 33 is a coefficient generation unit that generates the above-mentioned weighting coefficients, 34 is a product-sum operation unit, 35 is a control unit, and 36 is an address generation unit that generates an address for the hierarchical image memory 37.
The image data sequentially read from 7 is multiplied by the coefficients output from the coefficient generating section 33 in the sum-of-products calculation section 34, and then sequentially added, and the addition result is written into the memory 37.

また、上記実施例においては、最上位の階層から順に動
ベクトルを求めるようになっているが、これに代えて、
任意の階層から動ベクトル検出を開始するようにしても
よい。この場合、ある階層において、対象となるブロッ
クの動ベクトルを検出する場合に、その階層が最上位で
ある場合は初期動ベクトルラッチ23の値をクリアし、
動ベクトル検出動作を実行するが、最上位で無い場合は
その上位の階層のブロックの動ベクトルがすでに検出さ
れているかどうか調べ、検出が終っていればその動ベク
トルを動ベクトルメモリ27から読み出し初期動ベクト
ルラッチ23に書き込み、動ベクトル検出動作を実行す
るが、検出が終っていない場合はその上位の階層で動ベ
クトル検出動作を実行する。最下位の階層において検出
された動ベクトルが検出結果として出力される。
In addition, in the above embodiment, the motion vectors are obtained in order from the highest layer, but instead of this,
Motion vector detection may be started from any hierarchy. In this case, when detecting the motion vector of a target block in a certain hierarchy, if that hierarchy is the highest, the value of the initial motion vector latch 23 is cleared,
A motion vector detection operation is executed, but if the block is not at the top level, it is checked whether the motion vector of the block in the upper layer has already been detected, and if the detection has been completed, the motion vector is read out from the motion vector memory 27 and initialized. The data is written to the motion vector latch 23 and a motion vector detection operation is executed. If the detection is not completed, the motion vector detection operation is executed at a higher layer. The motion vector detected at the lowest layer is output as the detection result.

また、上記実施例において、上位の解像度の粗い階層画
像データによって求めた動ベクトルを、下位の解像度の
細かい階層画像データに基づく処理において相殺し得る
ようにしてもよい。このようにすると、下位の階層画像
データの処理において初期動ベクトルを「0」とするこ
とができる。
Furthermore, in the embodiment described above, the motion vector obtained using coarse hierarchical image data of a higher resolution may be offset in processing based on fine hierarchical image data of a lower resolution. In this way, the initial motion vector can be set to "0" in the processing of lower hierarchical image data.

次に、上記実施例による動ベクトル検出回路llを適用
した画像データ伝送装置を第11図を参照して説明する
。第11図は、動き補償フレーム間予測符号化方式によ
る符号化装置、復号化装置の原理ブロック図である。こ
の図において、11は上述した動ベクトル検出回路、4
2は予測信号発生部、43は減算器、44は符号化部、
45は復号化部、46は加算器、47は遅延部、48は
送信部、49は受信部、50は復号化部、51は加算器
、52は遅延部、53は予測信号発生部である。
Next, an image data transmission apparatus to which the motion vector detection circuit 11 according to the above embodiment is applied will be explained with reference to FIG. FIG. 11 is a principle block diagram of an encoding device and a decoding device using a motion compensated interframe predictive encoding method. In this figure, 11 is the above-mentioned motion vector detection circuit;
2 is a prediction signal generator, 43 is a subtracter, 44 is an encoder,
45 is a decoding section, 46 is an adder, 47 is a delay section, 48 is a transmitting section, 49 is a receiving section, 50 is a decoding section, 51 is an adder, 52 is a delay section, and 53 is a predicted signal generating section. .

符号化装置においては、人力画像データSkC前述した
現フレームの画像データCDIと同一のデータ)は減算
器43と動ベクトル検出回路11に加えられる。動ベク
トル検出回路11は遅延部47から出力された前フレー
ムの画像データRk−1(前述した画像データGD2と
同一のデータ)と入力画像信号Skから、複数の画素か
ら成るブロック単位に動ベクトルMVを検出し、予測信
号発生部42と送信部48へ出力する。予測信号発生部
42は動ベクトルMVだけ移動さ仕た前フレームの画素
の画像データを予測データPkとして減算器43と加算
器46に出力する。減算器43は入力画像データSkか
ら予測データPkを減じることによって差分データDk
を求め、符号化部44に出力する。符号化部44は差分
データDkを量子化・符号化することによって符号1k
を求め、送信部48と痕号化部45に出力し、復号化部
45は符号1kから再生差分データEkを求め、加算4
46に出力する。加算器46は再生差分データEkと予
測データPkを加算して再生画像データRkを求め、遅
延部47に出力する。遅延部47は再生画像データRk
を1フレームの時間間隔遅延させ前フレームの再生画像
データRk−1(GD2)を動ベクトル検出部11と予
測信号発生部42に出力する。送信部48は符号1にと
動ベクトルMVを多重化し、変調して復号化装置へ伝送
する。
In the encoding device, the human image data SkC (the same data as the image data CDI of the current frame described above) is applied to the subtracter 43 and the motion vector detection circuit 11. The motion vector detection circuit 11 calculates a motion vector MV for each block consisting of a plurality of pixels from the previous frame image data Rk-1 (same data as the above-mentioned image data GD2) output from the delay section 47 and the input image signal Sk. is detected and output to the prediction signal generation section 42 and the transmission section 48. The prediction signal generation unit 42 outputs the image data of the pixels of the previous frame that have been moved by the motion vector MV to the subtracter 43 and the adder 46 as prediction data Pk. The subtracter 43 subtracts the prediction data Pk from the input image data Sk to obtain difference data Dk.
is calculated and output to the encoding section 44. The encoding unit 44 quantizes and encodes the difference data Dk to generate a code 1k.
is calculated and outputted to the transmitter 48 and the trace encoder 45, and the decoder 45 calculates the reproduced difference data Ek from the code 1k and performs addition 4.
46. The adder 46 adds the reproduced difference data Ek and the predicted data Pk to obtain reproduced image data Rk, and outputs it to the delay unit 47. The delay unit 47 reproduces the reproduced image data Rk.
is delayed by a time interval of one frame, and the reproduced image data Rk-1 (GD2) of the previous frame is output to the motion vector detection section 11 and the prediction signal generation section 42. The transmitter 48 multiplexes the motion vector MV with code 1, modulates it, and transmits it to the decoding device.

復号化装置においては、受信部49は前記符号化装置か
ら多重化されて伝送された符号1にと動ベクトルMVを
復調し、符号1にと動ベクトルM■を求め、それぞれ復
号化FRS50と予測信号発生部53へ出力する。復号
化部50は符号Ikがら再生差分データEkを求め加算
器51に出力する。
In the decoding device, the receiving unit 49 demodulates the motion vector MV into the code 1 multiplexed and transmitted from the coding device, obtains the motion vector M into the code 1, and calculates the decoding FRS 50 and the prediction, respectively. The signal is output to the signal generating section 53. The decoding unit 50 obtains reproduced difference data Ek from the code Ik and outputs it to the adder 51.

加算器51は再生差分データEkと予測データPkを加
算し、再・生画像データRkを求め、復号化装置の再生
画像データとして出力とするとともに、n延部52に出
力する。遅延部52は再生画像データrtkヲ1フレー
ムの時間間隔遅延させ前フレームの再生画像データRk
−1を予測信号発生部53に出力し、予測信号発生部5
3は動ベクトルMVだけ移動させた前フレームの再生画
像データを予測データPkとして加算器51に出力する
The adder 51 adds the reproduced difference data Ek and the prediction data Pk to obtain reproduced/regenerated image data Rk, and outputs it as reproduced image data of the decoding device and to the n extension section 52. The delay unit 52 delays the reproduced image data rtk by a time interval of one frame and reproduces the reproduced image data Rk of the previous frame.
-1 to the prediction signal generation section 53, and the prediction signal generation section 5
3 outputs the reproduced image data of the previous frame shifted by the motion vector MV to the adder 51 as predicted data Pk.

この伝送システムにおいては、伝送される情報量は予測
データPkの正確さに強く依存しており、符号化部44
や復号化部50の性能と共に動ベクトル検出回路11の
役割が重要であり、広い探索範囲を少ない計数回数で動
ベクトルを検出することが必要となる。したがって、本
発明は上記の伝送システムに用いて極めて好適である。
In this transmission system, the amount of information to be transmitted strongly depends on the accuracy of the prediction data Pk, and the amount of information transmitted is strongly dependent on the accuracy of the prediction data Pk.
The role of the motion vector detection circuit 11 is important as well as the performance of the decoding section 50, and it is necessary to detect motion vectors in a wide search range with a small number of counts. Therefore, the present invention is extremely suitable for use in the above transmission system.

「発明の効果」 以上説明したように、本発明は画像信号から階層画像を
生成することによって、まず、概略の動ベクトルを検出
し、順次下位の階層画像によってより細かい精度の動ベ
クトルを検出する方法であり、階層画像は、上位の層が
下位の層に比べ画素数が少なく、シたがって同じ画素数
からなるブロックの数も少なく、動ベクトル探索範囲を
狭くすることなく、検出に要する評価値計算回数を大幅
に削減できる方式であり、従来方式すなわち3段木探索
方式に比べ約1/2の評価値計算回数削減の効果がある
"Effects of the Invention" As explained above, the present invention first detects an approximate motion vector by generating hierarchical images from image signals, and then sequentially detects motion vectors with finer precision using lower hierarchical images. In hierarchical images, upper layers have fewer pixels than lower layers, and therefore the number of blocks with the same number of pixels is also small. This is a method that can significantly reduce the number of value calculations, and has the effect of reducing the number of evaluation value calculations by about 1/2 compared to the conventional method, that is, the three-stage tree search method.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図はこの発明の原理ブロック図、第2図は階層画像
の構成例を示す図、第3図はこの発明の一実施例の構成
を示すブロック図、第4図は階層画像生成部14の構成
例を示すブロック図、第5図は現フレームを示す図、第
6図は第2階層の画像データに基づく画面を示す図、第
7図は第2階層における動ベクトル検出を説明するため
の図、第8図は第1′階層の画像データに基づく画面を
示す図、第9図は第1階層における動ベクトル検出を説
明するための図、第1O図は第3図における階層画像生
成部14の他の構成例を示すブロック図、第11図はこ
の発明の応用例を示すブロック図、第12図は動ベクト
ルを説明するための図である。 11・・・・・・動ベクトル検出回路、14.[5・・
・・・・階層画像生成部、16.17・・・・・・階層
画像メモリ、21・・・・・・アドレス発生部、23・
・・・・・初期ベクトルラッチ、24・・・・・・探索
ベクトル発生部、28・・・・・・評価値算出部、29
・・・・・・最小値検出部。 出願人 株式会社グラフィックス・コミュニケーション
・チクノロシーズ 菜1図 啼つヘ゛クト)し 第2図 (ハ龜f1A) 第6図 第7図 第8図 Gム3 第9図 oooo  ○ 0 第10図
FIG. 1 is a block diagram of the principle of this invention, FIG. 2 is a diagram showing an example of the structure of a hierarchical image, FIG. 3 is a block diagram showing the structure of an embodiment of this invention, and FIG. 4 is a hierarchical image generation unit 14. 5 is a diagram showing a current frame, FIG. 6 is a diagram showing a screen based on image data of the second layer, and FIG. 7 is for explaining motion vector detection in the second layer. , FIG. 8 is a diagram showing a screen based on the image data of the 1'th layer, FIG. 9 is a diagram for explaining motion vector detection in the 1st layer, and FIG. 1O is a diagram showing hierarchical image generation in FIG. 3. FIG. 11 is a block diagram showing another example of the configuration of the unit 14, FIG. 11 is a block diagram showing an application example of the present invention, and FIG. 12 is a diagram for explaining motion vectors. 11... Motion vector detection circuit, 14. [5...
...Hierarchical image generation unit, 16.17...Hierarchical image memory, 21...Address generation unit, 23.
... Initial vector latch, 24 ... Search vector generation section, 28 ... Evaluation value calculation section, 29
...Minimum value detection section. Applicant: Graphics Communication Co., Ltd. Figure 1 Figure 2 (Help f1A) Figure 6 Figure 7 Figure 8 Gm 3 Figure 9 oooo ○ 0 Figure 10

Claims (2)

【特許請求の範囲】[Claims] (1)第1のフレームと第2のフレームとの間における
画像の移動方向および移動距離を示す動ベクトルを検出
する動ベクトル検出方法において、前記第1のフレーム
の画像データおよび前記第2のフレームの画像データを
各々第1、第2のメモリに記憶させると共に、前記第1
のフレームの画像データおよび前記第2のフレームの画
像データを各々解像度を順次粗くした第1〜第Kの階層
画像データに変換して前記第1、第2のメモリに記憶さ
せ、最も解像度が粗い第Kの階層画像データを前記第1
、第2のメモリから読み出して動ベクトルを求め、次に
、第(K−1)の階層画像データを前記第1、第2のメ
モリから読み出し、この読み出したデータに基づき、上
記の動ベクトル算出結果を基準にして動ベクトルを求め
、以下、同様の処理を繰り返し、最後に、前記第1、第
2のフレームの画像データを前記第1、第2のメモリか
ら読み出し、この読み出したデータに基づき、第1の階
層画像データから算出した動ベクトルを基準にして動ベ
クトルを求め、この求めた結果を出力することを特徴と
する動ベクトル検出方法。
(1) In a motion vector detection method for detecting a motion vector indicating a moving direction and a moving distance of an image between a first frame and a second frame, the image data of the first frame and the second frame are detected. image data in the first and second memories, respectively, and
Converting the image data of the frame and the image data of the second frame into first to Kth hierarchical image data with sequentially coarser resolutions and storing them in the first and second memories, and storing the image data in the first and second memories with the coarsest resolution. The K-th hierarchical image data is
, read from the second memory to obtain a motion vector, then read the (K-1)th hierarchical image data from the first and second memories, and perform the above-mentioned motion vector calculation based on the read data. A motion vector is determined based on the result, and the same process is repeated.Finally, the image data of the first and second frames are read from the first and second memories, and based on the read data, the motion vector is calculated. A motion vector detection method, characterized in that a motion vector is determined based on a motion vector calculated from first hierarchical image data, and the determined result is output.
(2)上位の解像度の粗い階層画像データによって求め
た動ベクトルを、下位の解像度の細かい階層画像データ
に基づく処理において相殺し得るようにした特許請求範
囲第1項記載の動ベクトル検出方法。
(2) A motion vector detection method according to claim 1, in which a motion vector determined by higher resolution hierarchical image data with coarse resolution can be canceled out in processing based on lower resolution hierarchical image data with fine resolution.
JP63059879A 1988-03-14 1988-03-14 Moving vector detecting method Pending JPH01233893A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP63059879A JPH01233893A (en) 1988-03-14 1988-03-14 Moving vector detecting method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63059879A JPH01233893A (en) 1988-03-14 1988-03-14 Moving vector detecting method

Publications (1)

Publication Number Publication Date
JPH01233893A true JPH01233893A (en) 1989-09-19

Family

ID=13125876

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63059879A Pending JPH01233893A (en) 1988-03-14 1988-03-14 Moving vector detecting method

Country Status (1)

Country Link
JP (1) JPH01233893A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0233286A (en) * 1988-07-22 1990-02-02 Fujitsu Ltd Movement vector detection system
JPH0721391A (en) * 1992-12-16 1995-01-24 Internatl Business Mach Corp <Ibm> Method for encoding of position of change at inside of sequence of video image

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS55158784A (en) * 1979-05-28 1980-12-10 Nec Corp Inter-frame coding device
JPS61283292A (en) * 1985-06-10 1986-12-13 Nippon Telegr & Teleph Corp <Ntt> Optimum vector detection system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS55158784A (en) * 1979-05-28 1980-12-10 Nec Corp Inter-frame coding device
JPS61283292A (en) * 1985-06-10 1986-12-13 Nippon Telegr & Teleph Corp <Ntt> Optimum vector detection system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0233286A (en) * 1988-07-22 1990-02-02 Fujitsu Ltd Movement vector detection system
JPH0721391A (en) * 1992-12-16 1995-01-24 Internatl Business Mach Corp <Ibm> Method for encoding of position of change at inside of sequence of video image

Similar Documents

Publication Publication Date Title
US8532193B1 (en) Block error compensating apparatus of image frame and method thereof
US6931064B2 (en) Motion picture data converter, and computer product
JPS58197984A (en) Adaptive forecasting encoding device of television signal
JPH06141301A (en) Picture information compressor, expander and compander
US6930728B2 (en) Scan conversion apparatus
US8189102B2 (en) Image processing apparatus using interpolation direction
US5394190A (en) Video signal encoding apparatus
JPH0795591A (en) Digital picture signal processing unit
JP3946781B2 (en) Image information conversion apparatus and method
JPH01233893A (en) Moving vector detecting method
US9445122B2 (en) Encoding apparatus, encoding method, and a computer-readable recording medium
JP3362463B2 (en) Frame interpolation device
JPH07193789A (en) Picture information converter
JP4144339B2 (en) Video encoding method and video decoding method
JP2923875B2 (en) Video encoding device
JPH07212752A (en) Processing unit for digital picture signal
JP3799842B2 (en) Static video detection method and apparatus
JP2004349756A (en) Motion image coding apparatus, method, and motion image coding program
JP2001285882A (en) Device and method for reducing noise
JP3057966B2 (en) Motion compensation prediction device for interlaced video
JPH06197327A (en) Picture coder
JPH11355731A (en) Converting device and converting method for image signal and device and method for generating coefficient data used for them
JPH02222389A (en) Moving picture encoder
JPH06217294A (en) Image data compressing device and image data transmitting method
JPH07193790A (en) Picture information converter