JPH0832035B2 - Image coding method - Google Patents

Image coding method

Info

Publication number
JPH0832035B2
JPH0832035B2 JP1302898A JP30289889A JPH0832035B2 JP H0832035 B2 JPH0832035 B2 JP H0832035B2 JP 1302898 A JP1302898 A JP 1302898A JP 30289889 A JP30289889 A JP 30289889A JP H0832035 B2 JPH0832035 B2 JP H0832035B2
Authority
JP
Japan
Prior art keywords
block
frame
motion vector
motion
mvh
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP1302898A
Other languages
Japanese (ja)
Other versions
JPH03162178A (en
Inventor
俊也 ▲高▼橋
利秀 秋山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP1302898A priority Critical patent/JPH0832035B2/en
Priority to EP19900306804 priority patent/EP0405842A3/en
Priority to US07/541,734 priority patent/US5028996A/en
Publication of JPH03162178A publication Critical patent/JPH03162178A/en
Publication of JPH0832035B2 publication Critical patent/JPH0832035B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Description

【発明の詳細な説明】 産業上の利用分野 本発明は、画像信号の高能率符号化を行なう画像符号
化方法に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image coding method for performing highly efficient coding of image signals.

従来の技術 ディジタル化された画像信号の伝達速度は100Mbps以
上に達し、この信号を既存の通信回線を用いて、そのま
ま伝送することは、伝送容量、伝送コストの点から困難
である。高能率符号化は画像信号の冗長度を除去し、伝
送速度を低減する技術で、様々な方式の画像符号化方法
及び装置が、従来から提案されている。ここではそれら
のうち、一般的に用いられている、動き補償フレーム間
符号化方法及び直交変換符号化方法を例にとり説明す
る。
2. Description of the Related Art The transmission speed of a digitized image signal reaches 100 Mbps or more, and it is difficult to transmit this signal as it is using an existing communication line in terms of transmission capacity and transmission cost. High-efficiency coding is a technique for removing redundancy of an image signal and reducing transmission speed, and various types of image coding methods and devices have been conventionally proposed. Among them, the motion compensation interframe coding method and the orthogonal transform coding method, which are generally used, will be described as an example.

第5図は従来のフレーム間符号化方法の一例である、
動き補償フレーム間符号化による符号化装置のブロック
図である。第5図において、51は加算器、52は量子化
器、53は予測器、54は遅延回路、55は動き検出回路、56
は逆量子化器、57は加算器である。
FIG. 5 is an example of a conventional interframe coding method,
It is a block diagram of the encoding apparatus by motion compensation inter-frame encoding. In FIG. 5, 51 is an adder, 52 is a quantizer, 53 is a predictor, 54 is a delay circuit, 55 is a motion detection circuit, and 56
Is an inverse quantizer and 57 is an adder.

以上のように構成された動き補償フレーム間符号化装
置について、以下その動作を説明する。
The operation of the motion-compensated interframe coding apparatus configured as described above will be described below.

第5図において、入力された画像データは、加算器51
で現画像データと予測器53より出力された予測値が引か
れて予測誤差信号値となる。予測誤差信号値は、量子化
器52で量子化され符号化出力として出力されると同時
に、逆量子化器56にも送られ、逆量子化される。逆量子
化出力は加算器57で予測器53の予測出力と加算され局部
復号信号となる。局部復号信号は遅延回路54に送られ、
1フレーム遅延が施される。遅延回路54の出力は、予測
器53に入力され、次のフレームの予測値が生成される。
一方、入力された画像データは、加算器51に送られると
同時に動き検出回路55にも送られる。動き検出回路55で
は、現画像データと遅延回路54の出力である1フレーム
前の画像データとを、ある定められたm×nの大きさの
ブロックで比較し、最も相関が高いブロックを選択し、
同時にその動きベクトルを出力する。一般に動きの少な
い動画においてはフレーム間の画素間の相関が高く、予
測誤差信号の分散値は、入力信号の分散値に比べ小さく
なる。従って、フレーム間予測信号を符号化することに
より、高い圧縮率を実現できる。一方、動きが大きい画
像に対しては、フレーム間の相関が小さくなるため、効
率が低下するという欠点があった。しかし前記動き検出
に基づいて、フレーム間で動き補償を施すことにより、
動きの激しい画像でもフレーム間の相関が保たれるた
め、高い圧縮効率が得られることとなる。
In FIG. 5, the input image data is added by the adder 51.
Then, the current image data and the prediction value output from the predictor 53 are subtracted to form a prediction error signal value. The prediction error signal value is quantized by the quantizer 52 and output as a coded output, and at the same time, sent to the dequantizer 56 and dequantized. The inverse quantized output is added by the adder 57 to the prediction output of the predictor 53 to form a locally decoded signal. The locally decoded signal is sent to the delay circuit 54,
One frame delay is applied. The output of the delay circuit 54 is input to the predictor 53, and the predicted value of the next frame is generated.
On the other hand, the input image data is sent to the adder 51 and the motion detection circuit 55 at the same time. The motion detection circuit 55 compares the current image data with the image data of one frame before, which is the output of the delay circuit 54, in a block of a predetermined size of m × n, and selects the block having the highest correlation. ,
At the same time, the motion vector is output. Generally, in a moving image with little motion, the correlation between pixels between frames is high, and the variance value of the prediction error signal is smaller than the variance value of the input signal. Therefore, a high compression rate can be realized by encoding the inter-frame prediction signal. On the other hand, for images with large movements, there is a drawback that the efficiency decreases because the correlation between frames becomes small. However, by performing motion compensation between frames based on the motion detection,
A high compression efficiency can be obtained because the correlation between frames is maintained even in an image that moves rapidly.

また第6図は、従来のブロック符号化の一例である、
3次元直交変換符号化装置のブロック図を示すものであ
る。第6図において、61は3次元ブロック化回路、62は
直交変換回路、63は量子化器である。
Further, FIG. 6 shows an example of conventional block coding.
It is a block diagram of a three-dimensional orthogonal transformation coding device. In FIG. 6, 61 is a three-dimensional blocking circuit, 62 is an orthogonal transform circuit, and 63 is a quantizer.

以上のように構成された3次元直交変換符号化装置に
ついて、以下その動作を説明する。
The operation of the three-dimensional orthogonal transform coding device configured as described above will be described below.

第6図において、3次元ブロック化回路61に入力され
た画像入力データは、水平,垂直、時間方向を含めて3
次元ブロック化され、直交変換回路62で直交変換され
る。直交変換回路62の出力である、変換係数は、量子化
器63で、低シーケンシの係数は量子化ビット割当が多
く、高シーケンシの係数は量子化ビット割当が少なくな
るように量子化され、その後、量子化された変換係数
は、符号化出力として出力される。一般に自然画は、水
平,垂直,時間方向の画素間の相関が高く、直交変換係
数は低シーケンシにエネルギが多く、高シーケンシでは
小さい。従って、量子化する際に、前記のように高シー
ケンシの係数に少ないビットを割り当てても視覚的に劣
化が目立たず、画質劣化を抑えた圧縮が可能となる(例
えば、日刊工業新聞社刊、吹抜敬彦著“画像のディジタ
ル信号処理”第9章、またはprentice−hall刊、Ja−ya
nt他著“digital coding of waveform"第12章)。
In FIG. 6, the image input data input to the three-dimensional block forming circuit 61 is 3 including horizontal, vertical, and temporal directions.
It is made into a dimensional block and orthogonally transformed by the orthogonal transformation circuit 62. The transform coefficient output from the orthogonal transform circuit 62 is quantized by the quantizer 63 so that the low-sequential coefficient has many quantized bit allocations and the high-sequential coefficient has less quantized bit allocations. The quantized transform coefficient is output as an encoded output. Generally, a natural image has a high correlation between pixels in the horizontal, vertical, and temporal directions, and the orthogonal transform coefficient has a large amount of energy in a low sequence and a small amount in a high sequence. Therefore, when quantizing, even if a small number of bits are assigned to the high-sequency coefficient as described above, visual deterioration is not noticeable, and compression with suppressed image quality deterioration is possible (for example, published by Nikkan Kogyo Shimbun, Nobuhiko Fukibuki "Digital Signal Processing of Images" Chapter 9, or published by prentice-hall, Ja-ya
nt et al., "digital coding of waveform" Chapter 12).

発明が解決しようとする課題 しかしながら第5図のようなフレーム間相関を利用す
るような構成では、符号化信号は時間方向の連続性をも
ち、動画像の途中からの復号が困難であった。また、第
6図のような水平,垂直,時間方向の3次元を含む構成
では、動きの大きな画像の場合、時間方向の相関が低下
し、効率が下がるという問題点を有していた。
DISCLOSURE OF THE INVENTION Problems to be Solved by the Invention However, in the configuration using inter-frame correlation as shown in FIG. 5, the encoded signal has continuity in the time direction, and it is difficult to decode from the middle of the moving image. Further, in the structure including three dimensions in the horizontal, vertical and time directions as shown in FIG. 6, in the case of an image having a large motion, there is a problem that the correlation in the time direction is lowered and the efficiency is lowered.

本発明は上記問題点に鑑み、動画像の途中からの復号
が簡単に行なえ、かつ動きの大きな画像でも高い圧縮率
を実現できる画像符号化方法を提供するものである。
In view of the above problems, the present invention provides an image coding method that can easily perform decoding from the middle of a moving image and that can achieve a high compression rate even for a large moving image.

課題を解決するための手段 上記問題点を解決するために本発明の画像符号化方法
は、入力されたTフレームの画像データs(h,v,t)
を、第1フレームすなわちs(h,v,1)内でm(水平方
向)×n(垂直方向)画素ずつの2次元ブロックsb(x,
y,1)に分割し、隣接する第2フレームs(h,v,2)上
で、前記sb(x,y,1)に最も相関のあるm×nの大きさ
の2次元ブロックsb(x,y,2)を求め、同時に、水平方
向の動き量を示す水平動きベクトルmvh(x,y,2)及び垂
直方向の動き量を示す垂直動きベクトルmvv(x,y,2)を
求め次に隣接する第3フレームs(h,v,3)上で、前記s
b(x,y,2)に最も相関のあるm×nの大きさの2次元ブ
ロックsb(x,y,3)及び動きベクトルmvh(x,y,3),mvv
(x,y,3)を求め、以下同様にTフレームs(h,v,T)ま
で動き検出を行ない、各フレームにおける2次元ブロッ
クsb(x,y,t)及び動きベクトルmvh(x,y,t),mvv(x,
y,t)を求め、前記求めた2次元ブロック間の動き量よ
り、各tごとの動きベクトルmvh(x,y,t),mvv(x,y,
t)から、代表動きベクトルmvhr(t),mvvr(t)を各
フレームについて1種類求め、さらに前記代表動きベク
トルの第1フレームからの動き量をmvht(t)=mvhr
(2)+mvhr(3)+……+mvhr(t),mvvt(t)=m
vvr(2)+mvvr(3)+……+mvvr(t)とし、第t
フレームの画像データs(h,v,t)の画素インデクス
に、前記動き量mvht(t),mvvt(t)を加えて、s
(h−mvht(t),v−mvvt(t),t)とした上で、m×
n×T画素を含む3次元ブロックに分割し、前記3次元
ブロックをブロック符号化するものである。
Means for Solving the Problems In order to solve the above-mentioned problems, the image coding method of the present invention is such that the input T frame image data s (h, v, t)
In the first frame, that is, s (h, v, 1), a two-dimensional block sb (x, x) of m (horizontal direction) × n (vertical direction) pixels.
y, 1), and on the adjacent second frame s (h, v, 2), a two-dimensional block sb (mb) of size mxn that has the most correlation with the sb (x, y, 1). x, y, 2), and at the same time, a horizontal motion vector mvh (x, y, 2) indicating the amount of horizontal motion and a vertical motion vector mvv (x, y, 2) indicating the amount of vertical motion. On the next adjacent third frame s (h, v, 3), the s
Two-dimensional block sb (x, y, 3) of size m × n that is most correlated with b (x, y, 2) and motion vector mvh (x, y, 3), mvv
(X, y, 3) is obtained, and motion detection is performed up to T frames s (h, v, T) in the same manner, and the two-dimensional block sb (x, y, t) and motion vector mvh (x, y, t), mvv (x,
y, t) and the motion vector mvh (x, y, t), mvv (x, y,
From t), one type of representative motion vectors mvhr (t) and mvvr (t) is obtained for each frame, and the amount of movement of the representative motion vector from the first frame is mvht (t) = mvhr.
(2) + mvhr (3) + ... + mvhr (t), mvvt (t) = m
vvr (2) + mvvr (3) + ... + mvvr (t), and the t-th time
The motion amounts mvht (t) and mvvt (t) are added to the pixel index of the image data s (h, v, t) of the frame to obtain s
(H-mvht (t), v-mvvt (t), t), then mx
The block is divided into three-dimensional blocks including n × T pixels, and the three-dimensional blocks are block-coded.

作用 本発明は上記した方法によって、ブロック符号化を用
いることにより、時間方向のブロックごとに復号可能と
なるため、動画像の途中からの再生が可能となる。また
動き補償を行なっているため、時間方向の相関を高く保
て、動きの大きな画像に対しても、高い圧縮率が実現で
きることとなる。
Action The present invention makes it possible to decode each block in the time direction by using the block coding according to the method described above, so that the moving image can be reproduced from the middle. Further, since the motion compensation is performed, it is possible to maintain a high correlation in the time direction and realize a high compression rate even for an image with a large motion.

実施例 以下本発明の一実施例の画像符号化方法について、図
面を参照しながら説明する。
Embodiment An image coding method according to an embodiment of the present invention will be described below with reference to the drawings.

第1図は本発明の第1の実施例における画像符号化方
法の説明図である。以下第1図及び第2図を用いてその
動作を説明する。
FIG. 1 is an explanatory diagram of an image coding method in the first embodiment of the present invention. The operation will be described below with reference to FIGS. 1 and 2.

第1図において、1は第1フレームの画像データ、2
は第2フレームの画像データ、3は第3フレームの画像
データ、4は第1フレームと第2フレームの間の動きベ
クトル、5は第2フレームと第3フレームの間の動きベ
クトル、11は第1フレームにおける2次元ブロック、12
は第2フレームにおける2次元ブロック、31は第3フレ
ームにおける2次元ブロックである。また第2図におい
て、21は第1フレームの画像データの一部、22は第2フ
レームの画像データの一部、23は第3フレームの画像デ
ータの一部をそれぞれ示している。
In FIG. 1, 1 is image data of the first frame, 2
Is the image data of the second frame, 3 is the image data of the third frame, 4 is the motion vector between the first and second frames, 5 is the motion vector between the second and third frames, and 11 is the Two-dimensional block in one frame, 12
Is a two-dimensional block in the second frame, and 31 is a two-dimensional block in the third frame. Further, in FIG. 2, 21 is a part of the image data of the first frame, 22 is a part of the image data of the second frame, and 23 is a part of the image data of the third frame.

まず第2図は、第1図における各フレームの画像デー
タの水平、時間方向の2次元平面として描いた説明図
で、第2図の21は第1図における第1フレームの画像デ
ータ1の、第2図の22は第2フレームの画像データ2
の、第3図の23は第3フレームの画像データのそれぞれ
一部に相当する。第2図(a)は、動き検出をしない場
合の3次元ブロックの構成方法の説明図である。入力さ
れたTフレームの画像データs(h,v,t)(h:水平方向
の画素のインデクス、1≦h≦M、v:垂直方向の画素の
インデクス、1≦v≦N、t:時間方向の画素のインデク
ス、1≦t≦T)は、第1フレーム21において、まずm
×nの2次元ブロック21−1に分割され、さらに第2フ
レーム2では22−1というように同じ2次元の位置にお
いてとられ、以下時間方向にTフレームまでの前記2次
元ブロックをまとめて、m×n×Tの3次元ブロックと
なる。第2図では、時間方向のフレームは3フレームま
で例として描いてある。実際のブロッキングは、時間方
向にTフレームについて行なわれるものとする。動き検
出しない場合、あるいは動きが全くない場合は、第2図
(a)におけるような3次元ブロックを単位として、直
交変換などのブロック符号化が施される。次に第2図
(b)は、第2図の第1フレームから3フレームのデー
タに対し、動き検出をし、動きベクトル24,25,26を求め
たものである。この動きベクトルは以下のような手法で
求める。まず、入力された画像データのうち、基準とな
るフレームを定める。前記基準フレームを第2図(b)
において、第1フレームの画像データ21とする。まず、
第1フレームの画像データをm×nの2次元ブロック21
−1乃至21−5に分割する。前記2次元ブロックをsb
(1,1,1)乃至sb(5,1、1)(但し、sb(x,y,t)にお
いて、x:フレーム内の水平方向のブロック座標、1≦x
≦M/m、y:フレーム内の垂直方向のブロック座標、1≦
y≦N/n、t:フレームインデクス、1≦t≦T)と表
す。ここで、前記2次元ブロックにうち21−1を例にと
り説明する。第1フレーム上の2次元ブロック21−1
は、次に第2フレームに対して、一般の画像処理技術で
よく知られているブロックマッチングが施され、歪の最
も少ない、第2フレームにおけるm×nの2次元ブロッ
ク22−1′すなわちsb(1,1,2)が求められる。この時
の水平,垂直方向への移動量を、第1フレームの動きベ
クトル24とし、前記動きベクトルを水平方向の動き量を
示す水平動きベクトルmvh(1,1,2)、及び垂直方向の動
き量を示す垂直動きベクトルmvv(1,1,2)(但し、mvh
(x,y,t)、mvv(x,y,t)において、x:フレーム内の水
平方向のブロック座標、1≦x≦M/m、y:フレーム内の
垂直方向のブロック座標、1≦y≦N/n、t:フレームイ
ンデクス、1≦t≦T)として表す。第3フレームに対
しては、第2フレームで検出されたm×nの2次元ブロ
ック22−2′を基準として、同様の動きベクトルが高め
られる。以下、同様に、画面すべてについて、tフレー
ムまでの動きベクトルが求められる。以下の実施例にお
いて、簡単のため、前記検出された動きベクトルは、す
べて垂直方向の動き量mvv(x,y,t)=0として説明す
る。ところで、直交変換などのブロック符号化を行なう
場合、従来例で説明したように、第2図(a)における
21−1,22−1,23−1のように3次元ブロックを構成する
と、第2図(b)のような動きが検出された場合、実際
に動いているのは、21−1,22−1′,23−1′である
で、時間方向の相関が失われ、圧縮効率が低下する。従
って、3次元ブロックを第2図(c)のように動きベク
トル24,25に沿って、構成することが考えられる。しか
し、動きベクトルが、第2図(b)における24,26のよ
うに、同一フレーム内のすべての2次元ブロックで同じ
ではないため、動きベクトルに沿って3次元ブロックを
構成すると、第2図(c)における、2次元ブロック間
22−3′と22−4′あるいは23−3′と23−4′のごと
く、動きベクトルの異なるところで、穴あきが生ずるこ
ととなる。また逆に2次元ブロック間22−4′と22−
5′、あるいは23−4′と23−5′ではブロックの重な
りが生ずる。そこで各ブロックの水平及び垂直の動きベ
クトルが、あるしきい値vth以上の個数が同じ方向で、
かつ同一フレーム内のすべての動きベクトルの大きさが
ある範囲vwd含まれているとき、フレーム内で、水平及
び垂直方向それぞれについて代表動きベクトルmvhr
(t)、mvvr(t)(tはフレームインデクス)を1種
類求める。ここで、前記vth,vwhは実験的に定めるもの
とする。第2図(d)がこの例で、第2図(b)におけ
る動きベクトル26を、代表動きベクトルmvhr(1)とし
て定めた、同図24の動きベクトルでおきかえている。前
記した画面内の代表動きベクトルmvhr(t),mvvr
(t)は、フレーム内の各ブロックの動きベクトルのヒ
ストグラムをとり、前記ヒストグラムにおいて、頻度の
最も高いものとして求めることができる。あるいは、頻
度分布に偏りがなく、頻度のみでは定められない場合に
は、代表動きベクトルを、フレーム内の各ブロックの動
きベクトルのうち、最大値からi個、最小値からj個除
外した平均値とすればよい。ここで最大,最小値からそ
れぞれi個,j個除外するのは、動き検出における検出誤
りを除くためであり、i,jの個数は、それぞれの検出方
法において、実験的に定めればよい。もし、検出誤りが
全くない場合には、i,jは0でよい。次に、前記代表動
きベクトルの第1フレームからの動き量をmvht(t)=
mvhr(1)+mvhr(2)+……+mvhr(t),mvvt
(t)=mvvr(1)+mvvr(2)+……+mvvr(t)と
し、第tフレームの画像データs(h,v,t)の画素イン
デクスに、前記動き量mvht(t),mvvt(t)を加え
て、s(h+mvht(t),v+mvvt(t),t)とし、第2
図(a)と同様の方法で、m×n×T画素を含む3次元
ブロックを構成する。このように3次元ブロックを構成
すると、第2図(d)で示したように、フレーム内では
動きベクトルはすべて等しいので、第2図(c)におけ
るような穴あき等の問題は生じないこととなる。第1図
は、第2図(d)を3次元で示したもので、いま、動き
が水平方向のみとすれば、動きベクトルはh,t平面内の
ベクトルとなる。そこで、各フレーム内で代表ベクトル
4,5を選び、前記したような方法を用いて3次元ブロッ
クを構成する。3次元ブロックは第1図において11,21,
31のように構成される。以上の実施例において、フレー
ム内の大部分の動きベクトルが等しいということは、画
面全体のパニングを意味する。従って、第1図のように
ブロッキングすれば、最適な動き補償を施すこととな
り、第1図で示したような3次元ブロックをブロック符
号化することにより、時間方向の相関が保たれ、圧縮効
率を高くすることができる。
First, FIG. 2 is an explanatory view drawn as a two-dimensional plane in the horizontal and time directions of the image data of each frame in FIG. 1, and 21 in FIG. 2 indicates the image data 1 of the first frame in FIG. 22 in FIG. 2 is image data 2 of the second frame
23 in FIG. 3 corresponds to a part of the image data of the third frame. FIG. 2 (a) is an explanatory diagram of a method of constructing a three-dimensional block when motion is not detected. Input T-frame image data s (h, v, t) (h: horizontal pixel index, 1 ≦ h ≦ M, v: vertical pixel index, 1 ≦ v ≦ N, t: time Direction pixel index, 1 ≦ t ≦ T), in the first frame 21, first, m
It is divided into two-dimensional blocks 21-1 of × n, and is taken at the same two-dimensional position such as 22-1 in the second frame 2, and the two-dimensional blocks up to T frames are collected in the time direction below. It becomes a three-dimensional block of m × n × T. In FIG. 2, up to three frames in the time direction are drawn as an example. The actual blocking shall be performed for T frames in the time direction. When no motion is detected, or when there is no motion, block coding such as orthogonal transformation is performed in units of the three-dimensional block as shown in FIG. 2 (a). Next, FIG. 2 (b) shows motion vectors 24, 25 and 26 obtained by performing motion detection on the data of the first to third frames in FIG. This motion vector is obtained by the following method. First, of the input image data, a reference frame is determined. The reference frame is shown in FIG. 2 (b).
In, the image data 21 of the first frame is used. First,
The image data of the first frame is converted into an m × n two-dimensional block 21.
-1 to 21-5. Sb the two-dimensional block
(1,1,1) to sb (5,1,1) (where sb (x, y, t), x: horizontal block coordinate in the frame, 1 ≦ x
≤ M / m, y: vertical block coordinates in the frame, 1 ≤
y ≦ N / n, t: frame index, 1 ≦ t ≦ T). Here, 21-1 of the two-dimensional blocks will be described as an example. Two-dimensional block 21-1 on the first frame
Next, the second frame is subjected to block matching, which is well known in general image processing technology, to obtain the least distorted m × n two-dimensional block 22-1 ′ or sb in the second frame. (1,1,2) is required. The amount of movement in the horizontal and vertical directions at this time is defined as the motion vector 24 of the first frame, and the motion vector is a horizontal motion vector mvh (1,1,2) indicating the amount of movement in the horizontal direction, and the vertical motion. Vertical motion vector indicating amount mvv (1,1,2) (however, mvh
In (x, y, t) and mvv (x, y, t), x: horizontal block coordinate in the frame, 1 ≦ x ≦ M / m, y: vertical block coordinate in the frame, 1 ≦ y ≦ N / n, t: frame index, 1 ≦ t ≦ T). For the third frame, a similar motion vector is enhanced with reference to the m × n two-dimensional block 22-2 ′ detected in the second frame. Hereinafter, similarly, motion vectors up to t frames are obtained for all the screens. In the following embodiments, for the sake of simplicity, it is assumed that the detected motion vectors are all vertical motion amounts mvv (x, y, t) = 0. By the way, in the case of performing block coding such as orthogonal transform, as described in the conventional example, as shown in FIG.
When a three-dimensional block such as 21-1, 22-1, and 23-1 is configured, when a motion as shown in FIG. 2B is detected, the actual motion is 21-1, 22. Since it is -1 'and 23-1', the correlation in the time direction is lost and the compression efficiency is reduced. Therefore, it is conceivable to construct a three-dimensional block along the motion vectors 24 and 25 as shown in FIG. However, since the motion vector is not the same in all the two-dimensional blocks in the same frame like 24 and 26 in FIG. 2 (b), if a three-dimensional block is configured along the motion vector, the two-dimensional blocks in FIG. Between two-dimensional blocks in (c)
As shown in 22-3 'and 22-4' or 23-3 'and 23-4', holes are formed at different motion vectors. Conversely, between the two-dimensional blocks 22-4 'and 22-
Block overlap occurs at 5 ', or at 23-4' and 23-5 '. Therefore, the horizontal and vertical motion vectors of each block are in the same direction when the number is equal to or greater than a certain threshold vth,
When the magnitudes of all motion vectors in the same frame are included in a certain range vwd, the representative motion vector mvhr in the horizontal and vertical directions in the frame, respectively.
One type of (t) and mvvr (t) (t is a frame index) is obtained. Here, the vth and vwh are experimentally determined. In this example, FIG. 2 (d) replaces the motion vector 26 in FIG. 2 (b) with the motion vector of FIG. 24 defined as the representative motion vector mvhr (1). The representative motion vector mvhr (t), mvvr in the above-mentioned screen
(T) is a histogram of the motion vector of each block in the frame, and can be obtained as the one with the highest frequency in the histogram. Alternatively, when the frequency distribution is not biased and cannot be determined only by the frequency, the average value obtained by excluding the representative motion vector from the maximum value i and the minimum value j from the motion vectors of each block in the frame. And it is sufficient. The i and j numbers are excluded from the maximum and minimum values, respectively, in order to eliminate detection errors in motion detection, and the numbers of i and j may be determined experimentally in each detection method. If there is no detection error, i, j may be 0. Next, the motion amount from the first frame of the representative motion vector is calculated as mvht (t) =
mvhr (1) + mvhr (2) + …… + mvhr (t), mvvt
(T) = mvvr (1) + mvvr (2) + ... + mvvr (t), and the movement amounts mvht (t), mvvt (m) are added to the pixel index of the image data s (h, v, t) of the t-th frame. t) is added to obtain s (h + mvht (t), v + mvvt (t), t), and the second
A three-dimensional block including m × n × T pixels is constructed in the same manner as in FIG. When the three-dimensional block is constructed in this way, as shown in FIG. 2D, since the motion vectors are all the same in the frame, there is no problem such as perforation as in FIG. 2C. Becomes FIG. 1 is a three-dimensional view of FIG. 2 (d). If the motion is only in the horizontal direction, the motion vector is a vector in the h, t plane. So, in each frame, the representative vector
Select 4 and 5, and construct a three-dimensional block using the method described above. The three-dimensional block is 11,21,
It is constructed like 31. In the above embodiments, the fact that most of the motion vectors in a frame are the same means panning of the entire screen. Therefore, if blocking is performed as shown in FIG. 1, optimal motion compensation is performed, and by coding the three-dimensional block as shown in FIG. 1, block-direction correlation is maintained and compression efficiency is improved. Can be higher.

第3図は、本発明の第2の実施例を示す画像符号化方
法の説明図である。第3図も第2図と同様、各フレーム
のデータを水平,時間方向の2次元平面として描いたも
ので、同図において21,22,23は第1の実施例と同じもの
である。第2図(a)は、第1フレームを2次元ブロッ
ク化し、前記ブロックを基準として、動き検出を行なっ
た結果を示す説明図で、22−1′,23−1′は第1フレ
ーム目の2次元ブロック21−1を基準として求めたそれ
ぞれ第2,第3フレーム目の2次元ブロックで、24,31,33
は第1と第2、25,32,34は第2と第3フレーム間の動き
ベクトルである。第2図(b)は以下の実施例に示す方
法を用いて動きベクトルを再発生し、前記再発生させた
動きベクトルによって3次元ブロックを構成する方法を
示す説明図である。また、第3図(c)は第3図(a)
と異なる動きベクトルの検出結果を示す説明図である。
第2図の実施例において、第1の実施例と異なるのは、
3次元ブロックの構成方法である。第1の実施例と同様
の方法で検出した動きベクトルが、第1の実施例のよう
にフレーム内の大部分の動きベクトルが同じ方向を向い
ているのではなく、第2図(a)に示すように、第2,第
3フレームと進むにつれて、動きベクトルが、2次元ブ
ロック22−2′,23−3′を中心として集まるとする。
このような場合には、動きベクトルの方向が異なるた
め、第1の実施例のように、代表動きベクトルをフレー
ム内で一意に定めることはできない。また一意に定めた
として、前記ベクトルを用いて3次元ブロックを構成し
ても、時間方向の相関を高くすることができない。ま
た、第3図(a)で示した動きベクトルに沿って3次元
ブロックを構成すれば、時間方向の相関は最も高くなる
が、23−1′及び23−2′のブロックの間には、図に示
すように穴あき、すなわち符号化できない部分が生じて
しまう。このような動きベクトルが求まるのはズームし
た時などである。そこで本実施例では、まず動きの中心
である中心ブロック21−3,22−3,23−3を以下のように
求める。水平方向の動き量を示す前記動きベクトルmvh
(x,y,t)が0である個数hz(x,t)を垂直方向のブロッ
クについてフレームt内で計算し、前記個数hz(x,t)
が最も多い水平方向のブロック座標を、前記中心ブロッ
クの水平方向のブロック座標cxとし、垂直方向の動き量
を示す前記動きベクトルmvv(x,y,t)が0である個数vz
(y,t)を水平方向のブロックについてフレームt内で
計算し,前記個数vz(y,t)が最も多い垂直方向のブロ
ック座標cyを、前記中心ブロックの垂直方向のブロック
座標とする。あるいは、水平方向の動き量を示す前記動
きベクトルmvh(x,y,t)のうち、0が連続する個数hcz
(x,t)を垂直方向のブロックについてフレームt内で
計算し、前記個数hcz(x,t)が最も多い水平方向のブロ
ック座標cxを、前記中心ブロックの水平方向のブロック
座標とし、垂直方向の動き量を示す前記動きベクトルmv
v(x,y,t)のうち、0が連続する個数vcz(y,t)を水平
方向のブロックについてフレームt内で計算し、前記個
数vcz(y,t)が最も多い垂直方向のブロック座標cyを、
前記中心ブロックの垂直方向のブロック座標とする。後
者の方法は、装置化する際には、前者に比べて若干複雑
になるが、動きベクトルの誤検出がある場合、誤検出で
求まった動き量=0のベクトルを排除できるので、有効
である。
FIG. 3 is an explanatory diagram of an image coding method showing a second embodiment of the present invention. Similar to FIG. 2, FIG. 3 also depicts the data of each frame as a two-dimensional plane in the horizontal and time directions. In FIG. 3, reference numerals 21, 22 and 23 are the same as those in the first embodiment. FIG. 2 (a) is an explanatory view showing the result of motion detection using the first frame as a two-dimensional block and the block as a reference. 22-1 'and 23-1' are the first frame. The 2D blocks of the 2nd and 3rd frames obtained by using the 2D block 21-1 as a reference are 24, 31, 33
Are the first and second frames, and 25, 32, and 34 are motion vectors between the second and third frames. FIG. 2B is an explanatory diagram showing a method of regenerating a motion vector using the method shown in the following embodiment and forming a three-dimensional block by the regenerated motion vector. Also, FIG. 3 (c) is FIG. 3 (a).
6 is an explanatory diagram showing a detection result of a motion vector different from that of FIG.
The embodiment of FIG. 2 differs from the first embodiment in that
This is a method of constructing a three-dimensional block. The motion vector detected by the same method as that of the first embodiment is not shown in FIG. 2 (a) instead of the fact that most motion vectors in the frame are directed in the same direction as in the first embodiment. As shown, it is assumed that the motion vectors gather around the two-dimensional blocks 22-2 'and 23-3' as the second and third frames progress.
In such a case, since the direction of the motion vector is different, the representative motion vector cannot be uniquely determined within the frame as in the first embodiment. Further, assuming that the vector is uniquely defined, even if a three-dimensional block is constructed using the vector, the correlation in the time direction cannot be increased. Further, if a three-dimensional block is constructed along the motion vector shown in FIG. 3 (a), the correlation in the time direction becomes the highest, but between the blocks 23-1 'and 23-2', As shown in the figure, there is a hole, that is, a portion that cannot be encoded. Such a motion vector is obtained when zooming. Therefore, in this embodiment, first, the center blocks 21-3, 22-3, 23-3, which are the centers of motion, are obtained as follows. The motion vector mvh indicating the amount of horizontal motion
The number hz (x, t) in which (x, y, t) is 0 is calculated in the frame t for the block in the vertical direction, and the number hz (x, t) is calculated.
The horizontal direction block coordinate of the central block is the horizontal direction block coordinate cx, and the number vz of the motion vector mvv (x, y, t) indicating 0 in the vertical direction is 0.
(Y, t) is calculated for the horizontal block in the frame t, and the vertical block coordinate cy having the largest number vz (y, t) is set as the vertical block coordinate of the central block. Alternatively, in the motion vector mvh (x, y, t) indicating the amount of motion in the horizontal direction, the number hcz in which 0 is continuous
(X, t) is calculated for a vertical block in the frame t, and the horizontal block coordinate cx having the largest number hcz (x, t) is set as the horizontal block coordinate of the central block, and Motion vector mv indicating the amount of motion of
Of v (x, y, t), the number vcz (y, t) in which 0 is consecutive is calculated in the frame t for horizontal blocks, and the vertical block having the largest number vcz (y, t). Coordinate cy,
The block coordinates in the vertical direction of the central block are used. The latter method is a little more complicated than the former when it is implemented as a device, but if there is an erroneous detection of a motion vector, the vector of motion amount = 0 obtained by the erroneous detection can be eliminated, so it is effective. .

次に代表動きベクトル35,36,39,40を以下の方法で求
める。各フレーム内の動きベクトルのうち、画面の端点
を含むブロックを除き、前記中心ブロックからそれぞれ
ブロック座標x′,x″離れたブロックの動きベクトルmv
h(cx−x′,y,t),mvh(cx+x″,y,t)の1<y<N/n
の範囲のヒストグラムをとり、前記ヒストグラムで頻度
が最も多いものをそれぞれ水平方向の代表動きベクトル
mvhr1(t),mvhr2(t)とし、各フレーム内の動きベ
クトルのうち、画面の端点を含むブロックを除き、前記
中心ブロックからそれぞれブロック座標y′,y″離れた
ブロックの動きベクトルmvv(x,cy−y′,t),mvh(x,c
y+y′,t),の1<x<M/mの範囲のヒストグラムをと
り、前記ヒストグラムで頻度が最も多いものを垂直方向
の代表動きベクトルmvvr1(t)、mvvr2(t)とする。
本実施例では、垂直方向の動きはないので、水平方向の
代表動きベクトルのみを求める。いま、x′=x″=2,
cx=3とすると、mvh(3−2,y,t),mvh(3+2,y,t)
の1<y<N/nの範囲でそれぞれヒストグラムを計算す
る。次に、前記ヒストグラムで頻度が最も多いものを垂
直方向の代表動きベクトルすなわち、第3図(b)の35
がmvhr1(2)、39がmvhr2(2)、36がmvhr1(3)、4
0がmvhr2(3)として求まることとなる。あるいは、頻
度分布に偏りがなく、頻度のみでは定められない場合に
は、動き量の最大値からi個、最小値からj個除外した
平均値を代表動きベクトルとする。ここで最大,最小値
からそれぞれi個,j個除外するのは、動き検出における
検出誤りを除くためであり、i,jの個数は、それぞれの
検出方法において、実験的に定めればよい。もし、検出
誤りが全くない場合には、i,jは0でよい。以上のよう
にして、求めた中心ブロック及び代表動きベクトルを用
いて、各ブロックの水平及び垂直方向の再発生動きベク
トルmvht′(x,y,t),mvvt′(x,y,t)を次の式より算
出する。
Next, the representative motion vectors 35, 36, 39, 40 are obtained by the following method. Of the motion vectors in each frame, the motion vector mv of the block apart from the central block by the block coordinates x ′, x ″, excluding the block including the end points of the screen.
h (cx−x ′, y, t), mvh (cx + x ″, y, t) 1 <y <N / n
The histogram of the range is taken, and the one with the highest frequency in the histogram is the representative motion vector in the horizontal direction.
mvhr1 (t) and mvhr2 (t), and among the motion vectors in each frame, except for the block including the end point of the screen, the motion vectors mvv (x , cy−y ′, t), mvh (x, c
y + y ′, t), 1 <x <M / m, and the histogram with the highest frequency is used as the vertical representative motion vectors mvvr1 (t) and mvvr2 (t).
In this embodiment, since there is no motion in the vertical direction, only the horizontal representative motion vector is obtained. Now x ′ = x ″ = 2,
If cx = 3, mvh (3-2, y, t), mvh (3 + 2, y, t)
Histograms are calculated in the range of 1 <y <N / n. Next, the one with the highest frequency in the histogram is the representative motion vector in the vertical direction, that is, 35 in FIG. 3 (b).
Is mvhr1 (2), 39 is mvhr2 (2), 36 is mvhr1 (3), 4
0 will be obtained as mvhr2 (3). Alternatively, when the frequency distribution is not biased and cannot be determined by the frequency alone, an average value obtained by excluding i pieces from the maximum value and j pieces from the minimum value is set as the representative motion vector. The i and j numbers are excluded from the maximum and minimum values, respectively, in order to eliminate detection errors in motion detection, and the numbers of i and j may be determined experimentally in each detection method. If there is no detection error, i, j may be 0. As described above, the regenerated motion vector mvht ′ (x, y, t), mvvt ′ (x, y, t) in the horizontal and vertical directions of each block is calculated using the obtained central block and representative motion vector. Calculate from the following formula.

mvh′(x,y,t)=mvhr1(t)*(cx−x)/(cx−
x′) (但しx<cx)……(1) mvh′(x,y,t)=mvhr2(t)*(x−cx)/(x″−c
x) (但しx≧cx)……(2) mvv′(x,y,t)=mvrv1(t)*(cy−y)/(cy−
y′) (但しy<cy)……(3) mvv′(x,y,t)=mvrv2(t)*(y−cy)/(y″−c
y) (但しy≧cy)……(4) ここで、cx,cyは中心ブロックのブロック座標、mvhr1
(t),mvhr2(t),mvvr1(t),mvvr2(t)は代表動
きベクトル、x′は前記代表動きベクトルmvhr1(t)
を求めた際のブロック座標、以下mvrh2(t)に対して
x″、mvvr1(t)に対してy′、mvvr2(t)に対して
y″が対応する。または、以下のような式を用いても良
い。
mvh ′ (x, y, t) = mvhr1 (t) * (cx−x) / (cx−
x ′) (where x <cx) (1) mvh ′ (x, y, t) = mvhr2 (t) * (x−cx) / (x ″ −c
x) (however, x ≧ cx) (2) mvv ′ (x, y, t) = mvrv1 (t) * (cy−y) / (cy−
y ′) (where y <cy) (3) mvv ′ (x, y, t) = mvrv2 (t) * (y−cy) / (y ″ −c
y) (however y ≧ cy) (4) where cx, cy are the block coordinates of the central block, mvhr1
(T), mvhr2 (t), mvvr1 (t), mvvr2 (t) are representative motion vectors, and x'is the representative motion vector mvhr1 (t).
In the following, the block coordinates correspond to x ″ for mvrh2 (t), y ′ for mvvr1 (t), and y ″ for mvvr2 (t). Alternatively, the following formula may be used.

mvh′(x,y,t)=mvhr1(t)*(cx-x)2/(cx-x′)2 (但しx<cx)……(5) mvh′(x,y,t)=mvhr2(t)*(x-cx)2/(x″-cx)2 (但しx≧cx)……(6) mvv′(x,y,t)=mvvr1(t)*(cy-y)2/(cy-y′)2 (但しy<cy)……(7) mvv′(x,y,t)=mvvr2(t)*(y-cy)2/(y″-cy)2 (但しy≧cy)……(8) (1)〜(4)式と(5)〜(8)式のどちらを用いる
かは、画像に適用してより最適な補償を得られるものを
選択する。
mvh '(x, y, t) = mvhr1 (t) * (cx-x) 2 / (cx-x') 2 (where x <cx) (5) mvh '(x, y, t) = mvhr2 (t) * (x-cx) 2 / (x ″ -cx) 2 (where x ≧ cx) (6) mvv ′ (x, y, t) = mvvr1 (t) * (cy-y) 2 / (cy-y ′) 2 (where y <cy) …… (7) mvv ′ (x, y, t) = mvvr2 (t) * (y-cy) 2 / (y ″ -cy) 2 ( However, y ≧ cy) (8) Whether to use equations (1) to (4) and equations (5) to (8) is selected so that more optimal compensation can be obtained by applying to the image. .

次に前記再発生した動きベクトルmvh′(x,y,t),mv
v′(x,y,t)を用いて、各ブロックの第1フレームから
の動き量をmvht′(x,y,t)=mvhr′(x,y,1)+mvhr′
(x,y,2)+……+mvhr′(x,y,t)、mvvt′(x,y,t)
=mvvr′(x,y,1)+mvvr′(x,y,2)+……+、mvvr′
(x,y,t)とし、第tフレームの画像データs(h,v,t)
の画素インデクスに、前記動き量mvht′(x,y,t)、mvv
t′(x,y,t)を加えて、s(h+mvht′(x,y,t),v+m
vvt′(x,y,t)、t)として、第tフレームにおける2
次元ブロックsb′(x,y,t)を求め、前記2次元ブロッ
クsb′(x,y,t)を、連続したTフレームをまとめて、
m×n×T画素をふくむ3次元ブロックを構成する。こ
のようにすることにより第3図(a)に示すようなブロ
ック間の穴あきもなく、時間方向の相関も保たれる。従
って、前記3次元ブロックをブロック符号化することに
より、高い圧縮効率が実現できることとなる。また、第
2の実施例においては、21は第1のフレームの画像デー
タ、22は第2のフレームの画像データとしていたが、画
像がズームアップするときなどは、第3図(c)に示し
たような、第3図(a)とは、時間関係が全く逆の動き
ベクトルが検出されてしまう。このようなベクトルが検
出された場合には、改めて時間方向に最も遅いフレーム
を基準として動きブクトルの検出を行なう。すなわち、
前記基準フレームをTフレームとすれば、T,T−1、…
………,3,2,1フレームの順に動き検出を行なう。このよ
うにすることにより、第3図(c)に示したような動き
ベクトルは、等価的に第3図(a)と同様の動きベクト
ルとなる。従って、第2の実施例と同様の方法で、効果
的な圧縮が可能となる。
Next, the regenerated motion vector mvh ′ (x, y, t), mv
Using v ′ (x, y, t), the amount of motion of each block from the first frame is mvht ′ (x, y, t) = mvhr ′ (x, y, 1) + mvhr ′
(X, y, 2) + …… + mvhr ′ (x, y, t), mvvt ′ (x, y, t)
= Mvvr '(x, y, 1) + mvvr' (x, y, 2) + ... +, mvvr '
(X, y, t), the image data s (h, v, t) of the t-th frame
To the pixel index of mvht ′ (x, y, t), mvv
Adding t '(x, y, t), s (h + mvht' (x, y, t), v + m
vvt ′ (x, y, t), t), 2 in the t-th frame
A two-dimensional block sb ′ (x, y, t) is obtained, and the two-dimensional block sb ′ (x, y, t) is combined into a continuous T frame,
A three-dimensional block including m × n × T pixels is constructed. By doing so, there is no hole between blocks as shown in FIG. 3 (a), and the correlation in the time direction is maintained. Therefore, high compression efficiency can be realized by block-coding the three-dimensional block. Further, in the second embodiment, 21 is the image data of the first frame and 22 is the image data of the second frame. However, when the image is zoomed in, it is shown in FIG. 3 (c). As described above, a motion vector whose time relationship is completely opposite to that of FIG. 3A is detected. When such a vector is detected, the motion vector is detected again with reference to the latest frame in the time direction. That is,
If the reference frame is a T frame, T, T-1, ...
..... Motion detection is performed in the order of 3,2,1 frames. By doing so, the motion vector shown in FIG. 3 (c) is equivalently the same motion vector as in FIG. 3 (a). Therefore, effective compression can be performed by the same method as in the second embodiment.

第4図は、本発明の第3の実施例を示す画像符号化方
法の説明図である。第4図も第2図,第3図と同様、各
フレームの画像データを水平,時間方向の2次元平面と
して描いたもので、同図において21,22,23は第2の実施
例と同じものである。また第3図同様、第4図でも、1
フレームの画像データの水平方向は5ブロックによって
構成されているとし、21−1,21−5は第1フレームの、
22−1,22−5は第2フレームの、23−5は第3フレーム
の画像データの端のブロックを表すものとする。いま、
第1の実施例に示したように、各フレーム内をそれぞれ
41,42の代表動きベクトルを用いて3次元のブロッキン
グをするものとする。第4図(a)は、ブロッキングし
た結果を示す図で、21−2乃至21−5は正常にブロッキ
ングされているが、21−1,22−1は第3フレームに画像
データがなくブロッキングできない。また、22−5,23−
5は基準となる2次元ブロックが第1フレームにないた
めブロッキングされず、以上の画像データは、このまま
では符号化されないため画像データが失われてしまう。
そこで本実施例では、4図(b)において矢印で示した
ように、22−5及び23−5を同じフレームのもう一方の
端、すなわち22−5は22−1に、23−5は23−1に隣接
して配置し直し、21−1を41,42の動きベクトルを用い
てブロッキングし、3次元ブロックを構成する。その上
でブロック符号化を行なう。復号の際には、逆の手順に
より、22−5及び23−5を正しい位置に配置し直して復
号画像とする。以上の方法により、画面の端点も符号化
されることとなる。第4図(c),(d)は画面の端点
を符号化する第2の方法を示した説明図である。いま、
第4図(c)のように、第2の実施例で示した方法を用
いて3次元ブロックを構成したとする。図中、点線がブ
ロックの境界で各ブロックは図中太線で示す動きベクト
ルに沿って構成されている。第4図(c)でも第4図
(b)と同様、画面の端点22−0,23−0,22−6,23−7に
符号化できない領域が生ずる。これは、前記3次元ブロ
ックが第2フレーム以降、互いに重なって構成されてい
るためである。第4図(d)は端点を符号化する第2の
方法で、21−0及び21−6としてそれぞれ新しい、動き
ベクトルを用いない従来の方法に基づいた3次元ブロッ
クを構成して、第2の実施例で示した3次元ブロックと
は別に符号化する方法である。この時、21−0及び21−
6は第1フレームではそれぞれ21−1,21−5に等しい。
第4図(e),(f)は他の方法を示す説明図である。
第4図(e)では、第4図(c)のように検出された動
きベクトルのうち、第1フレームの画像の端点を含むブ
ロック21−1,21−5を基準として求めた動きベクトル、
24,25,26,27を用いて新しいブロック21−0,21−6を構
成する。このとき基準となるフレームを、第4図(c)
とは時間的に逆のフレーム、すなわち23とする。第4図
(e)は、3フレームで1つの3次元ブロックを構成し
た例である。この場合、21−0,21−6の基準2次元ブロ
ックは、第3フレーム23−0,23−6となる。このように
するのは、符号化されていない画素が、第3フレーム23
で最も多いためである。次に動きベクトル24,25,26,27
を用いて、3次元ブロックを構成する。第4図(f)
は、第4図(e)で示した前記3次元ブロックの構成の
詳細を示す説明図である。同図において、21,22,23,21
−0,23−0は第4図(e)と同様のもので、第4図
(e)の21−0,22−0,23−0に該当するブロックを拡大
して示している。いま、第3フレームの端点を含む2次
元ブロック23−0を基準として、第4図(e)における
動きベクトル24,25を用いて3次元ブロックを構成する
が、第2フレーム及び第1フレームには、それぞれ44,4
3にあたる部分の画像データが存在しない。そこで、44
には、45で示した23−0の一部を、43には44及び22−0
の一部を矢印のように補充して3次元ブロックとし、前
記3次元ブロックを新たなブロックとしてブロック符号
化する。このようにすることにより、時間方向の相関が
ブロック内で保たれるため、第4図(b)で示したよう
な方法と比べ、高い圧縮率でかつ画質の良い画面の端点
ブロックの符号化が可能となる。なお、第3の実施例で
は、第1の方法を第1の実施例と組み合わせて、第2,第
3の方法を第2の実施例と組み合わせて説明したが、こ
れに限るものではなく第1の方法と第2の実施例、第2,
第3の実施例と第1の実施例を組み合わせることも可能
である。
FIG. 4 is an explanatory diagram of an image coding method showing a third embodiment of the present invention. Similar to FIGS. 2 and 3, FIG. 4 also depicts the image data of each frame as a two-dimensional plane in the horizontal and time directions. In FIG. 4, reference numerals 21, 22, 23 are the same as those in the second embodiment. It is a thing. Also, as in FIG. 3, in FIG.
It is assumed that the image data of the frame is composed of 5 blocks in the horizontal direction, and 21-1 and 21-5 are the first frame,
22-1 and 22-5 represent the blocks of the second frame, and 23-5 represents the end blocks of the image data of the third frame. Now
As shown in the first embodiment,
It is assumed that three-dimensional blocking is performed using the representative motion vectors of 41 and 42. FIG. 4 (a) is a diagram showing the result of blocking. 21-2 to 21-5 are normally blocked, but 21-1 and 22-1 cannot be blocked because there is no image data in the third frame. . Also, 22-5,23-
In No. 5, since the reference two-dimensional block is not present in the first frame, it is not blocked, and the above image data is not encoded as it is, so the image data is lost.
Therefore, in this embodiment, as shown by the arrows in FIG. 4 (b), 22-5 and 23-5 are the other ends of the same frame, that is, 22-5 is 22-1 and 23-5 is 23. It is rearranged adjacent to -1, and 21-1 is blocked using the motion vectors of 41 and 42 to form a three-dimensional block. Then, block coding is performed. At the time of decoding, the reverse procedure is used to rearrange 22-5 and 23-5 at correct positions to obtain a decoded image. By the above method, the end points of the screen will also be encoded. FIGS. 4 (c) and 4 (d) are explanatory views showing a second method for encoding the end points of the screen. Now
As shown in FIG. 4C, it is assumed that a three-dimensional block is constructed by using the method shown in the second embodiment. In the figure, the dotted lines are the boundaries of the blocks, and each block is configured along the motion vector indicated by the bold line in the figure. In FIG. 4 (c) as well, as in FIG. 4 (b), there are areas that cannot be coded at the end points 22-0, 23-0, 22-6, 23-7 of the screen. This is because the three-dimensional blocks overlap each other after the second frame. FIG. 4 (d) shows a second method for coding the end points, which is a new three-dimensional block based on the conventional method without using motion vectors as 21-0 and 21-6. This is a method of encoding separately from the three-dimensional block shown in the embodiment. At this time, 21-0 and 21-
6 is equal to 21-1 and 21-5 in the first frame, respectively.
FIGS. 4 (e) and 4 (f) are explanatory views showing another method.
In FIG. 4 (e), among the motion vectors detected as shown in FIG. 4 (c), the motion vector obtained based on the blocks 21-1 and 21-5 including the end points of the image of the first frame,
A new block 21-0, 21-6 is constructed using 24, 25, 26, 27. At this time, the reference frame is shown in FIG.
The frame is opposite in time to, that is, 23. FIG. 4 (e) is an example in which three frames form one three-dimensional block. In this case, the reference two-dimensional blocks 21-0 and 21-6 are the third frames 23-0 and 23-6. This is done because the uncoded pixels are
Because it is the most. Then motion vector 24,25,26,27
Is used to construct a three-dimensional block. Figure 4 (f)
FIG. 7 is an explanatory diagram showing details of the configuration of the three-dimensional block shown in FIG. 4 (e). In the figure, 21,22,23,21
-0 and 23-0 are the same as those in FIG. 4 (e), and the blocks corresponding to 21-0, 22-0, and 23-0 in FIG. 4 (e) are enlarged and shown. Now, with the two-dimensional block 23-0 including the end points of the third frame as a reference, a three-dimensional block is constructed using the motion vectors 24 and 25 in FIG. 4 (e). Are 44,4 respectively
There is no image data for part 3. So 44
Part of 23-0 indicated by 45, and 43 and 44 and 22-0
Are partially supplemented as indicated by arrows to form a three-dimensional block, and the three-dimensional block is block-encoded as a new block. By doing so, since the correlation in the time direction is maintained within the block, as compared with the method shown in FIG. 4 (b), the encoding of the end point block of the screen having a high compression rate and good image quality is performed. Is possible. In the third embodiment, the first method is combined with the first embodiment and the second and third methods are combined with the second embodiment. However, the present invention is not limited to this. 1 method and 2nd execution example, 2nd,
It is also possible to combine the third embodiment and the first embodiment.

また、以上の実施例では、すべて垂直方向の動きを0
として説明したが、これに限るものではなく、垂直方向
についても水平方向と全く同様の方法を用いることがで
きる。
Further, in the above embodiments, all the movement in the vertical direction is 0.
However, the present invention is not limited to this, and the same method can be used for the vertical direction as for the horizontal direction.

発明の効果 以上のように本発明は、動きベクトルを用いて3次元
ブロックを構成し、前記3次元ブロックをブロック符号
化することにより、時間的な相関を高く保てるため、効
果的に高い圧縮効率が実現できる。またブロック符号化
を用いているので、画像の途中からの復号が可能とな
る。
EFFECTS OF THE INVENTION As described above, according to the present invention, since a three-dimensional block is configured using motion vectors and the three-dimensional block is block-encoded, the temporal correlation can be kept high, so that the compression efficiency is effectively high. Can be realized. Moreover, since block coding is used, decoding can be performed from the middle of the image.

【図面の簡単な説明】[Brief description of drawings]

第1図は本発明の第1の実施例における画像符号化方法
の説明図、第2図は各フレームの画像データの2次元平
面上での説明図、第3図は本発明の第2の実施例を示す
画像符号化方法の説明図、第4図は本発明の第3の実施
例を示す画像符号化方法の説明図、第5図は従来のフレ
ーム間符号化方法を示すブロック図、第6図は3次元直
交変換符号化装置のブロック図である。 1……第1フレームの画像データ、2……第2フレーム
の画像データ、3……第3フレームの画像データ、4…
…第1フレームと第2フレームの間の動きベクトル、5
……第2フレームと第3フレームの間の動きベクトル、
11……第1フレームにおける2次元ブロック、12……第
2フレームにおける2次元ブロック、31……第3フレー
ムにおける2次元ブロック、21……第1フレームの画像
データの一部、22……第2フレームの画像データの一
部、23……第3フレームの画像データの一部、24,25,2
6,27,31〜42……動きベクトル、51……加算器、52……
量子化器、53……予測器、54……遅延回路、55……動き
検出回路、56……逆量子化器、57……加算器、61……3
次元ブロック化回路、62……直交変換回路、63……量子
化器。
FIG. 1 is an explanatory diagram of an image encoding method in the first embodiment of the present invention, FIG. 2 is an explanatory diagram of image data of each frame on a two-dimensional plane, and FIG. 3 is a second diagram of the present invention. FIG. 4 is an explanatory diagram of an image encoding method showing an embodiment, FIG. 4 is an explanatory diagram of an image encoding method showing a third embodiment of the present invention, and FIG. 5 is a block diagram showing a conventional interframe encoding method, FIG. 6 is a block diagram of a three-dimensional orthogonal transform coding device. 1 ... Image data of first frame, 2 ... Image data of second frame, 3 ... Image data of third frame, 4 ...
... Motion vector between the first and second frames, 5
... The motion vector between the second and third frames,
11 ... Two-dimensional block in first frame, 12 ... Two-dimensional block in second frame, 31 ... Two-dimensional block in third frame, 21 ... Part of image data in first frame, 22 ... Part of image data of 2 frames, 23 ... Part of image data of 3rd frame, 24,25,2
6,27,31〜42 …… Motion vector, 51 …… Adder, 52 ……
Quantizer, 53 ... predictor, 54 ... delay circuit, 55 ... motion detection circuit, 56 ... dequantizer, 57 ... adder, 61 ... 3
Dimensional blocking circuit, 62 ... Orthogonal transformation circuit, 63 ... Quantizer.

Claims (14)

【特許請求の範囲】[Claims] 【請求項1】入力されたTフレームの画像データs(h,
v,t) (h:水平方向の画素のインデクス、1≦h≦M、 v:垂直方向の画素のインデクス、1≦v≦N、 t:時間方向の画素のインデクス1≦t≦T) を、第1フレームすなわちs(h,v,1)内でm(水平方
向)×n(垂直方向)画素ずつの2次元ブロックsb(x,
y,1)(x:フレーム内の水平方向のブロック座標、1≦
x≦M/m、y:フレーム内の垂直方向のブロック座標、1
≦y≦N/n)に分割し、隣接する第2フレームs(h,v,
2)上で、前記sb(x,y,1)に最も相関のあるm×nの大
きさの2次元ブロックsb(x,y,2)を求め同時に、水平
方向の動き量を示す水平動きベクトルmvh(x,y,2)及び
垂直方向の動き量を示す垂直動きベクトルmvv(x,y,2)
を求め、次に隣接する第3フレームs(h,v,3)上で、
前記sb(x,y,2)に最も相関のあるmxnの大きさの2次元
ブロックsb(x,y,3)及び動きベクトルmvh(x,y,3),mv
v(x,y,3)を求め、以下同様にTフレームs(h,v,T)
まで動き検出を行ない各フレームにおける2次元ブロッ
クsb(x,y,t)及び動きベクトルmvh(x,y,t),mvv(x,
y,t)を求め、前記求めた2次元ブロック間の動き量よ
り各tごとの動きベクトルmvh(x,y,t)、mvv(x,y,t)
から代表動きベクトルmvhr(t),mvvr(t)を各フレ
ームについて1種類求め、さらに前記代表動きベクトル
の第1フレームからの動き量を mvht(t)=mvhr(2)+mvhr(3)+……+mvhr
(t)、 mvvt(t)=mvvr(2)+mvvr(3)+……+mvvr
(t)とし、 第tフレームの画像データs(h,v,t)の画素インデク
スに、前記動き量mvht(t),mvvt(t)を加えて、s
(h−mvht(t),v−mvvt(t),t)とした上でm×n
×T画素を含む3次元ブロックに分割し、前記3次元ブ
ロックをブロック符号化することを特徴とする画素符号
化方法。
1. Image data s (h,
v, t) (h: horizontal pixel index, 1 ≦ h ≦ M, v: vertical pixel index, 1 ≦ v ≦ N, t: temporal pixel index 1 ≦ t ≦ T) , A two-dimensional block sb (x, x) of m (horizontal direction) × n (vertical direction) pixels in the first frame, that is, s (h, v, 1).
y, 1) (x: horizontal block coordinates in the frame, 1 ≤
x ≦ M / m, y: vertical block coordinates in the frame, 1
≦ y ≦ N / n) and the adjacent second frames s (h, v,
2) above, the two-dimensional block sb (x, y, 2) of m × n size that is most correlated with the sb (x, y, 1) is obtained, and at the same time, the horizontal movement indicating the amount of horizontal movement Vector mvh (x, y, 2) and vertical motion vector mvv (x, y, 2) indicating the amount of motion in the vertical direction
On the next adjacent third frame s (h, v, 3),
A two-dimensional block sb (x, y, 3) having a size of mxn and a motion vector mvh (x, y, 3), mv most correlated with the sb (x, y, 2)
v (x, y, 3) is calculated, and T frame s (h, v, T)
2D block sb (x, y, t) and motion vector mvh (x, y, t), mvv (x,
y, t), and the motion vectors mvh (x, y, t) and mvv (x, y, t) for each t based on the calculated amount of motion between the two-dimensional blocks.
One representative motion vector mvhr (t), mvvr (t) is obtained for each frame, and the motion amount of the representative motion vector from the first frame is mvht (t) = mvhr (2) + mvhr (3) +. … + Mvhr
(T), mvvt (t) = mvvr (2) + mvvr (3) + ... + mvvr
(T), the motion amounts mvht (t) and mvvt (t) are added to the pixel index of the image data s (h, v, t) of the t-th frame to obtain s.
(H-mvht (t), v-mvvt (t), t) and then m × n
A pixel coding method, characterized by dividing into a three-dimensional block including × T pixels, and block-coding the three-dimensional block.
【請求項2】代表動きベクトルmvhr(t),mvvr(t)
を、フレーム内の各ブロックの動きベクトルmvh(x,y,
t),mvv(x,y,t)のヒストグラムをそれぞれとり、前記
ヒストグラムで頻度の高いものをそれぞれ選択すること
を特徴とする請求項(1)記載の画像符号化方法。
2. Representative motion vectors mvhr (t), mvvr (t)
Is the motion vector mvh (x, y,
The image coding method according to claim 1, wherein histograms of t) and mvv (x, y, t) are respectively taken, and ones having a high frequency are selected from the histograms.
【請求項3】代表動きベクトルmvhr(t),mvvr(t)
を、フレーム内の各ブロックの動きベクトルmvh(x,y,
t),mvv(x,y,t)のうち、最大値からi個、最小値から
j個除外した平均値とすることを特徴とする請求項
(1)記載の画像符号化方法。
3. Representative motion vectors mvhr (t), mvvr (t)
Is the motion vector mvh (x, y,
The image coding method according to claim 1, wherein among t) and mvv (x, y, t), the average value is obtained by removing i from the maximum value and j from the minimum value.
【請求項4】入力されたTフレームの画像データs(h,
v,t) (h:水平方向の画素のインデクス、1≦h≦M、 v:垂直方向の画素のインデクス、1≦v≦N、 t:時間方向の画素のインデクス1≦t≦T)を、第1フ
レームすなわちs(h,v,1)内でm(水平方向)×n
(垂直方向)画素ずつの2次元ブロックsb(x,y,1)
(x:フレーム内の水平方向のブロック座標、1≦x≦M/
m、y:フレーム内の垂直方向のブロック座標、1≦y≦N
/n)に分割し、隣接する第2フレームs(h,v,2)上
で、前記sb(x,y,1)に最も相関のあるm×nの大きさ
の2次元ブロックsb(x,y,2)を求め、同時に水平方向
の動き量を示す水平動きベクトルmvh(s,y,2)及び垂直
方向の動き量を示す垂直動きベクトルmvv(x,y,2)を求
め、次に隣接する第3フレームs(h,v,3)上で、前記s
b(x,y,2)に最も相関のあるm×nの大きさの2次元ブ
ロックsb(x,y,3)及び動きベクトルmvh(x,y,3),mvv
(x,y,3)を求め、以下同様にTフレームs(h,v,T)ま
で動き検出を行ない各フレームにおける2次元ブロック
sb(x,y,t)及び動きベクトルmvh(x,y,t),mvv(x,y,
t)を求め、前記各ブロックごとの動きベクトルmvh(x,
y,t),mvv(x,y,t)から動きの中心である中心ブロック
と水平方向の動きベクトルmvh(x,y,t)のうち符号の異
なる代表動きベクトルmvhr1(t),mvhr2(t)及び垂
直方向の動きベクトルmvv(x,y,t)のうち符号の異なる
代表動きベクトルmvvr1(t),mvvr2(t)を各フレー
ムごとに求め、前記中心ブロックと代表動きベクトルmv
hr1(t),mvhr2(t),mvvr1(t),mvvr2(t)から
新しい動きベクトルを生成してmvh′(x,y,t),mvv′
(x,y,t)とし、前記再発生した動きベクトルmvh′(x,
y,t),mvv′(x,y,t)を用いて、各ブロックの第1フレ
ームからの動き量をmvht′(x,y,t)=mvhr′(x,y,2)
+mvhr′(x,y,3)+……+mvhr′(x,y,t)、mvvt′
(x,y,t)=mvvr′(x,y,2)+mvvr′(x,y,3)+……
+mvvr′(x,y,t)として求め、第tフレームの画像デ
ータs(h,v,t)の画素インデクスに前記動き量mvht′
(x,y,t),mvvt′(x,y,t)を加えて、s(h+mvht′
(x,y,t)、V+mvvt′(x,y,t),t)とした上でm×n
×T画素を含む3次元ブロックに分割し、前記3次元ブ
ロックをブロック符号化することを特徴とする画像符号
化方法。
4. Image data s (h,
v, t) (h: horizontal pixel index, 1 ≦ h ≦ M, v: vertical pixel index, 1 ≦ v ≦ N, t: temporal pixel index 1 ≦ t ≦ T) , M (horizontal direction) × n in the first frame, that is, s (h, v, 1)
(Vertical direction) Two-dimensional block of pixels sb (x, y, 1)
(X: horizontal block coordinates in the frame, 1≤x≤M /
m, y: vertical block coordinates in the frame, 1≤y≤N
/ n), and on the adjacent second frame s (h, v, 2), the two-dimensional block sb (x) having a size of m × n that is most correlated with the sb (x, y, 1). , y, 2), and at the same time, the horizontal motion vector mvh (s, y, 2) indicating the horizontal motion amount and the vertical motion vector mvv (x, y, 2) indicating the vertical motion amount are calculated. On the third frame s (h, v, 3) adjacent to
Two-dimensional block sb (x, y, 3) of size m × n that is most correlated with b (x, y, 2) and motion vector mvh (x, y, 3), mvv
(X, y, 3) is calculated, and motion detection is performed up to T frames s (h, v, T) in the same manner, and a two-dimensional block in each frame is obtained.
sb (x, y, t) and motion vector mvh (x, y, t), mvv (x, y,
t), and the motion vector mvh (x,
The representative motion vectors mvhr1 (t), mvhr2 (mvhr1 (t), mvhr2 (y, t), mvv (x, y, t) of which the sign is different among the center block which is the center of motion and the horizontal motion vector mvh (x, y, t) t) and the motion vector mvv (x, y, t) in the vertical direction, representative motion vectors mvvr1 (t), mvvr2 (t) with different signs are obtained for each frame, and the central block and the representative motion vector mv are obtained.
A new motion vector is generated from hr1 (t), mvhr2 (t), mvvr1 (t), mvvr2 (t) and mvh '(x, y, t), mvv'
(X, y, t), the regenerated motion vector mvh ′ (x,
y, t), mvv ′ (x, y, t), the motion amount of each block from the first frame is mvht ′ (x, y, t) = mvhr ′ (x, y, 2)
+ mvhr ′ (x, y, 3) + …… + mvhr ′ (x, y, t), mvvt ′
(X, y, t) = mvvr ′ (x, y, 2) + mvvr ′ (x, y, 3) + ……
+ Mvvr ′ (x, y, t), and the motion amount mvht ′ is added to the pixel index of the image data s (h, v, t) of the t-th frame.
(X, y, t), mvvt ′ (x, y, t) is added, and s (h + mvht ′
(X, y, t), V + mvvt ′ (x, y, t), t), and then m × n
An image coding method, characterized by dividing into three-dimensional blocks including × T pixels, and block-coding the three-dimensional blocks.
【請求項5】水平方向の動き量を示す動きベクトルmvh
(x,y,t)が0である個数hz(x,t)を垂直方向のブロッ
クについてフレームt内で計算し、前記個数hz(x,t)
が最も多い水平方向のブロック座標を、中心ブロックの
水平方向のブロック座標cxとし、垂直方向の動き量を示
す前記動きベクトルmvv(x,y,t)が0である個数vz(y,
t)を水平方向のブロックについてフレームt内で計算
し、前記個数vz(y,t)が最も多い垂直方向のブロック
座標cyを、前記中心ブロックの垂直方向のブロック座標
とすることを特徴とする請求項(4)記載の画像符号化
方法。
5. A motion vector mvh indicating a horizontal motion amount.
The number hz (x, t) in which (x, y, t) is 0 is calculated in the frame t for the block in the vertical direction, and the number hz (x, t) is calculated.
The horizontal block coordinate having the largest number is the horizontal block coordinate cx of the central block, and the number vz (y, t) of the motion vector mvv (x, y, t) indicating 0 in the vertical direction is 0.
t) is calculated for a horizontal block in the frame t, and the vertical block coordinates cy having the largest number vz (y, t) are set as the vertical block coordinates of the central block. The image coding method according to claim 4.
【請求項6】水平方向の動き量を示す動きベクトルmvh
(x,y,t)のうち、0が連続する個数hcz(x,t)を垂直
方向のブロックについてフレームt内で計算し、前記個
数hcz(x,t)が最も多い水平方向のブロック座標cxを、
中心ブロックの水平方向のブロック座標とし、垂直方向
の動き量を示す前記動きベクトルmvv(x,y,t)のうち、
0が連続する個数vcz(y,t)を水平方向のブロックにつ
いてフレームt内で計算し、前記個数vcz(y,t)が最も
多い垂直方向のブロック座標cyを、前記中心ブロックの
垂直方向のブロック座標とすることを特徴とする請求項
(4)記載の画像符号化方法。
6. A motion vector mvh indicating a horizontal motion amount.
Of (x, y, t), the number hcz (x, t) in which 0 is continuous is calculated in the frame t for the block in the vertical direction, and the block coordinate in the horizontal direction in which the number hcz (x, t) is the largest is calculated. cx,
Of the motion vector mvv (x, y, t), which is the horizontal block coordinate of the central block and indicates the amount of motion in the vertical direction,
The number vcz (y, t) of consecutive 0s is calculated in the frame t for the horizontal block, and the vertical block coordinate cy having the largest number vcz (y, t) is calculated in the vertical direction of the central block. The image coding method according to claim 4, wherein block coordinates are used.
【請求項7】水平方向の代表動きベクトルmvhr1
(t)、mvhr2(t)を、各フレーム内の動きベクトル
のうち画面の端点を含むブロックを除き、中心ブロック
からそれぞれブロック座標x′,x″離れたブロックの動
きベクトルmvh(cx−x′,y,t),mvh(cx+x″,y,t)
の1<y<N/nの範囲のヒストグラムをとり、前記ヒス
トグラムで頻度が最も多いものをそれぞれ水平方向の代
表動きベクトルmvhr1(t),mvhr2(t)とし、垂直方
向の前記代表動きベクトルmvvr1(t),mvvr2(t)
を、各フレーム内の動きベクトルのうち画面の端点を含
むブロックを除き、前記中心ブロックからそれぞれブロ
ック座標y′、y″離れたブロックの動きベクトルmvv
(x,cy−y′,t),mvh(x,cy+y″,t)の1<x<M/m
の範囲のヒストグラムをとり、前記ヒストグラムで頻度
が最も多いものを垂直方向の代表動きベクトルmvvr1
(t),mvvr2(t)とすることを特徴とする請求項
(4)記載の画像符号化方法。
7. A representative motion vector mvhr1 in the horizontal direction.
(T) and mvhr2 (t) are the motion vectors mvh (cx-x ') of the blocks distant from the central block by the block coordinates x', x ", excluding the block including the end points of the screen among the motion vectors in each frame. , y, t), mvh (cx + x ″, y, t)
1 <y <N / n, and the histograms with the highest frequency are designated as horizontal representative motion vectors mvhr1 (t) and mvhr2 (t), and the vertical representative motion vector mvvr1 (T), mvvr2 (t)
Among the motion vectors in each frame, except for the block including the end point of the screen, the motion vector mvv of the block distant from the central block by the block coordinates y ′ and y ″.
(X, cy−y ′, t), mvh (x, cy + y ″, t) 1 <x <M / m
The histogram of the range is taken, and the one with the highest frequency in the histogram is used as the representative motion vector mvvr1 in the vertical direction.
(T) and mvvr2 (t) are set, The image coding method of Claim (4) characterized by the above-mentioned.
【請求項8】水平方向の代表動きベクトルmvhr1(t),
mvhr2(t)を、画面の端点を含むブロックを除き、各
フレーム内の動きベクトルのうち水平の動き量を示す水
平代表動きベクトルを、中心ブロックからブロック座標
x′,x″離れたブロックの動きベクトルmvh(cx−x′,
y,t),mvh(cx+x″,y,t)のうち、動き量の最大値か
らi個、最小値からj個除外した平均値をそれぞれ水平
方向の代表動きベクトルmvhr1(t),mvhr2(t)と
し、垂直方向の前記代表動きベクトルmvvr1(t),mvvr
2(t)を、前記中心ブロックからy′,y″離れたブロ
ックの動きベクトルmvv(x,cy−y′,t),mvh(x,cy+
y″,t)のうち、動き量の最大値からi個、最小値から
j個除外した平均値をそれぞれ垂直方向の代表動きベク
トルmvvr1(t),mvvr2(t)とすることを特徴とする
請求項(4)記載の画像符号化方法。
8. A representative motion vector mvhr1 (t) in the horizontal direction,
In mvhr2 (t), except for the block including the end point of the screen, the horizontal representative motion vector indicating the horizontal motion amount among the motion vectors in each frame is calculated as the motion of the block distant from the central block by the block coordinates x ′, x ″. Vector mvh (cx−x ′,
Of the y, t) and mvh (cx + x ″, y, t), the average values obtained by excluding i pieces from the maximum value and j pieces from the minimum value of the motion amount are representative motion vectors mvhr1 (t) and mvhr2 (h) in the horizontal direction, respectively. t), the vertical representative motion vector mvvr1 (t), mvvr
2 (t) is the motion vector mvv (x, cy-y ', t), mvh (x, cy + of the block y', y "away from the central block.
Of the y ″, t), the average value obtained by excluding i from the maximum value of the motion amount and j from the minimum value is set as the representative motion vectors mvvr1 (t) and mvvr2 (t) in the vertical direction, respectively. The image coding method according to claim 4.
【請求項9】再発生動きベクトルmvh′(x,y,t),mvv′
(x,y,t)を、中心ブロックのブロック座標cx,cy、代表
動きベクトルmvhr1(t),mvhr2(t),mvvr1(t),mv
vr2(t)、前記代表動きベクトルmvhr1(t)を求めた
際のブロック座標x′、以下mvhr2(t)に対して
x″、mvvr1(t)に対してy′、mvvr2(t)に対して
y″を用いて、 mvh′(x,y,t)=mvhr1(t)*(cx−x)/(cx−
x′) (但しx<cx)、 mvh′(x,y,t)=mvhr2(t)*(x−cx)/(x″−c
x) (但しx≧cx)、 mvv′(x,y,t)=mvvr1(t)*(cy−y)/(cy−
y′) (但しy<cy)、 mvv′(x,y,t)=mvvr2(t)*(y−cy)/(y″−c
y) (但しy≧cy) のように計算して生成することを特徴とする請求項
(4)記載の画像符号化方法。
9. A regenerated motion vector mvh '(x, y, t), mvv'
(X, y, t) is the block coordinate cx, cy of the central block, and the representative motion vectors mvhr1 (t), mvhr2 (t), mvvr1 (t), mv
vr2 (t), block coordinates x'when the representative motion vector mvhr1 (t) is obtained, hereinafter x "for mvhr2 (t), y'for mvvr1 (t), and for mvvr2 (t) And y ″, mvh ′ (x, y, t) = mvhr1 (t) * (cx−x) / (cx−
x ′) (where x <cx), mvh ′ (x, y, t) = mvhr2 (t) * (x−cx) / (x ″ −c
x) (where x ≧ cx), mvv ′ (x, y, t) = mvvr1 (t) * (cy−y) / (cy−
y ′) (where y <cy), mvv ′ (x, y, t) = mvvr2 (t) * (y−cy) / (y ″ −c
y) The image encoding method according to claim (4), wherein y) (where y ≧ cy) is calculated and generated.
【請求項10】再発生動きベクトルmvh′(x,y,t),mv
v′(x,y,t)を、cx,cy,mvr1(t),mvhr2(t),mvvr1
(t),mvvr2(t),x′,x″,y′,y″を用いて、 mvh′(x,y,t)=mvhr1(t)*(cx-x)2/(cx-x′)2 (但しx<cx)、 mvh′(x,y,t)=mvhr2(t)*(x-cx)2/(x″-cx)2 (但しx≧cx)、 mvv′(x,y,t)=mvvr1(t)*(cy-y)2/(cy-y′)2 (但しy<cy)、 mvv′(x,y,t)=mvvr2(t)*(y-cy)2/(y″-cy)2 (但しy≧cy) のように計算して生成することを特徴とする請求項
(4)記載の画像符号化方法。
10. A regenerated motion vector mvh '(x, y, t), mv
v ′ (x, y, t) is replaced by cx, cy, mvr1 (t), mvhr2 (t), mvvr1
Using (t), mvvr2 (t), x ′, x ″, y ′, y ″, mvh ′ (x, y, t) = mvhr1 (t) * (cx-x) 2 / (cx-x ′) 2 (where x <cx), mvh ′ (x, y, t) = mvhr2 (t) * (x-cx) 2 / (x ″ -cx) 2 (where x ≧ cx), mvv ′ (x , y, t) = mvvr1 (t) * (cy-y) 2 / (cy-y ') 2 (where y <cy), mvv' (x, y, t) = mvvr2 (t) * (y- The image coding method according to claim (4), wherein the image coding method is performed by calculating as follows: cy) 2 / (y ″ -cy) 2 (where y ≧ cy).
【請求項11】動きベクトルを、動きベクトルの基準と
なるフレームをTフレーム目の画像データs(h,v,T)
とし、隣接する(T−1)フレームの画像データs(h,
v,T−1)との間で動き検出し、最も相関の高いm×n
の大きさの2次元ブロックを求め、以下同様に第1フレ
ームs(h,v,1)まで動き検出を行なって求めることを
特徴とする請求項(1)または(4)記載の画像符号化
方法。
11. A motion vector, and a frame serving as a reference of the motion vector is image data s (h, v, T) of the Tth frame.
, And image data s (h,
v, T-1), the motion is detected, and the highest correlation m × n
The image coding according to claim (1) or (4), wherein a two-dimensional block having a size of 1 is obtained, and then motion detection is similarly performed up to the first frame s (h, v, 1). Method.
【請求項12】3次元ブロックのうち、水平または垂直
の端点を含むブロックを、連続したTフレーム間で動き
ベクトルを0として3次元ブロックを構成し、前記3次
元ブロックをブロック符号化することを特徴とする請求
項(1)または(4)記載の画像符号化方法。
12. A block including a horizontal or vertical end point of a three-dimensional block is configured as a three-dimensional block with a motion vector set to 0 between consecutive T frames, and the three-dimensional block is block-encoded. The image coding method according to claim 1, which is characterized in that:
【請求項13】3次元ブロックのうち、画素データがな
くブロック化できない場合には、不足した画素を同一フ
レーム内の画素の保持により、3次元ブロックを構成
し、前記3次元ブロックをブロック符号化することを特
徴とする請求項(1)または(4)記載の画像符号化方
法。
13. If three-dimensional blocks cannot be formed into blocks because there is no pixel data, the three-dimensional blocks are formed by retaining the pixels in the same frame that lack pixels, and the three-dimensional blocks are block-encoded. The image coding method according to claim 1, wherein the image coding method comprises:
【請求項14】3次元ブロックのうち、画素データがな
くブロック化できない場合には、不足した画素を他のフ
レームの画素の保持により、3次元ブロックを構成し、
前記3次元ブロックをブロック符号化することを特徴と
する請求項(1)または(4)記載の画像符号化方法。
14. If three-dimensional blocks cannot be formed into blocks because there is no pixel data, the three-dimensional blocks are constructed by holding the pixels of other frames in other frames,
The image coding method according to claim 1, wherein the three-dimensional block is block-coded.
JP1302898A 1989-06-26 1989-11-21 Image coding method Expired - Lifetime JPH0832035B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP1302898A JPH0832035B2 (en) 1989-11-21 1989-11-21 Image coding method
EP19900306804 EP0405842A3 (en) 1989-06-26 1990-06-21 Picture coding method
US07/541,734 US5028996A (en) 1989-06-26 1990-06-21 Picture coding method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1302898A JPH0832035B2 (en) 1989-11-21 1989-11-21 Image coding method

Publications (2)

Publication Number Publication Date
JPH03162178A JPH03162178A (en) 1991-07-12
JPH0832035B2 true JPH0832035B2 (en) 1996-03-27

Family

ID=17914436

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1302898A Expired - Lifetime JPH0832035B2 (en) 1989-06-26 1989-11-21 Image coding method

Country Status (1)

Country Link
JP (1) JPH0832035B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5098107B1 (en) 2010-12-08 2012-12-12 株式会社アトティス Water glass paint composition

Also Published As

Publication number Publication date
JPH03162178A (en) 1991-07-12

Similar Documents

Publication Publication Date Title
CN1117482C (en) Method for encoding video signal using feature point based motion estimation
US8320470B2 (en) Method for spatial error concealment
US20210051329A1 (en) Method and apparatus for video signal processing using sub-block based motion compensation
JPH07231450A (en) Filter device and method for reducing artifact in moving video picture signal system
JPS634756B2 (en)
JPS62203496A (en) Highly efficient encoding system for animation picture signal
US4488175A (en) DPCM Video signal processing technique with spatial subsampling
US5028996A (en) Picture coding method
JP2684941B2 (en) Image encoding method and image encoding device
JP2010154264A (en) Image decoding apparatus and image encoding apparatus
KR20000053028A (en) Prediction method and device with motion compensation
Chang et al. Precise and fast error tracking for error-resilient transmission of H. 263 video
JP3466162B2 (en) Image decoding apparatus and image decoding method
KR100227560B1 (en) Method and apparatus for limiting moving image band
JP3426668B2 (en) Video coding method
US7995657B2 (en) Intelligent water ring scan apparatus and method based on quality factor, and video encoding/decoding apparatus and method using the same
JP4592562B2 (en) Image decoding device
JPH01228384A (en) Moving image coding system using area division
JPH0832035B2 (en) Image coding method
KR100377190B1 (en) Method for video encoding including intra update based on the estimated error probabilities using the size of bitstream for each block
JP2507199B2 (en) Image coding method and apparatus
JPH0750839A (en) Coding method for motion picture
CN111357288B (en) Video image processing method and device
JP2887168B2 (en) Method for reducing block distortion of reproduced image
KR100778471B1 (en) Method for encoding or decoding of video signal