JPH07240923A - Image encoding method - Google Patents

Image encoding method

Info

Publication number
JPH07240923A
JPH07240923A JP3104994A JP3104994A JPH07240923A JP H07240923 A JPH07240923 A JP H07240923A JP 3104994 A JP3104994 A JP 3104994A JP 3104994 A JP3104994 A JP 3104994A JP H07240923 A JPH07240923 A JP H07240923A
Authority
JP
Japan
Prior art keywords
image
motion vector
motion
vector
block
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP3104994A
Other languages
Japanese (ja)
Other versions
JP3561943B2 (en
Inventor
Kazunori Yasuda
和徳 安田
Katsumi Tawara
勝己 田原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP3104994A priority Critical patent/JP3561943B2/en
Publication of JPH07240923A publication Critical patent/JPH07240923A/en
Application granted granted Critical
Publication of JP3561943B2 publication Critical patent/JP3561943B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PURPOSE:To prevent a motion vector from being erroneously detected and to reduce the amount of generated codes. CONSTITUTION:The absolute value sum of difference between a block A of a present frame and a block A' of a preceding frame is calculated at a differentiator 3 and a cumulative adder 4, for example, and this is defined as residual. On the other hand, a weight calculator 13 or 14 respectively calculates weight W1 or W2 based on the motion vector detected in the past. Then, a computing element 5 calculates the weighted residual, for which the weight W1 and W2 is multiplied to the residual, and a vector indicating the position of the block A' to apply the minimum weighted residual from the position of the block A is defined as the motion vector at a minimum value detection circuit 6.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、例えば動画像を符号化
して、伝送あるいは記録媒体に記録するテレビ会議シス
テムや、テレビ電話システム、放送用機器、ディスク装
置、テープ装置などに用いて好適な画像符号化方法に関
する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention is suitable for use in, for example, a video conference system which encodes a moving image and transmits or records it in a recording medium, a video telephone system, a broadcasting device, a disk device, a tape device or the like. The present invention relates to an image coding method.

【0002】[0002]

【従来の技術】例えば、従来のテレビ会議システムやテ
レビ電話システムなどのように、動画像信号を遠隔地に
伝送するシステムにおいては、伝送路を効率良く利用す
るために、画像信号を、そのライン相関やフレーム間相
関を利用して圧縮符号化するようになされている。
2. Description of the Related Art In a system for transmitting a moving image signal to a remote place such as a conventional video conference system or a video telephone system, for example, an image signal is transmitted to a line in order to efficiently use a transmission line. The compression coding is performed by using the correlation and the inter-frame correlation.

【0003】ライン相関を利用した場合には、画像信号
を、例えばDCT(離散コサイン変換)処理などの直交
変換処理することによって圧縮することができる。
When the line correlation is used, the image signal can be compressed by an orthogonal transform process such as a DCT (discrete cosine transform) process.

【0004】また、フレーム間相関を利用した場合に
は、画像信号をさらに圧縮することが可能となる。即
ち、例えば図8に示すように、時刻t1,t2(但し、
例えばt1<t2で、t2−t1は、フレーム周期に等
しい値であるとする)において、フレーム画像PC1,
PC2がそれぞれ発生しているとき、例えばフレーム画
像PC1に対するPC2の差を演算して、差分画像PC
12を生成する。そして、この差分画像PC12を、フ
レーム画像PC2の代わりに符号化する。
When the inter-frame correlation is used, the image signal can be further compressed. That is, for example, as shown in FIG. 8, times t1 and t2 (however,
For example, when t1 <t2, and t2-t1 is a value equal to the frame period), the frame image PC1,
When each PC2 is generated, for example, the difference of PC2 with respect to the frame image PC1 is calculated, and the difference image PC
12 is generated. Then, the difference image PC12 is encoded instead of the frame image PC2.

【0005】通常、時間的に隣接するフレーム画像は、
それ程大きな変化を有していないため、フレーム画像P
C1とPC2との差(PC2−PC1)を演算すると、
その結果得られる差分画像PC12の信号は小さな値に
なる。そこで、フレーム画像PC2の代わりに差分画像
PC12を符号化することにより、フレーム画像PC2
そのものを符号化する場合より、発生符号量(発生ビッ
ト量)を低減することができる。
Usually, frame images that are temporally adjacent are
Since it does not change so much, the frame image P
When the difference (PC2-PC1) between C1 and PC2 is calculated,
The signal of the difference image PC12 obtained as a result has a small value. Therefore, by encoding the difference image PC12 instead of the frame image PC2, the frame image PC2
The generated code amount (generated bit amount) can be reduced as compared with the case of encoding itself.

【0006】さらに、この場合、フレーム画像PC1に
対し動き補償を施してから、差分画像PC12を算出す
るようにすることにより、より圧縮率を向上させること
ができる。
Further, in this case, the compression ratio can be further improved by performing the motion compensation on the frame image PC1 and then calculating the difference image PC12.

【0007】動き補償を行う場合には、まず、フレーム
画像PC2が、例えば16×16ドットや8×8ドット
などの所定の大きさのブロック(いわゆるマクロブロッ
クやブロックなど)に分割される。そして、フレーム画
像PC2を構成するブロックそれぞれと、フレーム画像
PC1とがパターンマッチングされ、これによりフレー
ム画像PC2の各ブロックにおける輝度信号のパターン
に、最も類似しているフレーム画像PC1上の画像部分
(画像ブロック)が検出される。
When performing motion compensation, first, the frame image PC2 is divided into blocks (so-called macroblocks or blocks) of a predetermined size such as 16 × 16 dots or 8 × 8 dots. Then, each of the blocks forming the frame image PC2 and the frame image PC1 are pattern-matched, and as a result, the image portion (image) on the frame image PC1 that is most similar to the luminance signal pattern in each block of the frame image PC2. Block) is detected.

【0008】このようにして検出されたフレーム画像P
C1上の画像部分の位置と、それに対応するフレーム画
像PC2のブロックの位置とのオフセット(フレーム画
像PC2のブロックの位置に対するフレーム画像PC1
上の画像部分の位置)が、動きベクトルとして検出され
る。
The frame image P detected in this way
Offset between the position of the image portion on C1 and the position of the corresponding block of the frame image PC2 (the frame image PC1 relative to the position of the block of the frame image PC2
The position of the upper image portion) is detected as a motion vector.

【0009】フレーム画像PC1を、動きベクトルに対
応して、動き補償したもの、即ち動きベクトルだけ移動
したものは、いま符号化しようとしているブロックに注
目すれば、フレーム画像PC1そのものより、フレーム
画像PC2に近似するので、この動き補償されたフレー
ム画像PC1に対するフレーム画像PC2の差分画像P
C12は、動き補償を行わない場合に比べ、その信号値
はより小さな値となり、従って発生符号量をより低減す
ることができる。
If the frame image PC1 is motion-compensated corresponding to the motion vector, that is, the frame image is moved by the motion vector, the frame image PC1 itself is more than the frame image PC2 if the focus is on the block to be encoded. , The difference image P of the frame image PC2 with respect to the motion-compensated frame image PC1.
In C12, the signal value becomes smaller than that in the case where motion compensation is not performed, so that the generated code amount can be further reduced.

【0010】ここで、以下、適宜、フレーム画像PC2
のように、いま符号化の対象となっている、差分が求め
られる画像を参照画像、フレーム画像PC1のように、
参照画像から減算される画像を探索画像という。
Here, hereinafter, the frame image PC2 is appropriately used.
Like the reference image or the frame image PC1,
An image subtracted from the reference image is called a search image.

【0011】以上のようにして算出された動きベクトル
と差分画像PC12は、通常、可変長符号化されて伝送
される。
The motion vector calculated as above and the difference image PC12 are usually variable-length coded and transmitted.

【0012】ところで、パターンマッチングによって、
参照画像(フレーム画像PC2)のブロックの輝度信号
のパターンに最も類似している探索画像(フレーム画像
PC1)上の画像部分を探索する場合、例えば次によう
にして行われる。
By the way, by pattern matching,
When searching for an image portion on the search image (frame image PC1) that is most similar to the pattern of the luminance signal of the block of the reference image (frame image PC2), for example, it is performed as follows.

【0013】即ち、例えば図9に示すように、いま符号
化対象となっている参照画像上のブロックをAとし、こ
のブロックAの位置からベクトル(ΔX,ΔY)だけず
れた位置における探索画像上のブロックをA’とする
と、まずブロックAに属する画素値A(X,Y)(但
し、(X,Y)は、画素の座標)と、ブロックA’に属
する画素値A’(X+ΔX、Y+ΔY)との、例えば差
の絶対値和E(ΔX,ΔY)などが、次式にしたがって
算出される。
That is, for example, as shown in FIG. 9, the block on the reference image which is the current encoding target is set to A, and on the search image at the position deviated from the position of this block A by the vector (ΔX, ΔY). , The pixel value A (X, Y) belonging to the block A (where (X, Y) is the pixel coordinate) and the pixel value A '(X + ΔX, Y + ΔY) belonging to the block A ′. ) And the absolute value sum E (ΔX, ΔY) of the difference are calculated according to the following equation.

【0014】 E(ΔX,ΔY)=Σ|A(X,Y)−A’(X+ΔX,Y+ΔY)| ・・・(1) 但し、Σは、ブロックAに含まれる座標(X,Y)全体
に関するサメーションを意味する。
E (ΔX, ΔY) = Σ | A (X, Y) −A ′ (X + ΔX, Y + ΔY) | (1) where Σ is the entire coordinates (X, Y) included in the block A. Means a summation about.

【0015】ここで、E(ΔX,ΔY)は、式(1)か
ら、ブロックAおよびA’における画像どうしが近似し
ている程小さな値になる。従って、E(ΔX,ΔY)
は、いわばブロックAとA’との間の誤差(残差)に対
応するものであり、以下、残差(または誤差)という。
なお、この残差は、上述したように、ブロックAとA’
との差分の絶対値和であるから、差分画像の符号量にも
対応する。
Here, E (ΔX, ΔY) has a smaller value as the images in the blocks A and A ′ are closer to each other from the equation (1). Therefore, E (ΔX, ΔY)
Corresponds to an error (residual error) between blocks A and A ′, so to speak, and is hereinafter referred to as a residual error (or error).
It should be noted that, as described above, this residual error is caused by blocks A and A ′.
Since it is the sum of the absolute values of the differences with, it also corresponds to the code amount of the difference image.

【0016】いわゆるフルサーチやマルチステップサー
チなどのサーチアルゴリズムによれば、サーチ範囲の中
の全てのベクトル(ΔX,ΔY)(これは、動きベクト
ルの候補になるものなので、以下、候補ベクトルとい
う)に対して、残差E(ΔX,ΔY)が算出され、その
値を最小にするベクトル(ΔX,ΔY)が、上述した動
きベクトルとして検出される。
According to a search algorithm such as so-called full search or multi-step search, all vectors (ΔX, ΔY) in the search range (since these are candidates for motion vectors, they will be referred to as candidate vectors hereinafter). On the other hand, the residual E (ΔX, ΔY) is calculated, and the vector (ΔX, ΔY) that minimizes the value is detected as the motion vector described above.

【0017】[0017]

【発明が解決しようとする課題】ところで、画像の実際
の動きに即した動きベクトルを得るためには、例えば画
像上の速い(大きな)動きをする物体に対応することな
どができるようにする必要があり、従ってサーチ範囲、
即ち候補ベクトルが指示する範囲を広げる必要がある。
By the way, in order to obtain a motion vector according to the actual motion of an image, it is necessary to be able to deal with a fast (large) moving object on the image, for example. And therefore the search range,
That is, it is necessary to widen the range designated by the candidate vector.

【0018】即ち、例えば図10に示すように、残差E
(△X,△Y)が、図中等高線で示すような分布をして
おり、●印で示す位置が、残差E(△X,△Y)を最小
にする位置である場合、サーチ範囲が、濃い影を付して
ある狭い範囲であるときには、その範囲内で残差E(△
X,△Y)を最小にする、図中点線の矢印で示すベクト
ルVbが動きベクトルとして検出される。従って、この
場合には、画像の実際の動きを精度良く反映した動きベ
クトルを得ることができない。
That is, for example, as shown in FIG.
If (ΔX, ΔY) has a distribution as shown by contour lines in the figure, and the position indicated by ● is the position that minimizes the residual E (ΔX, ΔY), the search range Is a narrow range with a dark shadow, the residual E (Δ
A vector Vb indicated by a dotted arrow in the figure that minimizes (X, ΔY) is detected as a motion vector. Therefore, in this case, a motion vector that accurately reflects the actual motion of the image cannot be obtained.

【0019】一方、サーチ範囲が、薄い影を付してある
広い範囲であるときには、残差E(△X,△Y)を真に
最小にする、図中太い実線の矢印示すベクトルVaが動
きベクトルとして検出される。従って、この場合には、
画像の実際の動きに即した動きベクトルを得ることがで
きる。
On the other hand, when the search range is a wide range with a light shadow, the vector Va indicated by the thick solid arrow in the drawing that moves the residual E (ΔX, ΔY) to the true minimum is moved. Detected as a vector. So in this case,
It is possible to obtain a motion vector that matches the actual motion of the image.

【0020】このように、サーチ範囲を広げると、上述
したように速い動きに対応することができるようにな
る。しかしながら、例えば画像上の物体の動きが比較的
小さく、且つその形状が平坦であったり、あるいは画像
が繰り返しのテクスチャであったりすると、単純に(真
に)最小の残差E(△X,△Y)を与える候補ベクトル
は、非常に大きな長さを有するものとなる場合がある。
従って、この場合、その大きな長さの候補ベクトルが、
実際に画像にそれだけの動きがないのにも関わらず、動
きベクトルとされることになる。即ち、この場合、画像
の実際の動きに即していない、いわば偽りの動きベクト
ルが検出されることになる。
When the search range is widened in this way, it becomes possible to cope with fast movements as described above. However, for example, if the motion of the object on the image is relatively small and its shape is flat, or if the image is a repetitive texture, then simply (true) the minimum residual E (ΔX, Δ) is obtained. The candidate vector that gives Y) may have a very large length.
Therefore, in this case, the candidate vector of that large length is
Even though the image does not actually have that much motion, it is used as a motion vector. That is, in this case, a so-called false motion vector that does not match the actual motion of the image is detected.

【0021】さらに、上述したように、動きベクトルが
可変長符号化される場合には、その大きさが長いと、発
生符号量が増加する。従って、この場合、長さの大きな
動きベクトルの発生によって、差分画像に対する発生符
号量が小さくても、動きベクトルと差分画像の発生符号
量を合わせたものは、動き補償を行わず符号化した場合
よりも増加することがあった。
Further, as described above, when the motion vector is variable-length coded, if the size thereof is long, the generated code amount increases. Therefore, in this case, even if the generated code amount for the difference image is small due to the generation of the motion vector having a large length, a combination of the generated code amount of the motion vector and the generated difference image is encoded without motion compensation. Than that.

【0022】このことは、画像上の物体の動きが比較的
小さく、且つその形状が平坦であったり、あるいは画像
が繰り返しのテクスチャであったりする場合だけでな
く、画像上に動きの速い物体がある場合も同様で、サー
チ範囲が広いと、上述したように、画像の実際の動きに
即した動きベクトルを得ることができ、従って差分画像
の発生符号量は減少するが、その動きベクトルは、物体
の動きが大きいために、図11に示すように、その長さ
が大きくなり、これにより全体の発生符号量が増加する
課題があった。
This is not only the case where the movement of the object on the image is relatively small and its shape is flat, or the image has a repetitive texture. In a certain case, if the search range is wide, a motion vector that matches the actual motion of the image can be obtained as described above. Therefore, the generated code amount of the difference image decreases, but the motion vector is Since the movement of the object is large, as shown in FIG. 11, the length thereof becomes large, which causes a problem of increasing the total generated code amount.

【0023】即ち、図12に示すように、残差を最小に
しなくても、ある程度正確に(精度良く)画像の動きを
表す、大きさの短いベクトルVdを動きベクトルとする
方が、全体の発生符号量を低減することができるのにも
関わらず、従来の手法によれば、単純に残差を最小にす
るベクトルVcが動きベクトルとされるため、全体とし
て発生符号量が増加してしまう課題があった。
That is, as shown in FIG. 12, it is preferable to use a vector Vd having a short size, which represents the motion of an image with a certain degree of accuracy (accurately) as the motion vector, without minimizing the residual error. Although the generated code amount can be reduced, according to the conventional method, since the vector Vc that minimizes the residual is simply used as the motion vector, the generated code amount increases as a whole. There were challenges.

【0024】そこで、動きベクトルの符号化にあたっ
て、近傍のブロックの動きベクトルとの差分などを符号
化する方法があるが、この方法では、画像の動きがほぼ
一様であれば、発生符号量を低減することができるが、
画像の動きの変化が大きい場合には、やはり発生符号量
が増加する課題があった。
Therefore, in coding the motion vector, there is a method of coding the difference between the motion vector of the neighboring block and the like. In this method, if the motion of the image is almost uniform, the generated code amount is Can be reduced,
When the change in the movement of the image is large, the generated code amount still increases.

【0025】さらに、図13に示すように、直前のフレ
ーム画像で発生した動きベクトルを参考にし、今回のサ
ーチ範囲を、その動きベクトルの近傍のみにするテレス
コピックサーチと呼ばれる物体の動きを予測した方式が
知られている。
Further, as shown in FIG. 13, a method for predicting the motion of an object called a telescopic search in which the motion vector generated in the immediately preceding frame image is referred to and the current search range is limited to the vicinity of the motion vector. It has been known.

【0026】しかしながら、テレスコピックサーチにお
いては、サーチ範囲が限定されるため、予測が外れた場
合、つまり画像内に、突然今までと異なる動きがあった
場合、図14に示すように、その真の動きに即した動き
ベクトルを検出することは困難となる。それでも、テレ
スコピックサーチによれば、今回のサーチ範囲内で残差
を最小にする候補ベクトルが動きベクトルとして検出さ
れる。従って、例えば図14に示したように、真の動き
の方向とサーチ範囲の方向が逆の場合には、検出された
動きベクトルにより動き補償を行って、差分画像を生成
しても、その信号値は、小さな値にならず、その結果、
発生符号量が増加する課題があった。
However, in the telescopic search, since the search range is limited, when the prediction is incorrect, that is, when there is a sudden movement in the image that is different from the past, as shown in FIG. It is difficult to detect a motion vector that matches the motion. Even so, according to the telescopic search, the candidate vector that minimizes the residual error is detected as the motion vector within the current search range. Therefore, for example, as shown in FIG. 14, when the true motion direction is opposite to the search range direction, even if a difference image is generated by performing motion compensation using the detected motion vector, the signal The value will not be small, and as a result
There is a problem that the amount of generated codes increases.

【0027】一方、上述した偽りの動きベクトルが検出
されることによる発生符号量の増加を防止する方法とし
ては、大きさの短い候補ベクトルが、優先して動きベク
トルとされるように、例えば図15(b)に示すよう
な、動きが大きくなるほど、残差が大きくなるような重
み付けを行う(残差に、例えば重み付け関数W(△X)
を乗算する)方法が考えられる。なお、図15において
は、△X方向だけを考慮し、△Y方向は無視している。
On the other hand, as a method for preventing an increase in the generated code amount due to the detection of the false motion vector described above, a candidate vector having a short size is preferentially selected as a motion vector, for example, as shown in FIG. As shown in FIG. 15 (b), weighting is performed such that the larger the motion is, the larger the residual is. (For example, the weighting function W (ΔX)
(Multiplying) is possible. In FIG. 15, only the ΔX direction is considered and the ΔY direction is ignored.

【0028】従来の場合には、例えばランダムノイズの
ある平坦なテクスチャの画像に対し、例えば図15
(a)に示すような残差E(△X)(但し、E(△X)
は、E(△X,△Y)の△Y方向を無視したもの)が得
られると、上述したようにその最小値を与える、原点か
ら離れた点X0が、動きベクトルとして検出されること
になるが、重み付けを行う場合によれば、残差E(△
X)が、図15(b)に示した重み付け関数W(△X)
と乗算され、その結果得られる、図15(c)に示すE
(△X)・W(△X)の最小値を与える、原点に近い点
1が、動きベクトルとして検出されることになる。
In the conventional case, for example, for a flat texture image having random noise, for example, as shown in FIG.
The residual E (ΔX) as shown in (a) (however, E (ΔX)
Is obtained when E (ΔX, ΔY) in the ΔY direction is ignored), the point X 0 which is the minimum value and is detected as the motion vector is detected as the motion vector. However, according to the case of weighting, the residual E (Δ
X) is the weighting function W (ΔX) shown in FIG.
E shown in FIG. 15C, which is obtained by multiplying by
The point X 1 that gives the minimum value of (ΔX) · W (ΔX) and is close to the origin is detected as a motion vector.

【0029】しかしながら、この方法では、画像におけ
る背景を重視した動きベクトルが検出されるようにな
り、画像上に、背景に対して動いている物体がある場
合、やはり偽りの動きベクトルが検出される課題があっ
た。
However, according to this method, a motion vector that emphasizes the background in the image is detected, and when there is an object moving on the image with respect to the background, a false motion vector is also detected. There were challenges.

【0030】本発明は、このような状況に鑑みてなされ
たものであり、偽りの動きベクトルが検出されることを
防止するとともに、発生符号量を低減することができる
ようにするものである。
The present invention has been made in view of such a situation, and it is possible to prevent a false motion vector from being detected and to reduce the generated code amount.

【0031】[0031]

【課題を解決するための手段】請求項1に記載の画像符
号化方法は、パターンマッチング法によって、画像信号
から、所定の誤差を最小にする動きベクトルを検出し、
動きベクトルに基づいて動き補償を行うことにより予測
画像信号を求め、画像信号と予測画像信号との差分を算
出し、その差分データと、動きベクトルとを可変長符号
化する画像符号化方法において、所定の誤差に対し、過
去に検出された動きベクトルに基づいて、2以上の重み
付けを行うことを特徴とする。
According to a first aspect of the present invention, an image encoding method detects a motion vector that minimizes a predetermined error from an image signal by a pattern matching method,
A predicted image signal is obtained by performing motion compensation based on a motion vector, a difference between the image signal and the predicted image signal is calculated, and the difference data and the motion vector are encoded by a variable length image coding method, It is characterized in that a predetermined error is weighted by 2 or more based on the motion vector detected in the past.

【0032】請求項2に記載の画像符号化方法は、パタ
ーンマッチング法によって、画像信号から、所定の誤差
を最小にする動きベクトルを検出し、動きベクトルに基
づいて動き補償を行うことにより予測画像信号を求め、
画像信号と予測画像信号との差分を算出し、その差分デ
ータと、動きベクトルとを可変長符号化する画像符号化
方法において、所定の誤差に対し、動きベクトルの大き
さを小さくするとともに、可変長符号化によるビット発
生量を少なくするように、2以上の重み付けを行うこと
を特徴とする。
In the image coding method according to the second aspect, a motion vector that minimizes a predetermined error is detected from the image signal by a pattern matching method, and motion compensation is performed based on the motion vector to predict a predicted image. Ask for a signal,
In an image coding method of calculating a difference between an image signal and a predicted image signal and performing variable length coding of the difference data and a motion vector, the size of the motion vector is reduced and variable with respect to a predetermined error. A feature is that weighting of 2 or more is performed so as to reduce the amount of bits generated by long coding.

【0033】請求項3に記載の画像符号化方法は、動き
ベクトルが、1フレームの画像の所定のブロックごとに
検出され、2以上の重み付けのうちのひとつが、同一フ
レームの画像のブロックの動きベクトルのうちの既に検
出された動きベクトルに対応したものであることを特徴
とする。
In the image coding method according to the third aspect, a motion vector is detected for each predetermined block of an image of one frame, and one of two or more weightings is a motion of a block of an image of the same frame. It is characterized in that it corresponds to a motion vector already detected among the vectors.

【0034】請求項4に記載の画像符号化方法は、2以
上の重み付けのうちのひとつが、既に符号化されたフレ
ームの画像の既に検出された動きベクトルに対応したも
のであることを特徴とする。
The image coding method according to claim 4 is characterized in that one of the two or more weightings corresponds to the already detected motion vector of the image of the already coded frame. To do.

【0035】[0035]

【作用】請求項1に記載の画像符号化方法においては、
所定の誤差に対し、過去に検出された動きベクトルに基
づいて、2以上の重み付けが行われ、その結果得られる
所定の誤差を最小にする動きベクトルが検出される。従
って、ほぼ正確な動きベクトルを検出することができ、
かつ発生符号量を低減することができる。
In the image coding method according to claim 1,
The predetermined error is weighted by 2 or more based on the motion vector detected in the past, and the motion vector that minimizes the predetermined error obtained as a result is detected. Therefore, it is possible to detect an almost accurate motion vector,
Moreover, the amount of generated codes can be reduced.

【0036】請求項2に記載の画像符号化方法において
は、所定の誤差に対し、動きベクトルの大きさを小さく
するとともに、可変長符号化によるビット発生量を少な
くするように、2以上の重み付けが行われ、その結果得
られる所定の誤差を最小にする動きベクトルが検出され
る。従って、ほぼ正確な動きベクトルを検出することが
でき、かつ発生符号量を低減することができる。
In the image coding method according to the second aspect, weighting of 2 or more is performed so as to reduce the magnitude of the motion vector with respect to a predetermined error and reduce the bit generation amount due to the variable length coding. And a motion vector that minimizes the resulting predetermined error is detected. Therefore, it is possible to detect an almost accurate motion vector and reduce the generated code amount.

【0037】請求項3に記載の画像符号化方法において
は、2以上の重み付けのうちのひとつが、同一フレーム
の画像のブロックの動きベクトルのうちの既に検出され
た動きベクトルに対応したものであるので、画像の背景
の動きを、精度良く反映した動きベクトルを得ることが
できる。
In the image coding method of the third aspect, one of the two or more weightings corresponds to the already detected motion vector of the motion vectors of the blocks of the image of the same frame. Therefore, it is possible to obtain a motion vector that accurately reflects the motion of the background of the image.

【0038】請求項4に記載の画像符号化方法において
は、2以上の重み付けのうちのひとつが、既に符号化さ
れたフレームの画像の既に検出された動きベクトルに対
応したものであるので、画像内の物体の動きを、精度良
く反映した動きベクトルを得ることができる。
In the image coding method according to the fourth aspect, one of the two or more weightings corresponds to the already detected motion vector of the image of the already coded frame, so that the image It is possible to obtain a motion vector that accurately reflects the motion of the object inside.

【0039】[0039]

【実施例】図1は、本発明の画像符号化方法を適用した
画像符号化装置の一実施例の構成を示すブロック図であ
る。この画像符号化装置には、図示せぬ信号処理回路に
おいて、例えば16×16などのブロック(マクロブロ
ック)にブロック化された画像が、例えばフレーム単位
で供給されるようになされている。ブロック化された画
像のうち、いま符号化対象となっている画像は、参照画
像として、カレントメモリ1に入力され、そこで一時記
憶されるようになされている。そして、カレントメモリ
1からは、参照画像のブロック(以下、適宜、参照画像
ブロックという)が、画像の走査の方向と同様に、左か
ら右、上から下の順番で読み出され、差分器3および演
算器15に供給されるようになされている。
1 is a block diagram showing the configuration of an embodiment of an image coding apparatus to which the image coding method of the present invention is applied. In this image coding apparatus, a signal processing circuit (not shown) supplies, for example, an image that is divided into blocks (macroblocks) such as 16 × 16 in units of frames. An image to be coded out of the blocked images is input to the current memory 1 as a reference image and temporarily stored therein. Then, a block of a reference image (hereinafter, appropriately referred to as a reference image block) is read from the current memory 1 in the order from left to right and from top to bottom in the same manner as the scanning direction of the image, and the difference unit 3 And is supplied to the calculator 15.

【0040】サーチメモリ2には、参照画像との残差E
(△X,△Y)が演算されるもの(例えば、参照画像の
1フレーム前の画像や1フレーム後の画像など)が、探
索画像として入力されるようになされており、サーチメ
モリ2は、探索画像を一時記憶するようになされてい
る。さらに、サーチメモリ2には、図示せぬベクトル発
生回路がフルサーチ方式などで発生する候補ベクトル
(△X,△Y)が順次供給されるようになされている。
即ち、サーチメモリ2には、所定の広いサーチ範囲内を
順次指示していく候補ベクトル(△X,△Y)が供給さ
れるようになされている。
The search memory 2 stores the residual E with respect to the reference image.
The one for which (ΔX, ΔY) is calculated (for example, the image one frame before or one frame after the reference image) is input as the search image, and the search memory 2 is The search image is temporarily stored. Further, the search memory 2 is sequentially supplied with candidate vectors (ΔX, ΔY) generated by a vector search circuit (not shown) by a full search method or the like.
That is, the search memory 2 is supplied with candidate vectors (ΔX, ΔY) that sequentially indicate a predetermined wide search range.

【0041】そして、サーチメモリ2からは、探索画像
のうち、候補ベクトル(△X,△Y)が指示する画像ブ
ロックが読み出され、差分器3に供給されるようになさ
れている。従って、サーチメモリ2からは、候補ベクト
ル(△X,△Y)にしたがって、サーチ範囲内の画像ブ
ロック(以下、適宜、探索画像ブロックという)が順次
読み出され、差分器3に供給されることになる。
From the search memory 2, the image block indicated by the candidate vector (ΔX, ΔY) in the search image is read out and supplied to the difference unit 3. Therefore, the image blocks within the search range (hereinafter, appropriately referred to as a search image block) are sequentially read from the search memory 2 according to the candidate vector (ΔX, ΔY) and supplied to the difference unit 3. become.

【0042】差分器3は、カレントメモリ1からの参照
画像ブロックに含まれる画素と、サーチメモリ2からの
探索画像ブロックに含まれる画素との差分をとり、さら
に、例えばその絶対値を演算する。即ち、参照画像ブロ
ックの座標(X,Y)における画素を、A(X,Y)と
するとともに、その参照画像ブロックから候補ベクトル
(△X,△Y)だけ離された探索画像ブロックの画素
を、A’(X+ΔX,Y+ΔY)とすると、差分器3で
は、式 S(X,Y)=|A(X,Y)−A’(X+ΔX,Y+
ΔY)| にしたがって、参照画像ブロックの画素と、探索画像ブ
ロックの画素との差分の絶対値S(X,Y)が、1画素
単位で算出され、累積加算器4に順次出力される。な
お、差分器3では、画素間の差分の絶対値の他、例えば
その差分の自乗値を算出するようにしても良い。
The differencer 3 takes the difference between the pixel included in the reference image block from the current memory 1 and the pixel included in the search image block from the search memory 2, and further calculates the absolute value thereof, for example. That is, the pixel at the coordinate (X, Y) of the reference image block is set to A (X, Y), and the pixel of the search image block separated from the reference image block by the candidate vector (ΔX, ΔY) is set. , A ′ (X + ΔX, Y + ΔY), in the subtractor 3, the equation S (X, Y) = | A (X, Y) −A ′ (X + ΔX, Y +
According to ΔY) |, the absolute value S (X, Y) of the difference between the pixel of the reference image block and the pixel of the search image block is calculated on a pixel-by-pixel basis and sequentially output to the cumulative adder 4. The difference unit 3 may calculate the square value of the difference in addition to the absolute value of the difference between pixels.

【0043】累積加算器4は、差分器3より出力される
1画素単位のS(X,Y)を、参照画像の1ブロック単
位で累積加算し、これにより前述した残差E(△X,△
Y)を算出する。
The cumulative adder 4 cumulatively adds S (X, Y) of one pixel unit output from the differentiator 3 in one block unit of the reference image, whereby the above-described residual E (ΔX, △
Y) is calculated.

【0044】従って、差分器3および累積加算器4によ
っては、前述した式(1)で示される演算が行われ、こ
れによりサーチ範囲内における候補ベクトル(△X,△
Y)それぞれに対する残差E(△X,△Y)が得られる
ようになされている。
Therefore, the differentiator 3 and the cumulative adder 4 perform the operation represented by the above-mentioned equation (1), whereby the candidate vectors (ΔX, Δ) within the search range are calculated.
The residual E (ΔX, ΔY) for each Y) is obtained.

【0045】累積加算器4は、画素間の差分の絶対値S
(X,Y)の、参照画像の1ブロックの累積加算値、即
ち残差E(△X,△Y)を算出すると、それを演算器5
に順次出力する。
The cumulative adder 4 calculates the absolute value S of the difference between the pixels.
When the cumulative addition value of 1 block of the reference image of (X, Y), that is, the residual E (ΔX, ΔY) is calculated, it is calculated by the calculator 5
To output sequentially.

【0046】演算器5には、残差E(△X,△Y)の
他、重み算出器13または14それぞれから、過去に検
出された動きベクトルに基づいて得られる重みW1(△
X,△Y)またはW2(△X,△Y)も供給されるよう
になされている(詳細は、後述する)。
In addition to the residual E (ΔX, ΔY), the calculator 5 has a weight W1 (Δ) obtained from the weight calculator 13 or 14 based on the motion vector detected in the past.
X, ΔY) or W2 (ΔX, ΔY) is also supplied (details will be described later).

【0047】演算器5は、上述したようなパターンマッ
チング方法によって得られた残差E(△X,△Y)に、
重み算出器13または14それぞれから供給される重み
W1(△X,△Y)またはW2(△X,△Y)を、例え
ば乗算し、これにより残差E(△X,△Y)に、重みW
1(△X,△Y)およびW2(△X,△Y)に対応する
重み付けを行った残差(以下、適宜、重み付き残差とい
う)F(△X,△Y)を算出する。この重み付き残差F
(△X,△Y)は、最小残差検出回路(Min)6に供
給される。
The arithmetic unit 5 calculates the residual E (ΔX, ΔY) obtained by the pattern matching method as described above.
For example, the weight W1 (ΔX, ΔY) or W2 (ΔX, ΔY) supplied from the weight calculator 13 or 14 is multiplied, whereby the residual E (ΔX, ΔY) is weighted. W
A weighted residual (hereinafter, appropriately referred to as a weighted residual) F (ΔX, ΔY) corresponding to 1 (ΔX, ΔY) and W2 (ΔX, ΔY) is calculated. This weighted residual F
(ΔX, ΔY) is supplied to the minimum residual detection circuit (Min) 6.

【0048】最小値検出回路6は、サーチ範囲内におけ
る候補ベクトル(△X,△Y)それぞれに対する重み付
き残差F(△X,△Y)のうちの最小のものを検出し、
その最小の重み付き残差F(△X,△Y)を与える候補
ベクトル(△X,△Y)を動きベクトル(△X,△Y)
として出力するようになされている。この動きベクトル
(△X,△Y)は、可変長符号化回路7、動き補償回路
(MC)11、および前・現フレームベクトル蓄積メモ
リ12に供給されるようになされている。
The minimum value detection circuit 6 detects the minimum of the weighted residuals F (ΔX, ΔY) for each of the candidate vectors (ΔX, ΔY) within the search range,
A candidate vector (ΔX, ΔY) that gives the minimum weighted residual F (ΔX, ΔY) is a motion vector (ΔX, ΔY).
It is designed to be output as. The motion vector (ΔX, ΔY) is supplied to the variable length coding circuit 7, the motion compensation circuit (MC) 11, and the previous / current frame vector storage memory 12.

【0049】可変長符号化回路7では、最小値検出回路
6からの動きベクトルが、その直前に同じく最小値検出
回路6から供給された動きベクトル(最小値検出回路6
から、いま供給された動きベクトルに対応するブロック
の1つ前のブロック(例えば、左横に隣接するブロッ
ク)の動きベクトル)との差分をとられ、さらに所定の
可変長符号化テーブルにしたがって可変長符号化され
て、マルチプレクサ(MIX)9に供給される。従っ
て、動きベクトルが、左隣のブロックの動きベクトルと
一致している場合には、符号化効率を向上させることが
できる。なお、左横に隣接するブロックがない場合、即
ちいま符号化しようとしているブロックが、フレームの
左端のブロックである場合には、例えばそのブロックの
動きベクトルがそのまま可変長符号化される。
In the variable length coding circuit 7, the motion vector from the minimum value detection circuit 6 is the motion vector (minimum value detection circuit 6) supplied immediately before from the minimum value detection circuit 6 as well.
From the block immediately preceding the block corresponding to the motion vector just supplied (for example, the motion vector of the block adjacent to the left side), the difference is calculated according to a predetermined variable length coding table. It is long-coded and supplied to a multiplexer (MIX) 9. Therefore, when the motion vector matches the motion vector of the block on the left, the coding efficiency can be improved. When there is no adjacent block on the left side, that is, when the block to be encoded is the leftmost block of the frame, for example, the motion vector of the block is directly variable-length encoded.

【0050】一方、動き補償回路11では、ローカルデ
コードメモリ10から読み出された画像に、最小値検出
回路6からの動きベクトルに対応して動き補償が施さ
れ、演算器15に供給される。ローカルデコードメモリ
10には、サーチメモリ2に記憶されている探索画像が
既に符号化され、図示せぬローカルデコーダで復号され
たものが、予測原画像として供給されて記憶されるよう
になされている。
On the other hand, in the motion compensation circuit 11, the image read from the local decode memory 10 is subjected to motion compensation corresponding to the motion vector from the minimum value detection circuit 6, and is supplied to the arithmetic unit 15. The search image stored in the search memory 2 is already encoded in the local decode memory 10 and decoded by a local decoder (not shown) is supplied and stored as a predicted original image. .

【0051】従って、動き補償回路11からは、いま符
号化対象となっている参照画像のブロックとの重み付き
残差F(△X,△Y)を最小にする予測原画像(探索画
像)の画像部分に動き補償を施したものが、演算器15
に出力されることになる。
Therefore, from the motion compensation circuit 11, the prediction original image (search image) that minimizes the weighted residual F (ΔX, ΔY) with respect to the block of the reference image that is currently to be encoded. The motion compensation is applied to the image portion, and the operation unit 15
Will be output to.

【0052】演算器15では、カレントメモリ1から供
給された参照画像ブロックと、動き補償回路11から供
給された画像ブロックとの差分が求められ、この差分画
像が、可変長符号化回路8に供給される。可変長符号化
回路8では、演算器15からの差分画像が、所定の可変
長符号化テーブルにしたがって可変長符号化され、マル
チプレクサ9に出力される。なお、可変長符号化回路8
においては、必要に応じて、差分画像を、DCT処理な
どの直交変換処理し、さらにその結果得られる直交変換
データを、所定の量子化ステップで量子化したものを可
変長符号化するようにすることができる。
The arithmetic unit 15 obtains the difference between the reference image block supplied from the current memory 1 and the image block supplied from the motion compensation circuit 11, and the difference image is supplied to the variable length coding circuit 8. To be done. In the variable length coding circuit 8, the difference image from the arithmetic unit 15 is variable length coded according to a predetermined variable length coding table and output to the multiplexer 9. The variable length coding circuit 8
In the above method, the difference image is subjected to orthogonal transform processing such as DCT processing, if necessary, and the resulting orthogonal transform data is quantized in a predetermined quantization step and variable length coded. be able to.

【0053】マルチプレクサ9では、可変長符号化回路
8および9からの可変長符号化データ(上述したよう
に、差分画像を可変長符号化したものと、動きベクトル
の差分を可変長符号化したもの)、並びにその他必要な
情報が多重化され、図示せぬ伝送路を介して受信側に伝
送されたり、あるいは図示せぬ記録媒体(例えば、光磁
気ディスクや磁気テープなど)に記録される。
In the multiplexer 9, the variable-length coded data from the variable-length coding circuits 8 and 9 (variable-length coded difference image and variable-length coded difference of motion vector as described above). ), And other necessary information are multiplexed and transmitted to the receiving side via a transmission path (not shown), or recorded on a recording medium (e.g., magneto-optical disk or magnetic tape) not shown.

【0054】一方、最小値検出回路6から、蓄積メモリ
12に供給された動きベクトル(△X,△Y)は、そこ
で一時記憶される。なお、蓄積メモリ12は、少なくと
も1フレームの画像の動きベクトルを記憶することがで
きるようになされている。
On the other hand, the motion vector (ΔX, ΔY) supplied from the minimum value detection circuit 6 to the storage memory 12 is temporarily stored therein. The storage memory 12 can store the motion vector of at least one frame image.

【0055】蓄積メモリ12は、記憶している動きベク
トルのうち、いま符号化対象となっている参照画像のフ
レームよりも前に符号化されたフレームの画像の動きベ
クトルに基づいて、いま符号化しようとしている参照画
像ブロックの動きベクトルの予測値(推定値)(以下、
第1の重み中心ベクトルという)V1(=Vx,Vy)
を求め、重み算出器13に出力する。
The storage memory 12 performs the current encoding based on the motion vector of the image of the frame encoded before the frame of the reference image which is the current encoding target among the stored motion vectors. The predicted value (estimated value) of the motion vector of the reference image block to be
First weight center vector) V1 (= Vx, Vy)
And outputs it to the weight calculator 13.

【0056】ここで、第1の重み中心ベクトルV1とし
ては、いわゆるテレスコピック予測されたものが用いら
れる(これは、参照画像ブロックにおける物体画像(背
景となる画像があり、その背景画像上を動いている物体
の画像)の動きを反映した動きベクトルが存在しそうな
範囲の中心となる位置を指示するベクトルである)。即
ち、第1の重み中心ベクトルV1としては、例えば図2
に示すように、参照画像のフレーム(以下、適宜、現フ
レームという)の直前に符号化されたフレーム(以下、
適宜、前フレームという)の画像(探索画像)の、参照
画像ブロックと同一の位置のブロックの動きベクトルな
どが用いられる(但し、これに限られるものではな
い)。図2においては、現フレームより、時間的に1フ
レーム前のフレームが、前フレームとなる場合を示して
いる。
Here, what is called telescopic prediction is used as the first weight center vector V1 (this is the object image in the reference image block (there is an image serving as a background, and moving on the background image). Image of the object) is a vector that indicates the position of the center of the range where there is likely to be a motion vector that reflects the motion). That is, as the first weight center vector V1, for example, as shown in FIG.
As shown in, a frame (hereinafter, referred to as a current frame) coded immediately before a frame of the reference image (hereinafter, referred to as a current frame).
The motion vector of the block at the same position as the reference image block of the image (search image) of the previous frame is used (but is not limited to this). FIG. 2 shows a case in which a frame that is one frame before the current frame in time is the previous frame.

【0057】重み算出器13には、第1の重み中心ベク
トルV1(=(Vx,Vy))の他、候補ベクトル(△
X,△Y)も供給されるようになされており、そこで
は、例えば次式で与えられる第1の重み関数W1にした
がって、候補ベクトル(△X,△Y)に対応する残差E
(△X,△Y)に付加する第1の重みW1(△X,△
Y)が算出される。 W1(△X,△Y)=K1×√((△X−Vx)2+(△Y−Vy)2) ・・・(2) 但し、K1は、所定の比例定数である。
In addition to the first weight center vector V1 (= (Vx, Vy)), the weight calculator 13 also calculates candidate vectors (Δ).
X, ΔY) is also provided, where the residual E corresponding to the candidate vector (ΔX, ΔY) is obtained, for example, according to the first weighting function W1 given by the following equation.
The first weight W1 (ΔX, ΔY) added to (ΔX, ΔY)
Y) is calculated. W1 (ΔX, ΔY) = K 1 × √ ((ΔX-Vx) 2 + (ΔY-Vy) 2 ) (2) where K 1 is a predetermined proportional constant.

【0058】なお、第1の重みW1(△X,△Y)は、
上式以外の関数によって求めるようにすることができ
る。また、この関数は、候補ベクトル(△X,△Y)に
対応する残差E(△X,△Y)を引数に加えたもの(W
1(△X,△Y,E(△X,△Y)))とするようにし
ても良い(但し、この場合には、図1において点線で示
すように、残差E(△X,△Y)を、累積加算器4から
重み算出器13に供給するようにする必要がある)。
The first weight W1 (ΔX, ΔY) is
It can be obtained by a function other than the above equation. In addition, this function is obtained by adding the residual E (ΔX, ΔY) corresponding to the candidate vector (ΔX, ΔY) to the argument (W
1 (ΔX, ΔY, E (ΔX, ΔY)) (however, in this case, as shown by the dotted line in FIG. 1, the residual E (ΔX, ΔY)). Y) must be supplied from the cumulative adder 4 to the weight calculator 13).

【0059】即ち、第1の重みW1を与える関数は、例
えば動きベクトルの差分または差分画像を可変長符号化
する可変長符号化回路7または8がそれぞれ使用する所
定の可変長符号化テーブルなどによって変えるようにす
ることができる。但し、この関数は、図3に示すよう
に、候補ベクトル(△X,△Y)が、第1の重み中心ベ
クトルV1に一致するときに、最小の第1の重みW1を
与え、候補ベクトル(△X,△Y)が、第1の重み中心
ベクトルV1から離れるほど、大きな値の第1の重みW
1を与えるような単調増加関数とする必要がある。
That is, the function for giving the first weight W1 is determined by, for example, a predetermined variable length coding table used by the variable length coding circuit 7 or 8 for variable length coding the motion vector difference or the difference image. You can change it. However, this function gives the minimum first weight W1 when the candidate vector (ΔX, ΔY) matches the first weight center vector V1, as shown in FIG. [Delta] X, [Delta] Y) increases with increasing distance from the first weight center vector V1.
It must be a monotonically increasing function that gives 1.

【0060】ここで、図3においては、第1の重みW1
の分布状態を等高線で示してあるが、この等高線に付し
てある第1の重みW1の値(重み値)は、絶対的なもの
ではなく、例えば第1の重みW1の最小値を0と表した
ときの相対値である。
Here, in FIG. 3, the first weight W1
The distribution state of is represented by contour lines, but the value (weight value) of the first weight W1 attached to this contour line is not absolute, and for example, the minimum value of the first weight W1 is 0. It is a relative value when expressed.

【0061】図1に戻り、蓄積メモリ12は、上述した
第1の重み中心ベクトルV1の他、記憶している動きベ
クトルのうち、いま符号化対象となっている参照画像ブ
ロックよりも前に符号化された参照画像ブロックの動き
ベクトルに基づいて、いま符号化しようとしている参照
画像ブロックの動きベクトルの予測値(推定値)(以
下、第2の重み中心ベクトルという)V2(=Zx,Z
y)を求め、重み算出器14に出力する。
Returning to FIG. 1, the storage memory 12 stores the first weighted center vector V1 and the coded motion vector stored before the reference image block to be coded. A predicted value (estimated value) of the motion vector of the reference image block that is about to be encoded (hereinafter, referred to as a second weight center vector) V2 (= Zx, Z) based on the motion vector of the encoded reference image block.
y) is calculated and output to the weight calculator 14.

【0062】即ち、蓄積メモリ12は、例えば図4に示
すように、現フレームのいま符号化対象になっているブ
ロックeの近傍のブロックのうち、ブロックeに隣接す
る既に符号化されたブロックa乃至d(但し、ブロック
a乃至dは、ブロックeの左上、真上、右上、左横にそ
れぞれ隣接するものである)それぞれの動きベクトル
に、方向や大きさが揃ったベクトル(即ち、可変長符号
化回路7で可変長符号化される動きベクトルの差分が小
さくなり、その結果可変長符号化回路7から出力される
可変長符号化データの符号量(ビット量)が少なくなる
ようなベクトル)としての、例えば動きベクトルa乃至
dの平均値などを、第2の重み中心ベクトルV2(これ
は、参照画像ブロックにおける背景画像の動きを反映し
た動きベクトルが存在しそうな範囲の中心となる位置を
指示するベクトルである)として、重み算出器14に出
力する。
That is, as shown in, for example, FIG. 4, the storage memory 12 stores the already-encoded block a adjacent to the block e among the blocks in the vicinity of the block e which is the current frame to be encoded. Through d (however, blocks a to d are adjacent to the upper left, right above, upper right, and left side of the block e, respectively). A vector in which the difference between the motion vectors that are variable-length coded by the coding circuit 7 becomes small, and as a result, the code amount (bit amount) of the variable-length coded data output from the variable length coding circuit 7 decreases. , For example, the average value of the motion vectors a to d, and the second weighted center vector V2 (this is a motion vector reflecting the motion of the background image in the reference image block). And as a vector) for instructing the center and a position of the likely range, and outputs to the weight calculator 14.

【0063】ここで、第2の重み中心ベクトルV2とし
ては、上述したようにして可変長符号化されるときに差
分がとられる左隣の1つのブロックの動きベクトルだけ
を用いるようにしても良いが、この場合には、いま符号
化対象となっているブロックにおける動きを精度良く予
測することができないことがあるので、上述のように、
符号化対象となっているブロックの近傍のブロックの動
きベクトルを、その平均などを取るなどの方法で総合的
に加味したものとする方が好ましい。
Here, as the second weight center vector V2, it is possible to use only the motion vector of the one block on the left adjacent to which the difference is taken when variable length coding is performed as described above. However, in this case, it may not be possible to accurately predict the motion in the block that is currently the encoding target, so as described above,
It is preferable that the motion vectors of the blocks in the vicinity of the block to be coded are comprehensively taken into account by a method such as averaging the motion vectors.

【0064】符号化対象となっているブロックの近傍の
ブロックの動きベクトルの平均値を、第2の重み中心ベ
クトルV2とした場合、この第2の重み中心ベクトルV
2は、近傍のブロックで長さの大きい動きベクトルが発
生していなければ、通常は、原点(0,0)近傍のベク
トルとなる。
When the average value of the motion vectors of the blocks in the vicinity of the block to be coded is the second weighting center vector V2, this second weighting center vector V
2 is usually a vector near the origin (0, 0) unless a large-length motion vector is generated in a nearby block.

【0065】重み算出器14には、第2の重み中心ベク
トルV2(=(Zx,Zy))の他、候補ベクトル(△
X,△Y)も供給されるようになされており、そこで
は、例えば次式で与えられる第2の重み関数W2にした
がって、候補ベクトル(△X,△Y)に対応する残差E
(△X,△Y)に付加する第2の重みW2(△X,△
Y)が算出される。 W2(△X,△Y)=K2×√((△X−Zx)2+(△Y−Zy)2) ・・・(3) 但し、K2は、所定の比例定数である。
In addition to the second weight center vector V2 (= (Zx, Zy)), the weight calculator 14 also calculates the candidate vector (Δ).
X, ΔY) is also supplied, where the residual E corresponding to the candidate vector (ΔX, ΔY) is calculated according to the second weighting function W2 given by the following equation, for example.
The second weight W2 (ΔX, ΔY) added to (ΔX, ΔY)
Y) is calculated. W2 (ΔX, ΔY) = K 2 × √ ((ΔX−Zx) 2 + (ΔY−Zy) 2 ) ... (3) where K 2 is a predetermined proportional constant.

【0066】なお、第2の重みW2(△X,△Y)は、
上式以外の関数によって求めるようにすることができ
る。また、この関数は、候補ベクトル(△X,△Y)に
対応する残差E(△X,△Y)を引数に加えたもの(W
2(△X,△Y,E(△X,△Y)))とするようにし
ても良い(但し、この場合には、図1において点線で示
すように、残差E(△X,△Y)を、累積加算器4から
重み算出器14に供給するようにする必要がある)。
The second weight W2 (ΔX, ΔY) is
It can be obtained by a function other than the above equation. In addition, this function is obtained by adding the residual E (ΔX, ΔY) corresponding to the candidate vector (ΔX, ΔY) to the argument (W
2 (ΔX, ΔY, E (ΔX, ΔY)) (however, in this case, as shown by the dotted line in FIG. 1, the residual E (ΔX, ΔY)) Y) needs to be supplied from the cumulative adder 4 to the weight calculator 14).

【0067】即ち、第2の重みW2を与える関数は、上
述した第1の重みW1を与える関数と同様に、例えば動
きベクトルの差分または差分画像を可変長符号化する可
変長符号化回路7または8がそれぞれ使用する所定の可
変長符号化テーブルによって変えるようにすることがで
きる。但し、この関数は、図3に対応する図5に示すよ
うに、候補ベクトル(△X,△Y)が、第2の重み中心
ベクトルV2に一致するときに、最小の第2の重みW2
を与え、候補ベクトル(△X,△Y)が、第2の重み中
心ベクトルV2から離れるほど、大きな値の第2の重み
W2を与えるような単調増加関数とする必要がある。
That is, the function for giving the second weight W2 is the same as the function for giving the first weight W1 described above, for example, the variable length coding circuit 7 for variable length coding the difference of the motion vector or the difference image or 8 can be changed according to a predetermined variable length coding table used by each. However, as shown in FIG. 5 corresponding to FIG. 3, this function has the minimum second weight W2 when the candidate vector (ΔX, ΔY) matches the second weight center vector V2.
And the candidate vector (ΔX, ΔY) needs to be a monotonically increasing function that gives a larger value of the second weight W2 as the candidate vector (ΔX, ΔY) moves away from the second weight center vector V2.

【0068】ここで、図5においても、図3における場
合と同様に、第2の重みW2の分布状態を等高線で示し
てあるが、この等高線に付してある第2の重みW2の値
(重み値)は、絶対的なものではなく、例えば第2の重
みW2の最小値を0と表したときの相対値である。
Here, also in FIG. 5, as in the case of FIG. 3, the distribution state of the second weight W2 is shown by contour lines, but the value of the second weight W2 attached to this contour line ( The weight value) is not an absolute value, but is a relative value when the minimum value of the second weight W2 is represented as 0, for example.

【0069】以上のようにして、重み算出器13または
14でそれぞれ算出された第1の重みW1(△X,△
Y)または第2の重みW2(△X,△Y)は、演算器5
に供給される。演算器5では、上述したように、残差E
(△X,△Y)に、第1の重みW1(△X,△Y)およ
びW2(△X,△Y)が乗算され、即ち式 F(△X,△Y)=E(△X,△Y)× W1(△X,△Y)×W2(△X,△Y) ・・・(4) にしたがって、重み付き残差F(△X,△Y)が算出さ
れ、最小値検出回路6に出力される。
As described above, the first weight W1 (ΔX, Δ) calculated by the weight calculator 13 or 14 respectively.
Y) or the second weight W2 (ΔX, ΔY) is calculated by the calculator 5
Is supplied to. In the calculator 5, as described above, the residual E
(ΔX, ΔY) is multiplied by the first weights W1 (ΔX, ΔY) and W2 (ΔX, ΔY), that is, the formula F (ΔX, ΔY) = E (ΔX, ΔY) × W1 (ΔX, ΔY) × W2 (ΔX, ΔY) (4) The weighted residual F (ΔX, ΔY) is calculated and the minimum value detection circuit is calculated. 6 is output.

【0070】最小値検出回路6においては、同じく上述
したように、サーチ範囲内における候補ベクトル(△
X,△Y)それぞれに対する重み付き残差F(△X,△
Y)のうちの最小のものが検出され、その最小の重み付
き残差F(△X,△Y)を与える候補ベクトル(△X,
△Y)が動きベクトル(△X,△Y)として出力され
る。
In the minimum value detection circuit 6, as described above, the candidate vector (Δ) within the search range is also included.
Weighted residual F (ΔX, ΔY) for each of X, ΔY)
The smallest one of Y) is detected, and the candidate vector (ΔX, ΔY) giving the smallest weighted residual F (ΔX, ΔY) is detected.
ΔY) is output as a motion vector (ΔX, ΔY).

【0071】ここで、図6は、図3または図5にそれぞ
れ示した第1の重みW1(△X,△Y)またはW2(△
X,△Y)を掛け合わせた重みを示している。図6か
ら、第1または第2の重み中心ベクトルV1またはV2
の近傍の候補ベクトル(△X,△Y)に対する重み付き
残差F(△X,△Y)は、相対的に小さくなり、第1ま
たは第2の重み中心ベクトルV1またはV2から離れた
候補ベクトル(△X,△Y)に対する重み付き残差F
(△X,△Y)は、相対的に大きくなることがわかる。
Here, FIG. 6 shows the first weight W1 (ΔX, ΔY) or W2 (Δ) shown in FIG. 3 or FIG. 5, respectively.
(X, ΔY) is shown. From FIG. 6, the first or second weight center vector V1 or V2
The weighted residual F (ΔX, ΔY) for the candidate vector (ΔX, ΔY) in the vicinity of is relatively small, and is a candidate vector distant from the first or second weight center vector V1 or V2. Weighted residual F for (ΔX, ΔY)
It can be seen that (ΔX, ΔY) becomes relatively large.

【0072】上述したように、第1の重み中心ベクトル
V1は、参照画像ブロックにおける物体画像の動きを反
映した動きベクトルが存在しそうな範囲の中心となる位
置を指示するものであり、また第2の重み中心ベクトル
V2は、参照画像ブロックにおける背景画像の動きを反
映した動きベクトルが存在しそうな範囲の中心となる位
置(上述したように、通常は、原点付近)を指示するも
のであるから、式(4)にしたがって得られる重み付き
残差F(△X,△Y)の最小値を与える候補ベクトル
(△X,△Y)を動きベクトル(△X,△Y)とするこ
とにより、この動きベクトルは、大きさが短く、参照画
像中の背景および物体の両方の動きを反映したものとな
る。このように、動きベクトルは、画像の動きを反映し
たものであるから、差分画像の符号量を低減することが
でき、さらに動きベクトルは、大きさの短いものである
から、画像全体の符号量を低減することができる。
As described above, the first weighting center vector V1 indicates the position at the center of the range in which the motion vector reflecting the motion of the object image in the reference image block is likely to exist, and the second weighting center vector V1. The weighting center vector V2 of (1) indicates the center position (usually near the origin as described above) of the range in which the motion vector reflecting the motion of the background image in the reference image block is likely to exist. By setting the candidate vector (ΔX, ΔY) giving the minimum value of the weighted residual F (ΔX, ΔY) obtained according to the equation (4) as the motion vector (ΔX, ΔY), The motion vector has a short size and reflects the motion of both the background and the object in the reference image. In this way, since the motion vector reflects the motion of the image, it is possible to reduce the code amount of the difference image. Further, since the motion vector has a short size, the code amount of the entire image is reduced. Can be reduced.

【0073】また、動きベクトルをそのまま可変長符号
化した場合の発生符号量を低減することができる。
Further, it is possible to reduce the amount of generated code when the motion vector is directly variable-length coded.

【0074】さらに、図7(a)は、第1の重みW1
(△X,△Y)またはW2(△X,△Y)を掛け合わせ
た重みの、△X方向だけを考慮し、△Y方向は無視した
ものW1(△X)×W2(△X)を示している。
Further, FIG. 7A shows the first weight W1.
Considering only the ΔX direction of the weights multiplied by (ΔX, ΔY) or W2 (ΔX, ΔY) and ignoring the ΔY direction W1 (ΔX) × W2 (ΔX) Shows.

【0075】これを、例えばランダムノイズのある平坦
なテクスチャの画像から得られる、前述した図15
(a)に示した残差E(△X)に乗算することにより重
み付けを行ったもの、即ち重み付き残差は、図7(b)
に示すようなものになる。従って、この場合、図中、X
2またはX3で示す第1または第2の重み中心ベクトルV
1またはV2が指示する位置付近が動きベクトルとして
検出され易くなり、画像の実際の動きに即していない偽
りの動きベクトルが検出されることを防止することがで
きる。
This is obtained from, for example, an image of a flat texture with random noise, as shown in FIG.
The weighted residual, that is, the weighted residual shown in FIG. 7B is obtained by multiplying the residual E (ΔX) shown in (a).
It becomes something like. Therefore, in this case, in the figure, X
The first or second weight center vector V indicated by 2 or X 3.
It becomes easy to detect the vicinity of the position indicated by 1 or V2 as a motion vector, and it is possible to prevent detection of a false motion vector that does not match the actual motion of the image.

【0076】なお、符号化の開始時においては、蓄積メ
モリ12(図1)には、まだ動きベクトルが記憶されて
いないので、演算器5は、累積加算器4からの残差E
(△X,△Y)をそのまま最小値検出回路6に出力する
ようになされている。従って、この場合には、従来の装
置と同様にして動きベクトルが検出されることになる。
At the start of encoding, since the motion vector is not yet stored in the storage memory 12 (FIG. 1), the calculator 5 causes the residual error E from the cumulative adder 4 to be calculated.
(ΔX, ΔY) is directly output to the minimum value detection circuit 6. Therefore, in this case, the motion vector is detected as in the conventional device.

【0077】また、本実施例では、残差E(△X,△
Y)に対し、2つの重みW1(△X,△Y)およびW2
(△X,△Y)を乗算することにより重み付けを行うよ
うにしたが、この他、例えば残差E(△X,△Y)に対
し、2つの重みW1(△X,△Y)およびW2(△X,
△Y)を加算することにより重み付けを行うようにする
ことができる。但し、この場合、演算器5には、乗算処
理ではなく、加算処理を行わせるようにする必要があ
る。
In the present embodiment, the residual E (ΔX, Δ
Y) two weights W1 (ΔX, ΔY) and W2
Weighting is performed by multiplying (ΔX, ΔY), but in addition to this, for example, two weights W1 (ΔX, ΔY) and W2 are applied to the residual E (ΔX, ΔY). (△ X,
Weighting can be performed by adding ΔY). However, in this case, it is necessary for the computing unit 5 to perform addition processing instead of multiplication processing.

【0078】さらに、本実施例においては、残差E(△
X,△Y)に対し、2つの重みW1(△X,△Y)およ
びW2(△X,△Y)(あるいはW1(△X,△Y,E
(△X,△Y))およびW2(△X,△Y,E(△X,
△Y)))による重み付けを行うようにしたが、この
他、これ以外の、過去に検出された動きベクトルに基づ
く重み(動きベクトルの大きさを小さくするとともに、
可変長符号化による発生符号量を少なくする重み)を用
いた、3以上の重み付けを行うようにすることができ
る。
Further, in this embodiment, the residual E (Δ
Two weights W1 (ΔX, ΔY) and W2 (ΔX, ΔY) (or W1 (ΔX, ΔY, E) for X, ΔY)
(ΔX, ΔY)) and W2 (ΔX, ΔY, E (ΔX,
ΔY))) is used for weighting. In addition to this, other weights based on motion vectors detected in the past (the size of the motion vector is reduced, and
It is possible to perform weighting of 3 or more by using a weight for reducing the generated code amount by the variable length coding.

【0079】即ち、例えば以下に示すような式にしたが
って、重み付き残差F(△X,△Y)を算出するように
することができる。
That is, for example, the weighted residual F (ΔX, ΔY) can be calculated according to the following equation.

【0080】F(ΔX,ΔY)=E(ΔX,ΔY) ×W1(ΔX,ΔY) ×W2(ΔX,ΔY) ・ ・ ・F (ΔX, ΔY) = E (ΔX, ΔY) × W1 (ΔX, ΔY) × W2 (ΔX, ΔY)

【0081】F(ΔX,ΔY)=E(ΔX,ΔY) ×W1(ΔX,ΔY,E(ΔX,ΔY)) ×W2(ΔX,ΔY,E(ΔX,ΔY)) ・ ・ ・F (ΔX, ΔY) = E (ΔX, ΔY) × W1 (ΔX, ΔY, E (ΔX, ΔY)) × W2 (ΔX, ΔY, E (ΔX, ΔY))

【0082】F(ΔX,ΔY)=E(ΔX,ΔY) +W1(ΔX,ΔY) +W2(ΔX,ΔY) ・ ・ ・F (ΔX, ΔY) = E (ΔX, ΔY) + W1 (ΔX, ΔY) + W2 (ΔX, ΔY)

【0083】F(ΔX,ΔY)=E(ΔX,ΔY) +W1(ΔX,ΔY,E(ΔX,ΔY)) +W2(ΔX,ΔY,E(ΔX,ΔY)) ・ ・ ・F (ΔX, ΔY) = E (ΔX, ΔY) + W1 (ΔX, ΔY, E (ΔX, ΔY)) + W2 (ΔX, ΔY, E (ΔX, ΔY))

【0084】また、本実施例では、フレーム単位の画像
に対して処理を施すようにしたが、フィールド単位の画
像に対しても同様の処理を行うようにすることができ
る。
Further, in the present embodiment, the processing is performed on the image in frame units, but the same processing can be performed on the image in field units.

【0085】さらに、本実施例においては、第1および
第2の重みW1およびW2による重み付けの比率につい
ては言及しなかったが、可変長符号化回路7で近接ブロ
ックの動きベクトルとの差分をとり、可変長符号化する
ことを考えれば、第1の重みW1より第2の重みW2に
よる重み付けの影響を強くする(W1よりW2のダイナ
ミックレンジを広くする)方が、より発生符号量を低減
することができる。但し、例えばパーンしている背景上
を小さな物体が移動しているような画像に対しては、第
2の重みW2より第1の重みW1による重み付けの影響
を強くする方が好ましい。
Further, in the present embodiment, the weighting ratio by the first and second weights W1 and W2 was not mentioned, but the variable length coding circuit 7 calculates the difference from the motion vector of the adjacent block. Considering variable length coding, the generated code amount is further reduced by increasing the influence of the weighting by the second weight W2 over the first weight W1 (widening the dynamic range of W2 over W1). be able to. However, for an image in which a small object is moving on a background that is panning, for example, it is preferable to make the weighting effect of the first weight W1 stronger than the second weight W2.

【0086】また、本発明は、例えばMPEGやJPE
Gなどに準拠した画像符号化装置に適用することが可能
である。
The present invention is also applicable to, for example, MPEG or JPE.
It can be applied to an image encoding device conforming to G or the like.

【0087】[0087]

【発明の効果】請求項1に記載の画像符号化方法によれ
ば、所定の誤差に対し、過去に検出された動きベクトル
に基づいて、2以上の重み付けが行われ、その結果得ら
れる所定の誤差を最小にする動きベクトルが検出される
ので、発生符号量を低減することができる。
According to the image coding method of the first aspect, the predetermined error is weighted by 2 or more based on the motion vector detected in the past, and the predetermined error obtained as a result is obtained. Since the motion vector that minimizes the error is detected, the generated code amount can be reduced.

【0088】請求項2に記載の画像符号化方法によれ
ば、所定の誤差に対し、動きベクトルの大きさを小さく
するとともに、可変長符号化によるビット発生量を少な
くするように、2以上の重み付けが行われ、その結果得
られる所定の誤差を最小にする動きベクトルが検出され
るので、発生符号量を低減することができる。
According to the image coding method of the second aspect, the magnitude of the motion vector is reduced with respect to a predetermined error, and the bit generation amount due to the variable length coding is reduced to 2 or more. Since the weighting is performed and the motion vector that minimizes the predetermined error obtained as a result is detected, the generated code amount can be reduced.

【0089】請求項3に記載の画像符号化方法によれ
ば、2以上の重み付けのうちのひとつが、同一フレーム
の画像のブロックの動きベクトルのうちの既に検出され
た動きベクトルに対応したものであるので、画像の背景
の動きを、精度良く反映した動きベクトルを得ることが
できる。
According to the image coding method of the third aspect, one of the two or more weightings corresponds to the already detected motion vector of the motion vectors of the blocks of the image of the same frame. Therefore, it is possible to obtain a motion vector that accurately reflects the motion of the background of the image.

【0090】請求項4に記載の画像符号化方法によれ
ば、2以上の重み付けのうちのひとつが、既に符号化さ
れたフレームの画像の既に検出された動きベクトルに対
応したものであるので、画像内の物体の動きを、精度良
く反映した動きベクトルを得ることができる。
According to the image coding method of the fourth aspect, since one of the two or more weightings corresponds to the already detected motion vector of the image of the already coded frame, It is possible to obtain a motion vector that accurately reflects the motion of the object in the image.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の画像符号化方法を適用した画像符号化
装置の一実施例の構成を示すブロック図である。
FIG. 1 is a block diagram showing a configuration of an embodiment of an image encoding device to which an image encoding method of the present invention is applied.

【図2】蓄積メモリ12が出力する第1の重み中心ベク
トルV1を説明する図である。
FIG. 2 is a diagram illustrating a first weight center vector V1 output from a storage memory 12.

【図3】重み算出器13が算出する第1の重みW1を説
明する図である。
FIG. 3 is a diagram illustrating a first weight W1 calculated by a weight calculator 13.

【図4】蓄積メモリ12が出力する第2の重み中心ベク
トルV2を説明する図である。
FIG. 4 is a diagram illustrating a second weight center vector V2 output from the storage memory 12.

【図5】重み算出器14が算出する第2の重みW2を説
明する図である。
FIG. 5 is a diagram illustrating a second weight W2 calculated by a weight calculator 14.

【図6】図3または図5にそれぞれ示した第1または第
2の重みW1またはW2を掛け合わせた重みを示す図で
ある。
6 is a diagram showing weights obtained by multiplying the first or second weights W1 or W2 shown in FIG. 3 or FIG. 5, respectively.

【図7】図6に示す重みと、その重みによる重み付けが
行われた残差とを示す図である。
FIG. 7 is a diagram showing the weights shown in FIG. 6 and residuals weighted by the weights.

【図8】フレーム間相関を利用した画像圧縮の原理を説
明する図である。
FIG. 8 is a diagram illustrating the principle of image compression using inter-frame correlation.

【図9】動きベクトルの検出原理を説明する図である。FIG. 9 is a diagram illustrating the principle of motion vector detection.

【図10】サーチ範囲が広い場合と狭い場合の動きベク
トルの検出の様子を示す図である。
FIG. 10 is a diagram showing how a motion vector is detected when the search range is wide and narrow.

【図11】可変長符号化後の発生符号量が多い動きベク
トルを示す図である。
[Fig. 11] Fig. 11 is a diagram illustrating a motion vector having a large amount of generated code after variable-length coding.

【図12】可変長符号化後の発生符号量と、動きベクト
ルとの関係を説明する図である。
FIG. 12 is a diagram for explaining the relationship between the amount of generated code after variable-length coding and a motion vector.

【図13】テレスコピックサーチを説明する図である。FIG. 13 is a diagram illustrating a telescopic search.

【図14】テレスコピックサーチにおいて、画像の動き
の予測が外れた場合の様子を説明する図である。
FIG. 14 is a diagram for explaining a situation in the telescopic search when the prediction of the motion of the image is incorrect.

【図15】従来の重み付け方法を説明する図である。FIG. 15 is a diagram illustrating a conventional weighting method.

【符号の説明】[Explanation of symbols]

1 カレントメモリ 2 サーチメモリ 3 差分器 4 累積加算器 5 演算器 6 最小値検出回路 7,8 可変長符号化回路 9 マルチプレクサ 10 ローカルデコードメモリ 11 動き補償回路 12 前・現フレームベクトル蓄積メモリ 13,14 重み算出器 15 演算器 1 Current Memory 2 Search Memory 3 Difference Unit 4 Cumulative Adder 5 Computing Unit 6 Minimum Value Detection Circuit 7, 8 Variable Length Coding Circuit 9 Multiplexer 10 Local Decode Memory 11 Motion Compensation Circuit 12 Previous / Current Frame Vector Accumulation Memory 13, 14 Weight calculator 15 calculator

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 パターンマッチング法によって、画像信
号から、所定の誤差を最小にする動きベクトルを検出
し、 前記動きベクトルに基づいて動き補償を行うことにより
予測画像信号を求め、 前記画像信号と予測画像信号との差分を算出し、その差
分データと、前記動きベクトルとを可変長符号化する画
像符号化方法において、 前記所定の誤差に対し、過去に検出された動きベクトル
に基づいて、2以上の重み付けを行うことを特徴とする
画像符号化方法。
1. A pattern matching method is used to detect a motion vector that minimizes a predetermined error from an image signal, and motion compensation is performed based on the motion vector to obtain a predicted image signal. An image encoding method for calculating a difference between an image signal and variable length encoding the difference data and the motion vector, wherein the difference is 2 or more based on a motion vector detected in the past with respect to the predetermined error. An image coding method characterized by performing weighting of the.
【請求項2】 パターンマッチング法によって、画像信
号から、所定の誤差を最小にする動きベクトルを検出
し、 前記動きベクトルに基づいて動き補償を行うことにより
予測画像信号を求め、 前記画像信号と予測画像信号との差分を算出し、その差
分データと、前記動きベクトルとを可変長符号化する画
像符号化方法において、 前記所定の誤差に対し、前記動きベクトルの大きさを小
さくするとともに、前記可変長符号化によるビット発生
量を少なくするように、2以上の重み付けを行うことを
特徴とする画像符号化方法。
2. A pattern matching method is used to detect a motion vector that minimizes a predetermined error from the image signal, and motion compensation is performed based on the motion vector to obtain a predicted image signal. An image coding method for calculating a difference between an image signal and variable length coding the difference data and the motion vector, wherein the size of the motion vector is reduced with respect to the predetermined error, and the variable An image coding method, wherein weighting of 2 or more is performed so as to reduce the amount of bits generated by long coding.
【請求項3】 前記動きベクトルは、1フレームの画像
の所定のブロックごとに検出され、 前記2以上の重み付けのうちのひとつは、同一フレーム
の画像のブロックの動きベクトルのうちの既に検出され
た動きベクトルに対応したものであることを特徴とする
請求項1または2に記載の画像符号化方法。
3. The motion vector is detected for each predetermined block of an image of one frame, and one of the two or more weightings has already been detected among motion vectors of blocks of an image of the same frame. The image coding method according to claim 1, wherein the image coding method corresponds to a motion vector.
【請求項4】 前記2以上の重み付けのうちのひとつ
は、既に符号化されたフレームの画像の既に検出された
動きベクトルに対応したものであることを特徴とする請
求項1または2に記載の画像符号化方法。
4. The method according to claim 1, wherein one of the two or more weightings corresponds to an already detected motion vector of an image of an already encoded frame. Image coding method.
JP3104994A 1994-03-01 1994-03-01 Image coding method Expired - Fee Related JP3561943B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3104994A JP3561943B2 (en) 1994-03-01 1994-03-01 Image coding method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3104994A JP3561943B2 (en) 1994-03-01 1994-03-01 Image coding method

Publications (2)

Publication Number Publication Date
JPH07240923A true JPH07240923A (en) 1995-09-12
JP3561943B2 JP3561943B2 (en) 2004-09-08

Family

ID=12320636

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3104994A Expired - Fee Related JP3561943B2 (en) 1994-03-01 1994-03-01 Image coding method

Country Status (1)

Country Link
JP (1) JP3561943B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6606414B1 (en) 1997-05-07 2003-08-12 Siemens Aktiegesellschaft Method and device for coding a digitized image
US6611559B1 (en) 1996-09-24 2003-08-26 Matsushita Electric Industrial Co., Ltd. Apparatus and method of detecting motion vectors by calculating a correlation degree between each candidate block
JP2006245932A (en) * 2005-03-02 2006-09-14 Toshiba Corp Moving picture processing apparatus, method, and program
JP2009515395A (en) * 2005-11-02 2009-04-09 イマジネイション テクノロジーズ リミテッド Motion estimation

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6611559B1 (en) 1996-09-24 2003-08-26 Matsushita Electric Industrial Co., Ltd. Apparatus and method of detecting motion vectors by calculating a correlation degree between each candidate block
US6606414B1 (en) 1997-05-07 2003-08-12 Siemens Aktiegesellschaft Method and device for coding a digitized image
JP2006245932A (en) * 2005-03-02 2006-09-14 Toshiba Corp Moving picture processing apparatus, method, and program
JP4504230B2 (en) * 2005-03-02 2010-07-14 株式会社東芝 Moving image processing apparatus, moving image processing method, and moving image processing program
JP2009515395A (en) * 2005-11-02 2009-04-09 イマジネイション テクノロジーズ リミテッド Motion estimation

Also Published As

Publication number Publication date
JP3561943B2 (en) 2004-09-08

Similar Documents

Publication Publication Date Title
US11134263B2 (en) Moving picture decoding method and moving picture encoding method
JP2801559B2 (en) Motion compensation coding method and apparatus adapted to the magnitude of motion
US5760846A (en) Apparatus for estimating motion vectors for feature points of a video signal
US8340189B1 (en) Phase correlation based motion estimation in hybrid video compression
US5581308A (en) Method and apparatus for determining true motion vectors for selected pixels
US7321626B2 (en) System and method for predictive motion estimation using a global motion predictor
KR100275694B1 (en) Hierarchical search block matching method by using multiple motion vector candidates
US20080002772A1 (en) Motion vector estimation method
KR100207390B1 (en) Moving vector detecting method using hierachical motion predicting method
JP2009520407A (en) Motion estimation using predictive guided decimation search
KR100561398B1 (en) Apparatus and method for detecting and compensating luminance change of each partition in moving picture
Hill et al. Interpolation free subpixel accuracy motion estimation
JP2009509411A (en) Multi-stage link method for adaptive motion vector sampling in video compression
KR20040070490A (en) Method and apparatus for encoding/decoding video signal in interlaced video
US5778100A (en) Method and apparatus for reducing the bit rate in a video object planes sequence coder
US20050105620A1 (en) Motion vector detecting device and motion vector detecting program
US5579050A (en) Apparatus for encoding a video signal using a search grid
JP3561943B2 (en) Image coding method
US6020925A (en) Method and apparatus for encoding a video signal using pixel-by-pixel motion prediction
KR100602148B1 (en) Method for motion picture encoding use of the a quarter of a pixel motion vector in mpeg system
JP3941900B2 (en) Motion vector detection device
JPH0984017A (en) Motion compensation prediction coding method for moving image
JP2005516501A (en) Video image encoding in PB frame mode
KR0181068B1 (en) Motion estimation apparatus
JP2765528B2 (en) Half-pixel accuracy motion vector search device

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040511

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040524

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080611

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees