JPH10341440A - Moving image encoding method and device therefor - Google Patents

Moving image encoding method and device therefor

Info

Publication number
JPH10341440A
JPH10341440A JP14911697A JP14911697A JPH10341440A JP H10341440 A JPH10341440 A JP H10341440A JP 14911697 A JP14911697 A JP 14911697A JP 14911697 A JP14911697 A JP 14911697A JP H10341440 A JPH10341440 A JP H10341440A
Authority
JP
Japan
Prior art keywords
frame
motion vector
block
encoding target
adjacent
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP14911697A
Other languages
Japanese (ja)
Inventor
Atsushi Shimizu
淳 清水
Kazuto Kamikura
一人 上倉
Yutaka Watanabe
裕 渡辺
Atsushi Sagata
淳 嵯峨田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP14911697A priority Critical patent/JPH10341440A/en
Publication of JPH10341440A publication Critical patent/JPH10341440A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To reduce the computing amount of the motion vector detection of inter-frame encoding and the number of times of reference. SOLUTION: The position of a prediction block is calculated from the motion vector to an adjacent frame of an encoding object block (step 101). One or more reference blocks inside an adjacent reference frame for constituting the prediction block are extracted (step 102). Whether or not the motion vector of the respective adjacent reference blocks indicates an actual motion is evaluated and the motion vector of a low evaluation value is excluded (step 103). The weighting coefficient of the motion vector of the respective adjacent reference blocks is calculated (step 104). The motion vector of the encoding object block is calculated from the motion vector to the adjacent frame of the encoding object block, the motion vector of the respective adjacent reference blocks and the weighting coefficient (step 105).

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、入力されたフレー
ムをブロックに分割し、ブロック毎に過去または未来の
隣接するフレームに対する動きベクトルを検出し、検出
された動きベクトルにより動き補償フレーム間予測を行
う動画像符号化方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention divides an input frame into blocks, detects a motion vector for a past or future adjacent frame for each block, and performs motion compensation inter-frame prediction using the detected motion vector. The present invention relates to a moving image encoding method to be performed.

【0002】[0002]

【従来の技術】一般に、動画像符号化方法では、時間方
向の冗長性を除去するため、動き補償フレーム間予測が
用いられてる。動き補償フレーム間予測とは、参照フレ
ームを動きベクトルにより動き補償をした画像信号を予
測信号とし、符号化対象ブロックの予測誤差を算出する
方法である。動き補償フレーム間予測を用いる場合、動
きベクトルを探索をする必要がある。
2. Description of the Related Art In general, in a moving picture coding method, motion compensated inter-frame prediction is used to remove temporal redundancy. The motion compensated inter-frame prediction is a method of calculating a prediction error of an encoding target block by using an image signal obtained by performing motion compensation on a reference frame using a motion vector as a prediction signal. When motion compensation inter-frame prediction is used, it is necessary to search for a motion vector.

【0003】通常、動きベクトルを探索範囲は、符号化
対象フレームと参照フレーム間の距離に比例して拡大さ
れる。フレーム間距離が1での動きベクトルの探索範囲
を±S×±Sとする。フレーム間距離がdでは、±d・
S×±d・Sの範囲を探索する。よって、フレーム間距
離dでの探索範囲は、フレーム間距離が1の隣接フレー
ムでの動きベクトル探索に対し、d×d倍となる。フレ
ーム間距離1での動きベクトルの探索範囲が±S×±S
での演算回数をUとすると、フレーム間距離dでの演算
回数はd2 ・Uとなる。
Normally, the search range for a motion vector is expanded in proportion to the distance between the current frame and the reference frame. The search range of the motion vector when the interframe distance is 1 is ± S × ± S. When the distance between frames is d, ± d
Search the range of S × ± d · S. Therefore, the search range at the inter-frame distance d is d × d times the motion vector search in the adjacent frame with the inter-frame distance of 1. Search range of motion vector at interframe distance 1 is ± S × ± S
Assuming that the number of calculations at U is U, the number of calculations at the interframe distance d is d 2 · U.

【0004】動きベクトルの探索は膨大な演算回数を伴
うため、演算回数を削減する方法が必要とされている。
一般に、演算回数を削減する方法として、テレスコピッ
クサーチが用いられる。テレスコピックサーチは、参照
フレームと符号化対象フレームの間に存在するフレーム
に対し順次動き探索を行うことにより、動きベクトルを
検出する手法である。フレーム間距離dでの演算量はd
・Uとなり、演算回数を削減できる。
Since the search for a motion vector involves an enormous number of calculations, a method for reducing the number of calculations is required.
Generally, a telescopic search is used as a method of reducing the number of operations. The telescopic search is a technique of detecting a motion vector by sequentially performing a motion search on a frame existing between a reference frame and an encoding target frame. The amount of computation at the distance d between frames is d
-U is obtained, and the number of operations can be reduced.

【0005】テレスコピックサーチの例を図9に示す。
今、フレームn+3を符号化対象フレーム、フレームn
を参照フレームとして、動きベクトル検出を行う場合を
示す。まず、探索範囲±S×±Sで、フレームn+2へ
の動きベクトルv1を検出する。続いて、動きベクトル
v1移動した位置を中心に、探索範囲±S×±Sで、フ
レームn+3からフレームn+1への動きベクトルv2
+v1を検出する。同様に、動きベクトルv2+v1移
動した位置を中心に探索を行い、フレームn+3からフ
レームnへの動きベクトルv3+v2+v1を検出す
る。この動きベクトルを符号化対象ブロックの動きベク
トルv0とする。この例での演算回数は3Uとなる。
FIG. 9 shows an example of a telescopic search.
Now, frame n + 3 is the frame to be encoded, frame n
Is used as a reference frame to perform motion vector detection. First, a motion vector v1 to a frame n + 2 is detected within the search range ± S × ± S. Subsequently, the motion vector v2 from the frame n + 3 to the frame n + 1 in the search range ± S × ± S around the position moved by the motion vector v1.
+ V1 is detected. Similarly, a search is performed around the position moved by the motion vector v2 + v1, and a motion vector v3 + v2 + v1 from the frame n + 3 to the frame n is detected. This motion vector is set as a motion vector v0 of the current block. The number of operations in this example is 3U.

【0006】このように、テレスコピックサーチを用い
ることで、演算回数を削減できる。
As described above, the number of calculations can be reduced by using the telescopic search.

【0007】[0007]

【発明が解決しようとする課題】従来の方法では、符号
化対象フレームと参照フレーム間のフレームに対し、順
次動き探索を行っている。
In the conventional method, a motion search is sequentially performed on a frame between an encoding target frame and a reference frame.

【0008】いま、図10に示すような参照関係で符号
化処理を行う場合を考える。フレーム間距離1での動き
ベクトルの探索範囲が±S×±S、その演算回数をUと
する。テレスコッピクサーチでは、参照関係P1の演算
回数はU、参照関係P2の演算回数は2U、参照関係P
3の演算回数は3Uというように、符号化対象フレーム
と参照フレームとのフレーム間距離に比例して、符号化
対象フレームの演算量が増加する問題がある。
Now, consider a case where encoding processing is performed with reference relationships as shown in FIG. The search range of the motion vector at the inter-frame distance 1 is ± S × ± S, and the number of calculations is U. In the telescopic search, the number of operations of the reference relation P1 is U, the number of operations of the reference relation P2 is 2U,
There is a problem that the amount of calculation of the encoding target frame increases in proportion to the inter-frame distance between the encoding target frame and the reference frame, such as the number of operations of 3 is 3U.

【0009】また、参照関係P2とP3では、それぞれ
参照関係と無関係なフレームを参照しなければならず、
その参照回数はフレーム間距離に比例する。
In the reference relations P2 and P3, frames which are not related to the reference relation must be referred to.
The number of references is proportional to the distance between frames.

【0010】このように、テレスコピックサーチでは、
各フレームの参照関係が一様でない場合、参照関係のフ
レーム間距離に比例して演算量や参照回数が増加し、演
算量や各フレームの参照回数が均一にならないという問
題がある。このため、例えば、実時間で符号化処理を行
う場合、最大演算量と最大参照回数により動画像符号化
処理部を設計する必要があった。
Thus, in the telescopic search,
If the reference relation of each frame is not uniform, there is a problem that the amount of calculation and the number of references increase in proportion to the distance between frames of the reference relation, and the amount of calculation and the number of references of each frame are not uniform. For this reason, for example, when the encoding process is performed in real time, it is necessary to design a moving image encoding processing unit based on the maximum calculation amount and the maximum number of times of reference.

【0011】本発明の目的は、フレーム間符号化の動き
ベクトル検出の演算量と参照回数を削減する動画像符号
化方法および装置を提供することにある。
An object of the present invention is to provide a moving picture coding method and apparatus which reduce the amount of calculation and the number of references for detecting a motion vector in inter-frame coding.

【0012】本発明の他の目的は、符号化対象フレーム
と参照フレームのフレーム間距離によらずフレーム間符
号化の動きベクトル検出の演算量と参照回数を均一にす
る動画像符号化方法および装置を提供することにある。
Another object of the present invention is to provide a moving picture coding method and apparatus for equalizing the calculation amount and the number of times of reference of the motion vector detection of the inter-frame coding irrespective of the distance between the frame to be coded and the reference frame. Is to provide.

【0013】[0013]

【課題を解決するための手段】本発明の動画像符号化方
法は、符号化対象フレームが隣接するフレーム以外のフ
レームを参照フレームとする際、該参照フレームと符号
化対象フレームの間に存在するブロック毎に検出された
動きベクトルから、参照フレームと符号化対象フレーム
間の動きベクトルを推定する。
According to the moving picture coding method of the present invention, when a frame other than the frame adjacent to the frame to be coded is used as a reference frame, the frame exists between the reference frame and the frame to be coded. The motion vector between the reference frame and the encoding target frame is estimated from the motion vector detected for each block.

【0014】本発明の実施態様によれば、符号化対象フ
レームの各ブロックの動きベクトルを推定する際、符号
化対象ブロックから隣接するフレームへの動きベクトル
を検出し、検出された動きベクトルにより求まる予測ブ
ロックを構成する隣接フレームのブロックを抽出し、抽
出したブロックの情報をもとに、参照フレームから符号
化対象フレームへの動きベクトルを符号化対象ブロック
毎に推定する。
According to the embodiment of the present invention, when estimating the motion vector of each block of the encoding target frame, a motion vector from the encoding target block to an adjacent frame is detected, and the motion vector is obtained from the detected motion vector. A block of an adjacent frame constituting the prediction block is extracted, and a motion vector from the reference frame to the encoding target frame is estimated for each encoding target block based on information of the extracted block.

【0015】本発明の実施態様によれば、符号化対象フ
レームと予測ブロックを構成する隣接フレームのブロッ
クが持つ動きベクトルをもとに、符号化対象ブロックの
動きベクトルを推定する際、予測ブロックを構成する隣
接フレームの各ブロックについて、予測ブロックの構成
比率を算出し、算出された構成比率をもとに重み係数を
算出し、隣接フレーム内の各ブロックの動きベクトルに
重み付けをし、参照フレームから符号化対象フレームへ
の動きベクトルを符号化対象ブロック毎に推定する。
According to the embodiment of the present invention, when estimating the motion vector of the current block based on the motion vectors of the current frame and the blocks of adjacent frames constituting the predicted block, For each block of the adjacent frame that constitutes, the composition ratio of the prediction block is calculated, a weight coefficient is calculated based on the calculated composition ratio, the motion vector of each block in the adjacent frame is weighted, and the The motion vector to the encoding target frame is estimated for each encoding target block.

【0016】本発明の実施態様によれば、符号化対象フ
レームと抽出した隣接フレームのブロックが持つ動きベ
クトルをもとに、符号化対象フレームの各ブロックの動
きベクトルを推定する際、隣接フレームの抽出したブロ
ックの動きベクトルがどの程度実際の動きを表している
かを評価し、該評価価値の低い動きベクトルを用いずに
参照フレームから符号化対象フレームへの動きベクトル
を符号化対象ブロック毎に推定する。
According to the embodiment of the present invention, when estimating the motion vector of each block of the encoding target frame based on the motion vector of the encoding target frame and the extracted block of the adjacent frame, Evaluate how much the motion vector of the extracted block represents the actual motion, and estimate the motion vector from the reference frame to the encoding target frame for each encoding target block without using the motion vector of low evaluation value I do.

【0017】本発明の実施態様によれば、動き補償フレ
ーム間予測を用いる動画像符号化方法において、符号化
対象フレームが隣接フレーム以外のフレームを参照する
際、参照フレームと符号化対象フレームの間に存在する
フレームが複数ある場合、上記のいずれかの動きベクト
ル推定を複数回繰り返すことにより、参照フレームから
符号化対象フレームへの動きベクトルを推定する。
According to an embodiment of the present invention, in a moving picture coding method using motion-compensated inter-frame prediction, when a frame to be coded refers to a frame other than an adjacent frame, a frame between the reference frame and the frame to be coded is In the case where there are a plurality of frames existing in, a motion vector from the reference frame to the encoding target frame is estimated by repeating any one of the above motion vector estimations.

【0018】本発明の動画像符号化装置は、符号化対象
フレームの各符号化対象ブロックの隣接フレームへの動
きベクトルから決まる隣接フレーム内での予測ブロック
の位置に存在するブロックが持つ動きベクトルをもとに
参照フレームから符号化対象フレームへの動きベクトル
を符号化対象ブロック毎に推定する動きベクトル推定手
段を有する。
The moving picture coding apparatus according to the present invention calculates a motion vector of a block existing at a position of a prediction block in an adjacent frame determined from a motion vector to an adjacent frame of each coding target block of the coding target frame. It has a motion vector estimating means for estimating a motion vector from a reference frame to an encoding target frame for each encoding target block.

【0019】本発明の実施態様によれば、動きベクトル
推定手段は、予測ブロックを構成する隣接フレームの各
ブロックについて、予測ブロックの構成比率を算出し、
算出された構成比率をもとに重み係数を算出し、隣接フ
レーム内の各ブロックの動きベクトルに重み付けをし、
参照フレームから符号化対象フレームへの動きベクトル
を符号化対象ブロック毎に推定する。
According to the embodiment of the present invention, the motion vector estimating means calculates a constituent ratio of a predicted block for each block of an adjacent frame forming the predicted block,
A weight coefficient is calculated based on the calculated composition ratio, and a motion vector of each block in an adjacent frame is weighted.
A motion vector from the reference frame to the encoding target frame is estimated for each encoding target block.

【0020】本発明の実施態様によれば、動きベクトル
推定手段は、隣接フレームの抽出したブロックの動きベ
クトルがどの程度実際の動きを表しているかを評価し、
該評価値の低い動きベクトルを用いずに、参照フレーム
から符号化対象フレームへの動きベクトルを符号化対象
ブロック毎に推定する。
According to the embodiment of the present invention, the motion vector estimating means evaluates how much the motion vector of the extracted block of the adjacent frame represents the actual motion,
A motion vector from the reference frame to the encoding target frame is estimated for each encoding target block without using a motion vector having a low evaluation value.

【0021】本発明は、符号化対象フレームとフレーム
間距離が1であるフレーム(以下、隣接フレーム)で動
きベクトルを検出し、その動きベクトルから、隣接フレ
ーム以外を参照する参照関係の動きベクトルを推定す
る。
According to the present invention, a motion vector is detected from a frame to be encoded and a frame having a distance between frames of 1 (hereinafter, an adjacent frame), and a motion vector having a reference relationship that refers to a frame other than the adjacent frame is detected from the motion vector. presume.

【0022】本発明は、図1に示す手順により符号化対
象ブロックから参照フレームへの動きベクトルを推定す
る。
According to the present invention, a motion vector from a current block to a reference frame is estimated by the procedure shown in FIG.

【0023】1.符号化対象ブロックの隣接フレームへ
の動きベクトルから予測ブロックの位置を算出する(ス
テップ101)。
1. The position of the prediction block is calculated from the motion vector of the current block to the adjacent frame (step 101).

【0024】2.予測ブロックを構成する隣接参照フレ
ーム内の1つ以上の参照ブロックを抽出する(ステップ
102)。
2. One or more reference blocks in adjacent reference frames constituting a prediction block are extracted (step 102).

【0025】3.各隣接参照ブロックの動きベクトルが
実際の動きを表しているかを評価し、評価値が低い動き
ベクトルを除外する(ステップ103)。
3. It is evaluated whether the motion vector of each adjacent reference block represents an actual motion, and a motion vector having a low evaluation value is excluded (step 103).

【0026】4.各隣接参照ブロックの動きベクトルの
重み係数を算出する(ステップ104)。
4. The weight coefficient of the motion vector of each adjacent reference block is calculated (step 104).

【0027】5.符号化対象ブロックの隣接フレームへ
の動きベクトルと、各隣接参照ブロックの動きベクトル
と重み係数から符号化対象ブロックの動きベクトルを算
出する(ステップ105)。
5. The motion vector of the current block is calculated from the motion vector of the current block to the adjacent frame, the motion vector of each adjacent reference block, and the weight coefficient (step 105).

【0028】次に、本発明の基本構成を、過去のフレー
ムを参照する場合を例にして述べる。本発明の基本構成
を図2に示す。まず、入力されたフレームは、ブロック
分割部201でブロックに分割される。動きベクトル検
出部202で、フレームメモリ203に蓄えられている
直前に入力されたフレームからの動きベクトルを検出す
る。検出された動きベクトルは動きベクトルメモリ20
4に記憶される。フレームメモリ203内のフレームが
参照フレームである場合、スイッチ206を“D”に切
り替え、検出した動きベクトルを符号化処理部207に
渡し、符号化を行う。フレームメモリ203内のフレー
ムが参照フレームでない場合、動きベクトルメモリ20
4に記憶されれている動きベクトルを用い、動きベクト
ル推定部205で、符号化対象フレームから参照フレー
ムまでの動きベクトルを推定する。スイッチ206を
“E”に切り替え、推定した動きベクトルを符号化処理
部207に渡し、符号化を行う。ここで、動きベクトル
メモリ204の容量は、符号化対象フレームと参照フレ
ームのフレーム間距離の最大値に比例する。例えば、先
に示した図10の参照関係では、2フレーム分の動きベ
クトルを記憶できるだけの容量が必要となる。
Next, the basic configuration of the present invention will be described with reference to an example in which a past frame is referred to. FIG. 2 shows the basic configuration of the present invention. First, the input frame is divided into blocks by the block dividing unit 201. The motion vector detection unit 202 detects a motion vector from the immediately preceding frame stored in the frame memory 203. The detected motion vector is stored in the motion vector memory 20.
4 is stored. If the frame in the frame memory 203 is a reference frame, the switch 206 is switched to “D” and the detected motion vector is passed to the encoding processing unit 207 to perform encoding. If the frame in the frame memory 203 is not a reference frame, the motion vector memory 20
4, the motion vector estimating unit 205 estimates a motion vector from the current frame to the reference frame. The switch 206 is switched to “E”, and the estimated motion vector is passed to the encoding processing unit 207 to perform encoding. Here, the capacity of the motion vector memory 204 is proportional to the maximum value of the inter-frame distance between the encoding target frame and the reference frame. For example, in the reference relationship shown in FIG. 10 described above, a capacity that can store the motion vectors for two frames is required.

【0029】提案方法の動作例として、図10の参照関
係での動きベクトル検出を考える。既に、フレームnが
フレームメモリ203に蓄えられているとする。探索範
囲は、±S×±Sでの1フレーム当りの演算回数をU、
ブロック数をNとする。各フレームの参照関係と動きベ
クトルの関係を図3に示す。
As an operation example of the proposed method, consider the detection of a motion vector based on the reference relationship shown in FIG. It is assumed that the frame n has already been stored in the frame memory 203. The search range is U, the number of operations per frame at ± S × ± S
Let N be the number of blocks. FIG. 3 shows the relationship between the reference relationship of each frame and the motion vector.

【0030】フレームn+1が入力された場合、隣接フ
レームnとの間で、符号化対象フレームのブロックi
(i=1,2,・・・,N)の動きベクトル
When the frame n + 1 is input, the block i of the encoding target frame is
(I = 1, 2,..., N) motion vector

【0031】[0031]

【外1】 を検出する。動きベクトル[Outside 1] Is detected. Motion vector

【0032】[0032]

【外2】 は、動きベクトルメモリ204に記憶される。参照関係
P1は、隣接フレーム間の参照なので、スイッチ206
を“D”に切り替え、検出した動きベクトルを符号化処
理部207に渡し、符号化を行う。
[Outside 2] Are stored in the motion vector memory 204. Since the reference relationship P1 is a reference between adjacent frames, the switch 206
To “D”, and passes the detected motion vector to the encoding processing unit 207 to perform encoding.

【0033】次に、フレームn+2が入力された場合、
隣接フレームn+1との間で、符号化対象フレームのブ
ロック毎に動きベクトル
Next, when frame n + 2 is input,
A motion vector for each block of the encoding target frame between the adjacent frame n + 1

【0034】[0034]

【外3】 を検出する。先程と同様に動きベクトル[Outside 3] Is detected. Motion vector as before

【0035】[0035]

【外4】 は動きベクトルメモリ204に記憶される。参照関係P
2は、隣接フレーム間参照ではないので、動きベクトル
[Outside 4] Are stored in the motion vector memory 204. Reference relationship P
2 is not a reference between adjacent frames, so the motion vector

【0036】[0036]

【外5】 の推定を行う。動きベクトル推定部205で[Outside 5] Is estimated. In the motion vector estimation unit 205

【0037】[0037]

【外6】 と、動きベクトルメモリ204に記憶されている動きベ
クトルV01から推定する。
[Outside 6] From the motion vector V 01 stored in the motion vector memory 204.

【0038】[0038]

【数1】 (Equation 1)

【0039】ここで、V01はフレームnとフレームn+
1間で検出された全ブロックの動きベクトルである。参
照関係P2は隣接フレーム間参照ではないので、スイッ
チ206を“E”に切り替え、推定した動きベクトル
Here, V 01 is the frame n and the frame n +
It is a motion vector of all blocks detected between one. Since the reference relationship P2 is not a reference between adjacent frames, the switch 206 is switched to “E” and the estimated motion vector

【0040】[0040]

【外7】 を符号化処理部207に渡し、符号化を行う。[Outside 7] Is passed to the encoding processing unit 207 to perform encoding.

【0041】次に、フレームn+3が入力された場合、
隣接フレームn+2との間で、符号化対象フレームのブ
ロック毎に動きベクトル
Next, when frame n + 3 is input,
A motion vector for each block of the encoding target frame between the adjacent frame n + 2

【0042】[0042]

【外8】 を検出する。先程と同様に動きベクトル[Outside 8] Is detected. Motion vector as before

【0043】[0043]

【外9】 は、動きベクトルメモリ204に記憶される。参照関係
P3は、隣接フレーム間参照ではないので、動きベクト
[Outside 9] Are stored in the motion vector memory 204. Since the reference relation P3 is not a reference between adjacent frames, the motion vector

【0044】[0044]

【外10】 の推定を行う。動きベクトル推定部205で、[Outside 10] Is estimated. In the motion vector estimation unit 205,

【0045】[0045]

【外11】 と、動きベクトルメモリ204に記憶されている動きベ
クトルV01,V12から推定する。
[Outside 11] From the motion vectors V 01 and V 12 stored in the motion vector memory 204.

【0046】[0046]

【数2】 (Equation 2)

【0047】ここで、V01はフレームnとフレームn+
1間で検出された全ブロックの動きベクトル、V12はフ
レームn+1とフレームn+2間で検出された全ブロッ
クの動きベクトルである。参照関係P3は、隣接フレー
ム間参照ではないので、スイッチ206を“E”に切り
替え、推定した動きベクトル
Here, V 01 is the frame n and the frame n +
Motion vectors of all blocks detected between 1, V 12 represents a motion vector of the entire blocks detected between frame n + 1 and frame n + 2. Since the reference relation P3 is not a reference between adjacent frames, the switch 206 is switched to “E” and the estimated motion vector

【0048】[0048]

【外12】 を符号化処理部207に渡し、符号化を行う。[Outside 12] Is passed to the encoding processing unit 207 to perform encoding.

【0049】次に、動きベクトル推定部205について
述べる。符号化対象ブロックと参照フレームの関係を図
4に示す。この図は、図3における参照関係P2を示し
ている。符号化対象フレームをn+2、参照フレームを
nとする。
Next, the motion vector estimating unit 205 will be described. FIG. 4 shows the relationship between the current block and the reference frame. This figure shows the reference relationship P2 in FIG. The encoding target frame is n + 2, and the reference frame is n.

【0050】まず、符号化対象ブロックの隣接フレーム
への動きベクトル
First, a motion vector to the adjacent frame of the encoding target block

【0051】[0051]

【外13】 から、隣接フレーム内での予測ブロックの位置を求め
る。予測ブロックの位置に存在する1つ以上のブロック
(以下、隣接参照ブロック)が持つ動きベクトル
[Outside 13] , The position of the prediction block in the adjacent frame is obtained. Motion vectors of one or more blocks (hereinafter, adjacent reference blocks) existing at the position of the prediction block

【0052】[0052]

【外14】 を符号化データから抽出する。隣接参照ブロック数は、
ブロック形状や予測ブロックと隣接参照ブロックの配置
により決まる。図4の例では、ブロック形状が正方形
で、予測ブロックは、4つの隣接参照ブロック(bloc
ki)(i=1〜4)と重なり、4つの動きベクトル
[Outside 14] Is extracted from the encoded data. The number of adjacent reference blocks is
It is determined by the block shape and the arrangement of the prediction block and the adjacent reference block. In the example of FIG. 4, the block shape is a square, and the prediction block includes four adjacent reference blocks (bloc
k i ) (i = 1 to 4) and four motion vectors

【0053】[0053]

【外15】 が存在する。この隣接参照ブロックの動きベクトル[Outside 15] Exists. The motion vector of this adjacent reference block

【0054】[0054]

【外16】 に対して重み付けし、次式より新たな動きベクトル[Outside 16] And a new motion vector is calculated from the following equation.

【0055】[0055]

【外17】 [Outside 17]

【0056】を算出する。Is calculated.

【数3】 (Equation 3)

【0057】ここで、重みwi は、隣接参照ブロックと
予測ブロックとの関係から算出されるものである。例え
ば、予測ブロックに示す各隣接参照ブロックblockiの面
積比率から算出することができる。この他、符号化対象
ブロックの画像信号と各隣接参照ブロックの画像信号の
相関係数などがある。また、隣接参照ブロックの動きベ
クトルの信頼度を算出し、信頼度の低い動きベクトルを
除外して推定することにより、動き補償フレーム間予測
効率を向上させることができる。動きベクトルの信頼度
としては、動き検出時の予測誤差や符号化モード、動き
ベクトルの向きや大きさがある。
Here, the weight w i is calculated from the relationship between the adjacent reference block and the prediction block. For example, it can be calculated from the area ratio of each adjacent reference block block i shown in the prediction block. In addition, there is a correlation coefficient between the image signal of the current block and the image signal of each adjacent reference block. In addition, by calculating the reliability of the motion vector of the adjacent reference block and excluding the motion vector having a low reliability, the prediction efficiency can be improved. The reliability of the motion vector includes a prediction error at the time of motion detection, a coding mode, and a direction and a size of the motion vector.

【0058】次に、符号化対象フレームと参照フレーム
のフレーム間距離が3以上の場合について述べる。参照
関係P3の場合、まず、フレームn+3からフレームn
+1への動きベクトル
Next, a case where the distance between the encoding target frame and the reference frame is 3 or more will be described. In the case of the reference relationship P3, first, from frame n + 3 to frame n
Motion vector to +1

【0059】[0059]

【外18】 を上記の方法で推定する。そして、その動きベクトル[Outside 18] Is estimated by the above method. And the motion vector

【0060】[0060]

【外19】 を図4の[Outside 19] Of FIG.

【0061】[0061]

【外20】 とし、フレームn+1の動きベクトルV01をもとに、動
きベクトル
[Outside 20] And a motion vector based on the motion vector V 01 of the frame n + 1.

【0062】[0062]

【外21】 を推定する。フレーム間隔が3以上の場合でも同様に、
繰り返し推定することで、符号化対象フレームと参照フ
レームの間の動きベクトルを推定することができる。
[Outside 21] Is estimated. Similarly, when the frame interval is 3 or more,
By repeatedly performing the estimation, a motion vector between the encoding target frame and the reference frame can be estimated.

【0063】未来方向の予測は、上記の参照の順番を逆
にすることで容易に実現できる。
The prediction in the future direction can be easily realized by reversing the order of the above-mentioned reference.

【0064】提案方法での演算量を、以下に示す。ま
ず、隣接フレーム間での動きベクトル探索回数は隣接フ
レーム間の探索のみで、V01,V12,V23の3回であ
る。よって、演算量は3Uとなる。また、各フレーム
(n,n+1,n+2)の参照回数はそれぞれ1回であ
る。
The amount of calculation in the proposed method is shown below. First, the number of motion vector searches between adjacent frames is only the search between adjacent frames, and is three times V 01 , V 12 , and V 23 . Therefore, the calculation amount is 3U. The number of times of reference to each frame (n, n + 1, n + 2) is one.

【0065】参考までに、同様の参照関係をテレスコピ
ックサーチで動きベクトル検出を行った場合の演算量と
参照回数を示すと、演算量はU+(U+U)+(U+U
+U)=6Uとなり、各フレーム(n,n+1,n+
2)の参照回数はそれぞれ3回、2回、1回である。
For reference, the amount of calculation and the number of times of reference when the same reference relation is used for motion vector detection by telescopic search are shown. The amount of calculation is U + (U + U) + (U + U
+ U) = 6U, and each frame (n, n + 1, n +
The number of times of reference in 2) is 3, 2, and 1, respectively.

【0066】[0066]

【発明の実施の形態】次に、本発明の実施の形態につい
て図面を参照して説明する。
Next, embodiments of the present invention will be described with reference to the drawings.

【0067】図1は本発明の一実施形態の動画像符号化
装置の構成図である。本実施形態の符号化アルゴリズム
は、動き補償フレーム間予測と離散コサイン変換(DC
T)を基本としている。動き補償フレーム間予測は、先
に示した図10の参照関係のうち、参照関係P1とP2
で行う。ブロック形状は正方形とし、動きベクトルを推
定するための重み係数は面積比率から算出する。本実施
形態では、符号化モードは、フレーム間符号化モード
(以下、インタモード)とフレーム内符号化モード(以
下、イントラモード)の2種類がある。動きベクトル検
出時の予測誤差の大きさにより符号化モードをイントラ
モードに切り替えている。
FIG. 1 is a block diagram of a moving picture coding apparatus according to one embodiment of the present invention. The encoding algorithm of the present embodiment includes motion compensation inter-frame prediction and discrete cosine transform (DC
T). In the motion compensation inter-frame prediction, the reference relations P1 and P2 among the reference relations shown in FIG.
Do with. The block shape is a square, and the weight coefficient for estimating the motion vector is calculated from the area ratio. In the present embodiment, there are two types of coding modes: an inter-frame coding mode (hereinafter, an inter mode) and an intra-frame coding mode (hereinafter, an intra mode). The encoding mode is switched to the intra mode depending on the magnitude of the prediction error at the time of detecting the motion vector.

【0068】図6中、図2と同じ参照番号は同じ構成要
素を示している。
In FIG. 6, the same reference numerals as those in FIG. 2 indicate the same components.

【0069】符号化処理部207はブロック分割部30
1とフレームメモリ302と動き補償部303とスイッ
チ304と減算器305とDCT部306と量子化部3
07と逆量子化部308とIDCT部309と加算器3
10と符号化部311で構成されている。
The encoding processing unit 207 includes the block dividing unit 30
1, a frame memory 302, a motion compensation unit 303, a switch 304, a subtractor 305, a DCT unit 306, and a quantization unit 3.
07, the inverse quantization unit 308, the IDCT unit 309, and the adder 3
10 and an encoding unit 311.

【0070】まず、入力されたフレームは、ブロック分
割部201でブロックに分割される。動きベクトル検出
部202で、フレームメモリ203に蓄えられている直
前に入力されたフレームからの動きベクトルv0 を検出
する。その際、予測誤差Errから、符号化対象ブロッ
クの符号化モードm0 を次式により決定する。
First, the input frame is divided into blocks by the block dividing section 201. The motion vector detection unit 202 detects a motion vector v 0 from the immediately preceding frame stored in the frame memory 203. At this time, the coding mode m 0 of the current block is determined from the prediction error Err by the following equation.

【0071】[0071]

【数4】 (Equation 4)

【0072】ここで、THは、符号化モード決定のため
の閾値である。検出した動きベクトルv0 を動きベクト
ルメモリ204に、符号化モードm0 を符号化モードメ
モリ208に記憶する。参照関係がP1のように、フレ
ームメモリ203内のフレームが参照フレームである場
合、スイッチ206Aおよびスイッチ206Bを“D”
に切り替え、検出した動きベクトルと符号化モードm0
を符号化処理部207に渡し、符号化処理を行う。ま
た、参照関係がP2のように、フレームメモリ203内
のフレームが参照フレーム以外の場合、動きベクトルメ
モリ204に記憶されている動きベクトルと、符号化モ
ードメモリ208に記憶されている符号化モードを用
い、動きベクトル推定部205で、符号化対象フレーム
から参照フレームまでの動きベクトルを推定する。スイ
ッチ206Aおよびスイッチ206Bを“E”に切り替
え、推定した動きベクトル
Here, TH is a threshold value for determining a coding mode. The detected motion vector v 0 is stored in the motion vector memory 204, and the coding mode m 0 is stored in the coding mode memory 208. If the frame in the frame memory 203 is a reference frame such as the reference relationship P1, the switches 206A and 206B are set to "D".
And the detected motion vector and the encoding mode m 0
Is passed to the encoding processing unit 207 to perform encoding processing. When the reference relationship is a frame other than the reference frame, such as P2, the motion vector stored in the motion vector memory 204 and the coding mode stored in the coding mode memory 208 are changed. The motion vector estimation unit 205 estimates a motion vector from the encoding target frame to the reference frame. The switch 206A and the switch 206B are switched to “E”, and the estimated motion vector

【0073】[0073]

【外22】 と符号化モードmnew を符号化処理部207に渡し、符
号化処理を行う。
[Outside 22] And the coding mode m new are passed to the coding processing unit 207 to perform coding processing.

【0074】符号化処理部207では、符号化対象フレ
ームをブロックに分割し、先に決定された符号化モード
に基づき、符号化処理を行う。符号化モードがインタで
ある場合は、先に算出された動きベクトルにより、フレ
ームメモリ302内の符号化済みフレームに対し動き補
償部303で動き補償を行い、予測ブロックを抽出す
る。符号化モードがイントラの場合、予測ブロックの信
号は0とする。予測ブロックと符号化対象ブロックの差
分にDCT部306でDCTを施し、量子化部307で
量子化した後、符号化部311で可変長符号化を行う。
また、量子化された信号は、逆量子化部308で逆量子
化した後、IDCT部309で逆DCTを施し、加算器
310で予測ブロックの信号を加えて、復号する。この
復号信号はフレームメモリ302に蓄えられ、次に符号
化対象フレームの動き補償に用いられる。
The encoding processing unit 207 divides the encoding target frame into blocks, and performs an encoding process based on the encoding mode determined previously. If the encoding mode is inter, the motion compensation unit 303 performs motion compensation on the encoded frame in the frame memory 302 using the previously calculated motion vector, and extracts a prediction block. When the encoding mode is intra, the signal of the prediction block is 0. The DCT section 306 performs DCT on the difference between the prediction block and the current block, quantizes the result with the quantization section 307, and performs variable length coding with the coding section 311.
The quantized signal is inversely quantized by an inverse quantization unit 308, subjected to inverse DCT by an IDCT unit 309, added by a predictor block signal by an adder 310, and decoded. This decoded signal is stored in the frame memory 302, and then used for motion compensation of the encoding target frame.

【0075】図7は符号化対象ブロックの符号化モード
決定手順を示す流れ図である。
FIG. 7 is a flowchart showing the procedure for determining the coding mode of the current block.

【0076】1.符号化対象ブロックの隣接フレームへ
の動きベクトル
1. Motion vector of the current block to the adjacent frame

【0077】[0077]

【外23】 と符号化モードm0 を算出する(ステップ401)。[Outside 23] And the encoding mode m 0 (step 401).

【0078】2.ステップ402で、符号化対象ブロッ
クの符号化モードm0 がイントラモードである場合は、
フレーム内符号化にて符号化を行う。
2. In step 402, if the coding mode m 0 of the current block is the intra mode,
Encoding is performed by intra-frame encoding.

【0079】3.ステップ403で、参照フレームが隣
接フレームである場合は、検出した動きベクトル
3. In step 403, if the reference frame is an adjacent frame, the detected motion vector

【0080】[0080]

【外24】 を動き補償フレーム間予測に用いる。[Outside 24] Is used for motion compensated inter-frame prediction.

【0081】4.隣接フレームの各参照ブロックの符号
化モードと動きベクトルから、参照フレームへの動きベ
クトル
4. From the coding mode and motion vector of each reference block in the adjacent frame, the motion vector to the reference frame

【0082】[0082]

【外25】 と符号化モードmnew を算出する(ステップ404)。[Outside 25] And the encoding mode m new are calculated (step 404).

【0083】5.算出した符号化モードmnew により、
符号化対象ブロックの符号化モードを決定する。
5. By the calculated encoding mode m new ,
The coding mode of the current block is determined.

【0084】上記の手順4における動きベクトルMotion vector in procedure 4 above

【0085】[0085]

【外26】 と符号化モードmnew の算出方法は、以下の通りであ
る。図8に、動きベクトル算出方法の流れ図を示す。
[Outside 26] The method for calculating the encoding mode m new is as follows. FIG. 8 shows a flowchart of the motion vector calculation method.

【0086】1.符号化対象ブロックの動きベクトル1. Motion vector of the block to be coded

【0087】[0087]

【外27】 から予測ブロックの位置を算出する(ステップ50
1)。
[Outside 27] (Step 50)
1).

【0088】2.予測ブロックが重なる隣接フレーム内
の1つ以上の参照ブロックを抽出する(ステップ50
2)。予測ブロックの位置により1〜4つの隣接参照ブ
ロックblockiと重なる可能性がある(図5)参照ブロッ
ク数をNBとする。
2. Extract one or more reference blocks in adjacent frames where the prediction block overlaps (step 50)
2). The number of reference blocks that may overlap with one to four adjacent reference blocks block i depending on the position of the prediction block (FIG. 5) is NB.

【0089】3.予測ブロックと各隣接参照ブロックbl
ocki(i=1,・・・,NB)が重なり合う面積pi
算出する(ステップ503)。
3. Predicted block and each adjacent reference block bl
The area p i where the ock i (i = 1,..., NB) overlaps is calculated (step 503).

【0090】4.各隣接参照ブロックblockiの符号化モ
ードmi を調べ、イントラモードの参照ブロックを除外
する(ステップ504)。
4. Examine the coding mode m i of each adjacent reference blocks block i, excludes a reference block of an intra mode (step 504).

【0091】5.ステップ505で、イントラモードの
隣接ブロックの占有面積が50%を越える場合、符号化
対象ブロックの符号化モードmnew をイントラモードと
する。
5. If the occupied area of the adjacent block in the intra mode exceeds 50% in step 505, the coding mode m new of the current block is set to the intra mode.

【0092】6.インタモードの隣接ブロックInter bl
ocki(i=1,・・・・NIB≦NB)が占める総面積
all を計算する(ステップ506)。ここで、NIB
はインタモード隣接ブロックの数、Inter piは、各イン
タモード隣接ブロックの占有面積である。
6. Inter mode neighbor block Inter bl
The total area p all occupied by ock i (i = 1,..., NIB ≦ NB) is calculated (step 506). Where NIB
Is the number of inter mode neighbor blocks, Inter p i is the area occupied by each inter-mode adjacent block.

【0093】[0093]

【数5】 7.各インタモード隣接ブロックの占有面積Inter pi
各隣接ブロックの動きベクトル
(Equation 5) 7. Area occupied by adjacent blocks in each inter mode p i ,
Motion vector of each adjacent block

【0094】[0094]

【外28】 符号化対象ブロックの隣接フレームへの動きベクトル[Outside 28] Motion vector of the current block to the adjacent frame

【0095】[0095]

【外29】 から、符号化対象ブロックの動きベクトル[Outside 29] From the motion vector of the current block

【0096】[0096]

【外30】 を算出する。[Outside 30] Is calculated.

【0097】[0097]

【数6】 (Equation 6)

【0098】ここで、手順4でイントラモードのブロッ
クを除外している。符号化モードがイントラモードであ
ることは、動きベクトル検出時の予測誤差が大きいこと
を示しており、その動きベクトルの信頼性は低いと考え
られる。そこで、信頼性が低い動きベクトルを除外する
ため、イントラモードを除外している。
Here, in the procedure 4, the blocks in the intra mode are excluded. The fact that the encoding mode is the intra mode indicates that the prediction error at the time of detecting the motion vector is large, and it is considered that the reliability of the motion vector is low. Therefore, in order to exclude a motion vector with low reliability, the intra mode is excluded.

【0099】以上述べた実施形態では、重み係数として
面積比率を用いたが、符号化対象ブロック画像信号と参
照ブロックの画像信号間の相関係数でもよい。動きベク
トルの正しさの評価値として符号化モードを用いたが、
動きベクトル検出時の予測誤差や動きベクトルの向きで
もよい。、また、ブロックを正方形としたが、これにと
らわれるものではない。
In the embodiment described above, the area ratio is used as the weighting coefficient. However, the correlation coefficient between the image signal of the block to be encoded and the image signal of the reference block may be used. Although the coding mode was used as the evaluation value of the correctness of the motion vector,
The prediction error at the time of detecting the motion vector or the direction of the motion vector may be used. Also, although the blocks are square, this is not a limitation.

【0100】[0100]

【発明の効果】以上説明したように、本発明によれば、
動きベクトル探索の演算量とフレームメモリの参照回数
を減らすことができ、かつ、演算量と参照回数は符号化
対象フレームと参照フレームのフレーム間距離によらな
い。結果として、演算量と参照回数を低減し、演算量と
参照回数が一様な動きベクトル探索が可能となる。
As described above, according to the present invention,
The calculation amount of the motion vector search and the number of references to the frame memory can be reduced, and the calculation amount and the number of references do not depend on the distance between the encoding target frame and the reference frame. As a result, the amount of calculation and the number of references are reduced, and a motion vector search with a uniform amount of calculation and the number of references can be performed.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の動きベクトル推定方法の流れ図であ
る。
FIG. 1 is a flowchart of a motion vector estimation method according to the present invention.

【図2】本発明の動画像符号化装置のブロック図であ
る。
FIG. 2 is a block diagram of a video encoding device according to the present invention.

【図3】動きベクトルの推定を示す図である。FIG. 3 is a diagram showing estimation of a motion vector.

【図4】符号化対象ブロックと参照フレームの関係を示
す図である。
FIG. 4 is a diagram illustrating a relationship between a current block and a reference frame.

【図5】予測ブロックと重なる参照ブロックを示す図で
ある。
FIG. 5 is a diagram showing a reference block overlapping a prediction block.

【図6】本発明の一実施形態の動画像符号化装置のブロ
ック図である。
FIG. 6 is a block diagram of a video encoding device according to an embodiment of the present invention.

【図7】図6の実施形態における、符号化対象ブロック
の符号化モード決定手順を示す流れ図である。
FIG. 7 is a flowchart showing a coding mode determination procedure of a current block in the embodiment of FIG. 6;

【図8】図6の実施形態における動きベクトル算出の流
れ図である。
FIG. 8 is a flowchart of a motion vector calculation in the embodiment of FIG. 6;

【図9】テレスコピックサーチを示す図である。FIG. 9 is a diagram showing a telescopic search.

【図10】フレーム間の参照関係を示す図である。FIG. 10 is a diagram showing a reference relationship between frames.

【符号の説明】[Explanation of symbols]

101〜105 ステップ 201 ブロック分割部 202 動きベクトル検出部 203 フレームメモリ 204 動きベクトルメモリ 205 動きベクトル推定部 206,206A,206B スイッチ 207 符号化処理部 301 ブロック分割部 302 フレームメモリ 303 動き補償部 304 スイッチ 305 減算器 306 DCT部 307 量子化部 308 逆量子化部 309 IDCT部 310 加算器 311 符号化部 401〜405 ステップ 501〜507 ステップ 101 to 105 Step 201 Block dividing unit 202 Motion vector detecting unit 203 Frame memory 204 Motion vector memory 205 Motion vector estimating unit 206, 206A, 206B Switch 207 Coding processing unit 301 Block dividing unit 302 Frame memory 303 Motion compensating unit 304 Switch 305 Subtractor 306 DCT section 307 Quantization section 308 Dequantization section 309 IDCT section 310 Adder 311 Encoding section 401-405 step 501-507 step

───────────────────────────────────────────────────── フロントページの続き (72)発明者 嵯峨田 淳 東京都新宿区西新宿三丁目19番2号 日本 電信電話株式会社内 ──────────────────────────────────────────────────続 き Continuing on the front page (72) Inventor Jun Sagata 3-19-2 Nishishinjuku, Shinjuku-ku, Tokyo Nippon Telegraph and Telephone Corporation

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】 入力されたフレームをブロックに分割
し、ブロック毎に過去または未来の隣接するフレームに
対する動きベクトルを検出し、検出された動きベクトル
により動き補償フレーム間予測を行う動画像符号化方法
において、 符号化対象フレームが隣接するフレーム以外のフレーム
を参照フレームとする際、該参照フレームと符号化対象
フレームの間に存在するブロック毎に検出された動きベ
クトルから、参照フレームと符号化対象フレーム間の動
きベクトルを推定することを特徴とする動画像符号化方
法。
1. A moving picture coding method which divides an input frame into blocks, detects a motion vector for a past or future adjacent frame for each block, and performs motion compensation inter-frame prediction based on the detected motion vector. In the method, when a frame other than the frame to which the encoding target frame is adjacent is used as a reference frame, the reference frame and the encoding target frame are determined from the motion vector detected for each block existing between the reference frame and the encoding target frame. A moving picture coding method characterized by estimating a motion vector between the moving pictures.
【請求項2】 符号化対象フレームの各ブロックの動き
ベクトルを推定する際、符号化対象ブロックから隣接す
るフレームへの動きベクトルを検出し、検出された動き
ベクトルにより求まる予測ブロックを構成する隣接フレ
ームのブロックを抽出し、抽出したブロックの情報をも
とに、参照フレームから符号化対象フレームへの動きベ
クトルを符号化対象ブロック毎に推定する、請求項1記
載の方法。
2. When estimating a motion vector of each block of an encoding target frame, a motion vector from the encoding target block to an adjacent frame is detected, and an adjacent frame forming a prediction block obtained from the detected motion vector. 2. The method according to claim 1, further comprising: extracting a block of (i), and estimating a motion vector from the reference frame to the encoding target frame for each encoding target block based on information of the extracted block.
【請求項3】 符号化対象フレームと予測ブロックを構
成する隣接フレームのブロックが持つ動きベクトルをも
とに、符号化対象ブロックの動きベクトルを推定する
際、予測ブロックを構成する隣接フレームの各ブロック
について、予測ブロックの構成比率を算出し、算出され
た構成比率をもとに重み係数を算出し、隣接フレーム内
の各ブロックの動きベクトルに重み付けをし、参照フレ
ームから符号化対象フレームへの動きベクトルを符号化
対象ブロック毎に推定する、請求項2記載の方法。
3. When estimating a motion vector of an encoding target block based on a motion vector of an encoding target frame and a motion vector of an adjacent frame constituting the prediction block, each block of the adjacent frame configuring the prediction block is used. , Calculate the composition ratio of the prediction block, calculate the weighting factor based on the calculated composition ratio, weight the motion vector of each block in the adjacent frame, and calculate the motion from the reference frame to the encoding target frame. 3. The method according to claim 2, wherein the vector is estimated for each current block.
【請求項4】 符号化対象フレームと抽出した隣接フレ
ームのブロックが持つ動きベクトルをもとに、符号化対
象ブロックの動きベクトルを推定する際、隣接フレーム
の抽出したブロックの動きベクトルがどの程度実際の動
きを表しているかを評価し、該評価価値の低い動きベク
トルを用いずに、参照フレームから符号化対象フレーム
への動きベクトルを符号化対象ブロック毎に推定する、
請求項2記載の方法。
4. When estimating a motion vector of an encoding target block based on a motion vector of an encoding target frame and an extracted block of an adjacent frame, how much the motion vector of the extracted block of the adjacent frame is actually Is evaluated, and without using a motion vector having a low evaluation value, a motion vector from the reference frame to the encoding target frame is estimated for each encoding target block.
The method of claim 2.
【請求項5】 動き補償フレーム間予測を用いる動画像
符号化方法において、符号化対象フレームが隣接フレー
ム以外のフレームを参照する際、参照フレームと符号化
対象フレームの間に存在するフレームが複数ある場合、
請求項1から4のいずれかに記載の動きベクトル推定を
複数回繰り返すことにより、参照フレームから符号化対
象フレームへの動きベクトルを推定することを特徴とす
る動画像符号化方法。
5. In a moving picture coding method using motion compensated inter-frame prediction, when a current frame refers to a frame other than an adjacent frame, there are a plurality of frames existing between the reference frame and the current frame. If
5. A moving picture coding method comprising: estimating a motion vector from a reference frame to a coding target frame by repeating the motion vector estimation according to claim 1 a plurality of times.
【請求項6】 入力されたフレームをブロックに分割
し、ブロック毎に過去または未来の隣接フレームに対す
る動きベクトルを検出し、検出された動きベクトルによ
り動き補償フレーム間予測を行う動画像符号化装置にお
いて、 符号化対象フレームの各符号化対象ブロックの隣接フレ
ームへの動きベクトルから決まる隣接フレーム内での予
測ブロックの位置に存在するブロックが持つ動きベクト
ルをもとに参照フレームから符号化対象フレームへの動
きベクトルを符号化対象ブロック毎に推定する動きベク
トル推定手段を有することを特徴とする動画像符号化装
置。
6. A moving picture coding apparatus which divides an input frame into blocks, detects a motion vector for a past or future adjacent frame for each block, and performs motion compensation inter-frame prediction based on the detected motion vector. The target frame to be encoded from the reference frame based on the motion vector of the block existing at the position of the prediction block in the adjacent frame determined from the motion vector to the adjacent frame of each encoding target block of the encoding target frame. A moving picture coding apparatus comprising a motion vector estimating means for estimating a motion vector for each coding target block.
【請求項7】 前記動きベクトル推定手段は、予測ブロ
ックを構成する隣接フレームの各ブロックについて、予
測ブロックの構成比率を算出し、算出された構成比率を
もとに重み係数を算出し、隣接フレーム内の各ブロック
の動きベクトルに重み付けをし、参照フレームから符号
化対象フレームへの動きベクトルを符号化対象ブロック
毎に推定する請求項6記載の装置。
7. The motion vector estimating means calculates, for each block of an adjacent frame forming a prediction block, a configuration ratio of the prediction block, calculates a weight coefficient based on the calculated configuration ratio, and 7. The apparatus according to claim 6, wherein the motion vector of each block in the block is weighted, and the motion vector from the reference frame to the encoding target frame is estimated for each encoding target block.
【請求項8】 前記動きベクトル推定手段は、隣接フレ
ームの抽出したブロックの動きベクトルがどの程度実際
の動きを表しているかを評価し、該評価値の低い動きベ
クトルを用いずに、参照フレームから符号化対象フレー
ムへの動きベクトルを符号化対象ブロック毎に推定する
請求項6記載の装置。
8. The motion vector estimating means evaluates to what extent a motion vector of a block extracted from an adjacent frame represents an actual motion, and uses a motion vector having a low evaluation value to calculate a motion vector from a reference frame. 7. The apparatus according to claim 6, wherein a motion vector to the encoding target frame is estimated for each encoding target block.
JP14911697A 1997-06-06 1997-06-06 Moving image encoding method and device therefor Pending JPH10341440A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP14911697A JPH10341440A (en) 1997-06-06 1997-06-06 Moving image encoding method and device therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP14911697A JPH10341440A (en) 1997-06-06 1997-06-06 Moving image encoding method and device therefor

Publications (1)

Publication Number Publication Date
JPH10341440A true JPH10341440A (en) 1998-12-22

Family

ID=15468074

Family Applications (1)

Application Number Title Priority Date Filing Date
JP14911697A Pending JPH10341440A (en) 1997-06-06 1997-06-06 Moving image encoding method and device therefor

Country Status (1)

Country Link
JP (1) JPH10341440A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1143739A2 (en) * 2000-03-28 2001-10-10 Nec Corporation Device and method for searching for a motion vector
KR100364779B1 (en) * 2000-01-11 2002-12-16 엘지전자 주식회사 Method Of Motion Vector Encoding Of Video Encoder
JP2006041876A (en) * 2004-07-27 2006-02-09 Fujitsu Ltd Moving image encoding device
US7336838B2 (en) 2003-06-16 2008-02-26 Samsung Electronics Co., Ltd. Pixel-data selection device to provide motion compensation, and a method thereof
WO2011150804A1 (en) * 2010-09-26 2011-12-08 华为技术有限公司 Method and device for video encoding and decoding
US8451898B2 (en) 2005-11-02 2013-05-28 Panasonic Corporation Motion vector estimation apparatus
JP2013157681A (en) * 2012-01-27 2013-08-15 Fujitsu Semiconductor Ltd Video decoder and video decoding method
KR20170023086A (en) * 2014-06-19 2017-03-02 브이아이디 스케일, 인크. Methods and systems for intra block copy coding with block vector derivation

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100364779B1 (en) * 2000-01-11 2002-12-16 엘지전자 주식회사 Method Of Motion Vector Encoding Of Video Encoder
EP1143739A2 (en) * 2000-03-28 2001-10-10 Nec Corporation Device and method for searching for a motion vector
EP1143739A3 (en) * 2000-03-28 2003-09-10 Nec Corporation Device and method for searching for a motion vector
US6888890B2 (en) 2000-03-28 2005-05-03 Nec Corporation Device and method for searching for a motion vector
US7336838B2 (en) 2003-06-16 2008-02-26 Samsung Electronics Co., Ltd. Pixel-data selection device to provide motion compensation, and a method thereof
JP2006041876A (en) * 2004-07-27 2006-02-09 Fujitsu Ltd Moving image encoding device
JP4507742B2 (en) * 2004-07-27 2010-07-21 富士通株式会社 Video encoding device
US8451898B2 (en) 2005-11-02 2013-05-28 Panasonic Corporation Motion vector estimation apparatus
WO2011150804A1 (en) * 2010-09-26 2011-12-08 华为技术有限公司 Method and device for video encoding and decoding
JP2013157681A (en) * 2012-01-27 2013-08-15 Fujitsu Semiconductor Ltd Video decoder and video decoding method
KR20170023086A (en) * 2014-06-19 2017-03-02 브이아이디 스케일, 인크. Methods and systems for intra block copy coding with block vector derivation

Similar Documents

Publication Publication Date Title
JP5373626B2 (en) Method, apparatus, encoder, decoder, and decoding method for estimating a motion vector using a plurality of motion vector predictors
JP4001400B2 (en) Motion vector detection method and motion vector detection device
KR100275694B1 (en) Hierarchical search block matching method by using multiple motion vector candidates
JP2801559B2 (en) Motion compensation coding method and apparatus adapted to the magnitude of motion
JP5406222B2 (en) Video coding and decoding method and apparatus using continuous motion estimation
KR100510137B1 (en) Method of determining reference picture and block mode, the apparatus therefor, method of determining block mode, and the apparatus therefor for fast motion estimation
EP1621022B1 (en) Method and apparatus for determining search range for adaptive motion vector for use in video encoder
KR19990038001A (en) Motion Estimator and Method for Digital Image
KR100994768B1 (en) Motion estimation method for encoding motion image, and recording medium storing a program to implement thereof
JP2003244707A (en) Adaptive decision method of motion vector search range
US7433407B2 (en) Method for hierarchical motion estimation
JPH10341440A (en) Moving image encoding method and device therefor
JP2000333179A (en) Moving image encoding device and method
JP2001128179A (en) Device and method for encoding moving picture
KR20080064011A (en) Method of estimating motion vector considering the size of neighboring partition, apparatus, encoder, decoder and decoding method
KR20120072205A (en) Motion estimation apparatus and method using prediction algorithm between macroblocks
JP3150627B2 (en) Re-encoding method of decoded signal
KR100266161B1 (en) Method of predicting motion for digital image
JP2000350209A (en) Method and device for high-speed movement estimation for real-time moving video encoding
JP4676513B2 (en) Encoded picture type determination method, apparatus, program thereof, and recording medium thereof
JPH06225289A (en) Video signal coder
JP2606572B2 (en) Video encoding device
JP2596352B2 (en) Decimal precision motion vector search device
CN114554206A (en) Method, apparatus, device and storage medium for determining motion vector in video coding
CN116828173A (en) Method and device for judging inter-frame prediction direction of image block in B frame