JP2010509800A - Video encoding / decoding method and apparatus using motion vector tracking - Google Patents

Video encoding / decoding method and apparatus using motion vector tracking Download PDF

Info

Publication number
JP2010509800A
JP2010509800A JP2009535217A JP2009535217A JP2010509800A JP 2010509800 A JP2010509800 A JP 2010509800A JP 2009535217 A JP2009535217 A JP 2009535217A JP 2009535217 A JP2009535217 A JP 2009535217A JP 2010509800 A JP2010509800 A JP 2010509800A
Authority
JP
Japan
Prior art keywords
reference picture
block
current block
prediction
motion vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009535217A
Other languages
Japanese (ja)
Other versions
JP5271271B2 (en
Inventor
リー,キョ−ヒョク
キム,ソ−ヨン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020070000706A external-priority patent/KR101356734B1/en
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2010509800A publication Critical patent/JP2010509800A/en
Application granted granted Critical
Publication of JP5271271B2 publication Critical patent/JP5271271B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

動きベクトル・トラッキングを利用した映像符号化方法及び装置が開示される。該映像符号化方法及び装置は、現在ピクチャの動き情報を利用して参照ピクチャの対応領域を決定し、決定された参照ピクチャの対応領域の動き情報を利用して他の参照ピクチャの対応領域を決定する動きベクトル・トラッキング過程を介して、現在ピクチャの予測に利用する複数枚の参照ピクチャを決定し、決定された複数枚の参照ピクチャの加重和を介して、現在ピクチャの予測値を生成することを特徴とする。  A video encoding method and apparatus using motion vector tracking is disclosed. The video encoding method and apparatus determine a corresponding region of a reference picture using motion information of a current picture, and determine a corresponding region of another reference picture using motion information of the determined corresponding region of the reference picture. A plurality of reference pictures to be used for prediction of the current picture are determined through a motion vector tracking process to be determined, and a prediction value of the current picture is generated through a weighted sum of the determined plurality of reference pictures. It is characterized by that.

Description

本発明は、映像の予測符号化及び復号化に係り、さらに具体的には、現在ピクチャの動きベクトル経路を連続的にトラッキングすることによって複数枚の参照ピクチャを決定し、決定された複数枚の参照ピクチャを利用し、現在ピクチャを予測符号化する映像符号化方法及び装置、その復号化方法及び装置に関する。   The present invention relates to video predictive encoding and decoding, and more specifically, determines a plurality of reference pictures by continuously tracking a motion vector path of a current picture, and determines a plurality of determined plurality of pictures. The present invention relates to a video encoding method and apparatus for predictively encoding a current picture using a reference picture, and a decoding method and apparatus thereof.

動映像の符号化時には、映像シーケンス内の空間的冗長性及び時間的冗長性(redundancy)を除去することによって圧縮が行われる。時間的冗長性を除去するためには、現在符号化されるピクチャの前方または後方に位置した他のピクチャを参照ピクチャとして利用し、現在符号化されるピクチャの領域と類似した参照ピクチャの領域を検索し、現在符号化されるピクチャと参照ピクチャとの対応する領域間の動き量を検出し、該動き量に基づいて動き補償処理を行って得られる予測映像と現在符号化される映像との差分(residue)を符号化する。   When encoding a moving picture, compression is performed by removing spatial redundancy and temporal redundancy in the video sequence. In order to remove temporal redundancy, another picture located in front of or behind the current coded picture is used as a reference picture, and a reference picture area similar to the current coded picture area is used. A search is performed to detect a motion amount between corresponding regions of a picture that is currently encoded and a reference picture, and a predicted video obtained by performing a motion compensation process based on the motion amount and a video that is currently encoded Encode the difference.

ビデオピクチャは、一つまたはそれ以上のスライス単位にコーディングされる。ここで、1つのスライスは、1つのマクロブロックのみを含む場合もあり、1つのピクチャ全体が1つのスライスに符号化される場合もある。H.264標準案によれば、ビデオピクチャは、画面内の予測だけで符号化されるI(Intra)スライス、1枚の参照ピクチャの映像サンプルを利用した予測によって符号化されるP(Predictive)スライス、及び2枚の参照ピクチャの映像サンプルを利用した予測によって符号化されるB(Bi-predictive)スライス単位でコーディングされる。   A video picture is coded in one or more slice units. Here, one slice may include only one macroblock, and one entire picture may be encoded into one slice. H. According to the H.264 standard, a video picture is an I (Intra) slice that is encoded only by prediction within the screen, a P (Predictive) slice that is encoded by prediction using a video sample of one reference picture, And B (Bi-predictive) slices encoded by prediction using video samples of two reference pictures.

従来、MPEG−2などでは、現在ピクチャの直前のピクチャ1枚、及び直後に出てくるピクチャ1枚を参照ピクチャとして利用する双方向予測(bi-directional prediction)を行っていた。H.264/AVC(Advanced Video Coding)では、かような双方向予測の概念を拡張し、現在ピクチャの直前及び直後のピクチャに限定せず、前後に関係なくして任意の2枚のピクチャを参照ピクチャとして利用できる。このように、前後に関係なくして任意の2枚のピクチャを参照ピクチャとして利用して予測されるピクチャを、双予測ピクチャ(Bi-predictive picture、以下、「Bピクチャ」とする)と定義する。   Conventionally, in MPEG-2 or the like, bi-directional prediction using one picture immediately before the current picture and one picture appearing immediately after as a reference picture has been performed. H. In H.264 / AVC (Advanced Video Coding), the concept of bi-directional prediction is extended, and it is not limited to the picture immediately before and immediately after the current picture, and any two pictures can be used as reference pictures regardless of before and after. Available. In this way, a picture predicted using any two pictures as reference pictures regardless of before and after is defined as a bi-predictive picture (hereinafter referred to as “B picture”).

図1は、H.264/AVCによって、Bピクチャとして符号化される現在ピクチャに備わったブロックの予測過程について説明するための図である。H.264/AVCによれば、Bピクチャ内のブロックは、MB 1のように、同じ方向の2枚の参照ピクチャA及びBを利用したり、MB 2のように、異なる方向の2枚の参照ピクチャB及びCを利用したり、MB 3のように、同一参照ピクチャA内の2枚の互いに異なる領域でサンプリングされた領域を利用したり、MB4やMB5のように、任意の参照ピクチャBまたはDのみを利用して予測される。   FIG. 2 is a diagram for describing a prediction process of a block included in a current picture encoded as a B picture by H.264 / AVC. FIG. H. According to H.264 / AVC, a block in a B picture uses two reference pictures A and B in the same direction as in MB 1 or two reference pictures in different directions as in MB 2 B and C are used, an area sampled in two different areas within the same reference picture A, such as MB 3, or any reference picture B or D, such as MB4 or MB5 Predicted using only

一般的に、Bピクチャとしてコーディングされる映像データの符号化効率は、IピクチャやPピクチャとしてコーディングされる映像データの符号化効率に比べてさらに高い。これは、Bピクチャは、2枚の参照ピクチャを利用するために1枚の参照ピクチャを利用するPピクチャや、画面内の予測を利用するIピクチャに比べ、現在映像データと類似した予測データを生成できる可能性が高いだけではなく、Bピクチャの場合、2枚の参照ピクチャの平均値を予測データとして利用するために、時間的に前後に位置するピクチャ間に誤差が発生するとしても、時間方向に平坦になった平均値を予測値として利用するようになり、一種の低周波フィルタリングを行ったように、視覚的に符号化歪曲がほとんど発生しない場合もあるためである。   In general, the encoding efficiency of video data coded as a B picture is even higher than the encoding efficiency of video data coded as an I picture or P picture. This is because the B picture has prediction data similar to the current video data compared to the P picture that uses one reference picture to use two reference pictures and the I picture that uses prediction in the screen. In addition to a high possibility of being generated, in the case of a B picture, in order to use an average value of two reference pictures as prediction data, even if an error occurs between pictures located before and after in time, time This is because the average value flattened in the direction is used as the predicted value, and there is a case where the coding distortion hardly occurs visually as if a kind of low frequency filtering is performed.

Pピクチャに比べ、2枚の参照ピクチャを利用するBピクチャの場合がさらに大きい符号化効率を有するように、さらに多数の参照ピクチャを利用するならば、符号化効率を向上させることができるにもかかわらず、各参照ピクチャごとに動き予測及び補償を行う場合、演算量が増加する限界によって、従来の映像圧縮標準案では、最大2枚までの参照ピクチャのみを利用している。   Compared to the P picture, if a larger number of reference pictures are used so that a B picture using two reference pictures has a larger encoding efficiency, the encoding efficiency can be improved. Regardless, when motion prediction and compensation are performed for each reference picture, the conventional video compression standard proposal uses only up to two reference pictures due to the limit of the amount of calculation.

本発明は、前記のような問題点を解決するために案出されたものであり、現在ブロックの参照ピクチャの動きベクトル経路をトラッキングすることによって、さらに多くの参照ピクチャを現在ブロックの予測に利用して符号化効率を向上させる映像符号化方法及び装置、該復号化方法及び装置を提供するところに目的がある。   The present invention has been devised to solve the above-described problems, and uses more reference pictures for prediction of the current block by tracking the motion vector path of the reference picture of the current block. Thus, it is an object of the present invention to provide a video encoding method and apparatus for improving the encoding efficiency, and the decoding method and apparatus.

前記のような技術的課題を解決するために、本発明による映像符号化方法は、現在ブロックが参照する参照ピクチャの対応領域の動きベクトル経路をトラッキングすることによって、前記現在ブロックの予測に利用する複数枚の参照ピクチャの対応領域を決定する段階と、前記複数枚の参照ピクチャの対応領域の加重和を求めることによって、前記現在ブロックの予測ブロックを生成する段階と、前記現在ブロックと予測ブロックとの差分を符号化する段階とを含むことを特徴とする。   In order to solve the above technical problem, the video coding method according to the present invention is used for prediction of the current block by tracking the motion vector path of the corresponding region of the reference picture referenced by the current block. Determining a corresponding region of a plurality of reference pictures; generating a predicted block of the current block by obtaining a weighted sum of the corresponding regions of the plurality of reference pictures; and the current block and the predicted block; And a step of encoding the difference.

本発明による映像符号化装置は、現在ブロックが参照する参照ピクチャの対応領域の動きベクトル経路をトラッキングすることによって、前記現在ブロックの予測に利用する複数枚の参照ピクチャの対応領域を決定する参照ピクチャ決定部と、前記複数枚の参照ピクチャの対応領域の加重和を求めることによって、前記現在ブロックの予測ブロックを生成する加重予測部と、前記現在ブロックと予測ブロックとの差分を符号化する符号化部とを備えることを特徴とする。   A video encoding apparatus according to the present invention tracks a motion vector path of a corresponding area of a reference picture referenced by a current block, thereby determining a corresponding area of a plurality of reference pictures used for prediction of the current block A determination unit; a weighted prediction unit that generates a prediction block of the current block by obtaining a weighted sum of corresponding regions of the plurality of reference pictures; and an encoding that encodes a difference between the current block and the prediction block And a section.

本発明による映像復号化方法は、入力されたビットストリームに備わった予測モード情報を判読し、復号化される現在ブロックの予測モードを判別する段階と、前記判別の結果、複数枚の参照ピクチャの対応領域を利用して予測された前記現在ブロックに対し、前記ビットストリームに備わった前記現在ブロックの動きベクトルが指し示す参照ピクチャの対応領域と、前記参照ピクチャの対応領域の動きベクトル経路とをトラッキングすることによって、前記現在ブロックの予測に利用する複数枚の参照ピクチャの対応領域を決定する段階と、前記複数枚の参照ピクチャの対応領域の加重和を求めることによって、前記現在ブロックの予測ブロックを生成する段階と、前記生成された予測ブロックと、前記ビットストリームに備わった前記現在ブロックと予測ブロックとの差分値とを加え、前記現在ブロックを復号化する段階とを含むことを特徴とする。   According to the video decoding method of the present invention, the prediction mode information included in the input bitstream is read, and the prediction mode of the current block to be decoded is determined. For the current block predicted using the corresponding area, the corresponding area of the reference picture indicated by the motion vector of the current block included in the bitstream and the motion vector path of the corresponding area of the reference picture are tracked. And determining a corresponding area of a plurality of reference pictures used for prediction of the current block, and generating a predicted block of the current block by obtaining a weighted sum of the corresponding areas of the plurality of reference pictures Performing the generated prediction block and the current stream included in the bitstream. And the difference value of the block and the predicted block is added, characterized in that it comprises a step of decoding the current block.

本発明による映像復号化装置は、入力されたビットストリームに備わった予測モード情報を判読し、復号化される現在ブロックの予測モードを判別する予測モード判別部と、前記判別の結果、複数枚の参照ピクチャの対応領域を利用して予測された前記現在ブロックに対し、前記ビットストリームに備わった前記現在ブロックの動きベクトルが指し示す参照ピクチャの対応領域と、前記参照ピクチャの対応領域の動きベクトル経路とをトラッキングすることによって、前記現在ブロックの予測に利用する複数枚の参照ピクチャの対応領域を決定する参照ピクチャ決定部と、前記複数枚の参照ピクチャの対応領域の加重和を求めることによって、前記現在ブロックの予測ブロックを生成する加重予測部と、前記生成された予測ブロックと、前記ビットストリームに備わった前記現在ブロックと予測ブロックとの差分値とを加え、前記現在ブロックを復号化する復号化部とを備えることを特徴とする。   The video decoding apparatus according to the present invention interprets prediction mode information included in an input bitstream and determines a prediction mode of a current block to be decoded, and a plurality of discs as a result of the determination. For the current block predicted using a corresponding area of a reference picture, a corresponding area of a reference picture indicated by a motion vector of the current block included in the bitstream, and a motion vector path of the corresponding area of the reference picture By tracking a current picture block, a reference picture determination unit that determines a corresponding area of a plurality of reference pictures used for prediction of the current block, and a weighted sum of the corresponding areas of the plurality of reference pictures. A weighted prediction unit for generating a prediction block of the block, the generated prediction block, and Tsu said equipped Doo stream current block and the difference value between the prediction block is added, characterized in that it comprises a decoding unit to decode the current block.

本発明によれば、さらに多数の参照ピクチャを利用して予測符号化を行うことによって、予測効率及び符号化効率を向上させることができる。   According to the present invention, prediction efficiency and encoding efficiency can be improved by performing predictive encoding using a larger number of reference pictures.

H.264/AVCによってBピクチャとして符号化される現在ピクチャに備わったブロックの予測過程について説明するための図である。H. 2 is a diagram for describing a prediction process of a block included in a current picture encoded as a B picture by H.264 / AVC. FIG. 本発明による映像符号化方法によって、現在ピクチャの予測に利用する複数枚の参照ピクチャを決定する過程の一例について説明した図である。FIG. 6 is a diagram illustrating an example of a process of determining a plurality of reference pictures used for prediction of a current picture by a video encoding method according to the present invention. 本発明による映像符号化方法によって、現在ピクチャの予測に利用する複数枚の参照ピクチャを決定する過程の他の例について説明した図である。FIG. 10 is a diagram illustrating another example of a process of determining a plurality of reference pictures used for prediction of a current picture by the video encoding method according to the present invention. 本発明による映像符号化方法によって、現在ピクチャの予測に利用する複数枚の参照ピクチャを決定する過程のさらに他の例について説明した図である。FIG. 10 is a diagram illustrating still another example of a process of determining a plurality of reference pictures used for prediction of a current picture by the video encoding method according to the present invention. 本発明による映像符号化装置を示したブロック図である。1 is a block diagram illustrating a video encoding apparatus according to the present invention. 図5の動き補償部504の具体的な構成を示したブロック図である。FIG. 6 is a block diagram illustrating a specific configuration of a motion compensation unit 504 in FIG. 5. H.264/MPEG−4AVCの可変ブロックサイズ動き予測で利用される多様な大きさのブロックを示した図である。H. 2 is a diagram illustrating blocks of various sizes used in H.264 / MPEG-4AVC variable block size motion prediction. FIG. 可変ブロック動き予測された映像の一例を図示したイメージである。It is the image which illustrated an example of the image by which variable block motion prediction was carried out. 本発明による映像符号化方法によって、動きブロック境界を基に分割された参照ピクチャの対応領域が参照する他の参照ピクチャの対応領域を決定するための過程について説明するための図である。FIG. 10 is a diagram illustrating a process for determining a corresponding area of another reference picture that is referenced by a corresponding area of a reference picture divided based on a motion block boundary by the video encoding method according to the present invention. 本発明による映像符号化方法によって、動きブロック境界を基準に分割された参照ピクチャの対応領域が参照する他の参照ピクチャの対応領域を決定するための過程の他の例について説明するための図である。FIG. 6 is a diagram for explaining another example of a process for determining a corresponding area of another reference picture to which a corresponding area of a reference picture divided based on a motion block boundary is referred by the video encoding method according to the present invention; is there. 本発明による映像符号化方法において、参照ピクチャの対応領域に付与される重み付けを計算する過程について説明するための図である。FIG. 10 is a diagram for explaining a process of calculating a weight given to a corresponding region of a reference picture in the video encoding method according to the present invention. 本発明による映像符号化方法を示したフローチャートである。5 is a flowchart illustrating a video encoding method according to the present invention. 本発明による映像復号化装置の構成を示したブロック図である。It is the block diagram which showed the structure of the video decoding apparatus by this invention. 本発明による映像復号化方法を示したフローチャートである。5 is a flowchart illustrating a video decoding method according to the present invention.

以下、添付された図面を参照しつつ、本発明の望ましい実施形態について詳細に説明する。   Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

本発明による映像符号化方法は、現在ピクチャの動きベクトルが指し示す参照ピクチャの動きベクトルを利用し、他の参照ピクチャの対応領域を継続的にトラッキングすることによって、現在ピクチャの予測に利用される複数枚の参照ピクチャを決定し、決定された参照ピクチャの加重和を介して、現在ピクチャの予測値を生成することを特徴とする。まず、図2ないし図4を参照し、本発明による映像符号化方法及び装置に適用される複数枚の参照ピクチャ決定過程について説明する。   The video encoding method according to the present invention uses a motion vector of a reference picture indicated by a motion vector of a current picture, and continuously tracks a corresponding area of another reference picture, so that a plurality of images used for prediction of the current picture are used. One reference picture is determined, and a prediction value of the current picture is generated through a weighted sum of the determined reference pictures. First, a process of determining a plurality of reference pictures applied to the video coding method and apparatus according to the present invention will be described with reference to FIGS.

図2は、本発明による映像符号化方法によって、現在ピクチャの予測に利用する複数枚の参照ピクチャを決定する過程の一例について説明した図である。   FIG. 2 is a diagram illustrating an example of a process of determining a plurality of reference pictures used for prediction of the current picture by the video encoding method according to the present invention.

現在ピクチャの符号化対象になるブロック(以下、「現在ブロック」とする)21に対して一般的な動き予測が行われ、現在ブロック21と最も類似した参照ピクチャ1の対応領域22、及び現在ブロック21と参照ピクチャ1の対応領域22との位置差を示す動きベクトルMVが決定された状態であると仮定する。また、現在ブロック21は、Pピクチャ内に備わった1枚の参照ピクチャのみを参照する動きブロックであると仮定する。しかし本発明は、図2に図示されたように、1つの動きベクトルを有する動きブロックだけではなく、2個の動きベクトルを有するBピクチャ内の動きブロックに対して動きベクトルそれぞれをトラッキングすることによっても適用されうる。 General motion prediction is performed on a block (hereinafter referred to as “current block”) 21 to be encoded of the current picture, the corresponding region 22 of the reference picture 1 most similar to the current block 21, and the current block It is assumed that the motion vector MV 1 indicating the position difference between the reference area 21 and the corresponding area 22 of the reference picture 1 is determined. Further, it is assumed that the current block 21 is a motion block that refers to only one reference picture included in the P picture. However, the present invention is not limited to a motion block having one motion vector, as shown in FIG. 2, but by tracking each motion vector with respect to a motion block in a B picture having two motion vectors. Can also be applied.

図2を参照するに、現在ブロック21に対する動き予測の結果として生成される動きベクトルMVは、参照ピクチャ1で現在ブロック21と最も誤差が少ない領域を示す。従来技術によれば、参照ピクチャ1の対応領域22の値を現在ブロック21の予測値に決定し、決定された予測値と現在ブロック21の原画素値との差である剰余(residue)を符号化する。 Referring to FIG. 2, a motion vector MV 1 generated as a result of motion prediction for the current block 21 indicates an area in the reference picture 1 that has the least error from the current block 21. According to the prior art, the value of the corresponding region 22 of the reference picture 1 is determined as the predicted value of the current block 21, and a residue that is the difference between the determined predicted value and the original pixel value of the current block 21 is encoded. Turn into.

本発明による映像符号化方法は、従来技術のように、現在ブロックの動きベクトルが指し示す参照ピクチャの対応領域だけではなく、参照ピクチャの対応領域が有する動き情報を利用し、参照ピクチャの対応領域の予測に利用された他の参照ピクチャの対応領域を現在ブロックの予測に利用する。図2を参照するに、現在ブロック21に対応する参照ピクチャ1の対応領域22が有する動きベクトルMVを利用し、参照ピクチャ1の対応領域22の予測に利用された参照ピクチャ2の対応領域23を決定する。また、参照ピクチャ2の対応領域23の動きベクトルMVを利用し、参照ピクチャ2の対応領域23の予測に利用された参照ピクチャ3の対応領域24を決定する。参照ピクチャn−1の対応領域25の動きベクトルMVは、参照ピクチャn−1の対応領域25の予測に利用された参照ピクチャAの対応領域26を決定するのに利用される。後述するように、現在ブロックの動きベクトルが指し示す参照ピクチャの対応領域、及び参照ピクチャの対応領域が有する動きベクトルが指し示す他の参照ピクチャの対応領域をトラッキングし続ける過程は、イントラ予測されるブロックだけで構成される参照ピクチャまで遂行されるか、またはイントラ予測ブロックに含まれる対応領域の大きさが所定臨界値以上である参照ピクチャまで行われる。 The video encoding method according to the present invention uses not only the corresponding area of the reference picture indicated by the motion vector of the current block but also the motion information of the corresponding area of the reference picture, as in the prior art, Corresponding regions of other reference pictures used for prediction are used for prediction of the current block. Referring to FIG. 2, the motion vector MV 2 included in the corresponding region 22 of the reference picture 1 corresponding to the current block 21 is used, and the corresponding region 23 of the reference picture 2 used for prediction of the corresponding region 22 of the reference picture 1. To decide. Further, by using the motion vector MV 3 of reference pictures 2 corresponding region 23, to determine the corresponding area 24 of the reference picture 3, which is used to predict the reference picture 2 corresponding region 23. The motion vector MV n of the corresponding area 25 of the reference picture n-1 is used to determine the corresponding area 26 of the reference picture A used for prediction of the corresponding area 25 of the reference picture n-1. As will be described later, the process of continuously tracking the corresponding area of the reference picture pointed to by the motion vector of the current block and the corresponding area of the other reference picture pointed to by the motion vector of the corresponding area of the reference picture is limited to the intra-predicted block. Or a reference picture in which the size of the corresponding region included in the intra prediction block is equal to or greater than a predetermined critical value.

このように本発明は、従来技術のように、現在ブロック21が有する動きベクトルMVが指し示す参照ピクチャ1の対応領域22だけではなく、参照ピクチャ1の対応領域22の動きベクトルMVが指し示す参照ピクチャ2の対応領域23、参照ピクチャ2の対応領域23の動きベクトルMV3が指し示す参照ピクチャ3の対応領域24のように、現在ブロック21の動きベクトルが指し示す参照ピクチャの対応領域の動きベクトル経路をトラッキングすることによって決定された複数枚の参照ピクチャの対応領域に、所定の重み付けを乗じた後で加算することによって、現在ブロック21の予測ブロックを生成する。 As described above, according to the present invention, not only the corresponding area 22 of the reference picture 1 indicated by the motion vector MV 1 of the current block 21 but also the reference indicated by the motion vector MV 2 of the corresponding area 22 of the reference picture 1 as in the conventional technique. The motion vector path of the corresponding area of the reference picture indicated by the motion vector of the current block 21 is tracked, such as the corresponding area 24 of the reference picture 3 indicated by the motion vector MV3 of the corresponding area 23 of the picture 2 and the corresponding vector 23 of the reference picture 2. The prediction block of the current block 21 is generated by multiplying the corresponding areas of the plurality of reference pictures determined by performing a predetermined weighting and adding them.

図3は、本発明による映像符号化方法によって、現在ピクチャの予測に利用する複数枚の参照ピクチャを決定する過程の他の例について説明した図である。図3で、IはIピクチャ、P及びPはPピクチャ、B及びBはBピクチャであると仮定する。以下では、本発明によって、Bピクチャに備わった現在ブロック31の予測に利用される複数枚の参照ピクチャ対応領域を決定する過程について説明する。 FIG. 3 is a diagram illustrating another example of a process of determining a plurality of reference pictures used for prediction of a current picture by the video encoding method according to the present invention. In FIG. 3, it is assumed that I 0 is an I picture, P 1 and P 5 are P pictures, and B 2 and B 3 are B pictures. Hereinafter, the present invention, the process will be described for determining a plurality of reference pictures corresponding area used for prediction of the current block 31 provided in B 2 picture.

図3を参照するに、Bピクチャに備わった現在ブロック31は、一般的な動き予測の結果、2個の動きベクトルMV,MVを有すると仮定する。Bピクチャに備わった現在ブロック31のように、現在符号化される対象ブロックが2個の動きベクトルを有する場合には、それぞれの動きベクトルに対して参照ピクチャの対応領域の動きベクトル経路をトラッキングする過程を遂行することによって、複数枚の参照ピクチャの対応領域を決定する。すなわち、現在ブロック31の第1動きベクトルMVが指し示すPピクチャの対応領域33が有する動き情報を利用し、Pピクチャの対応領域33の予測に利用された他の参照ピクチャIの対応領域34を決定する。Iピクチャの場合、イントラ予測されるブロックによってのみ構成されるIピクチャであり、対応領域34は、動き情報を有さないので、トラッキング過程は中断される。 Referring to FIG. 3, it is assumed that the current block 31 included in the B 2 picture has two motion vectors MV 1 and MV 2 as a result of general motion prediction. When the current block to be encoded has two motion vectors, such as the current block 31 included in the B 2 picture, the motion vector path of the corresponding region of the reference picture is tracked for each motion vector. The corresponding region of the plurality of reference pictures is determined by performing the process. That is, the motion information of the corresponding region 33 of the P 1 picture indicated by the first motion vector MV 1 of the current block 31 is used, and the correspondence of the other reference picture I 0 used for the prediction of the corresponding region 33 of the P 1 picture. Region 34 is determined. In the case of an I 0 picture, the tracking process is interrupted because it is an I picture composed only of intra-predicted blocks, and the corresponding region 34 does not have motion information.

同様に、現在ブロック31の第2動きベクトルMVが指し示すBピクチャの対応領域32の場合、BピクチャがBピクチャであるので、対応領域32も2個の動きベクトルを有する。この場合もまた、Bピクチャの対応領域32が有する2個の動きベクトルのうち、左側の動きベクトルをトラッキングし、Bピクチャの対応領域32の予測に利用されたPピクチャの対応領域41、Pピクチャの対応領域41の予測に利用されたIピクチャの対応領域42を決定する。また、Bピクチャの対応領域32が有する2個の動きベクトルのうち、右側の動きベクトルをトラッキングし、Bピクチャの対応領域32の予測に利用されたPピクチャの対応領域38を決定する。前述のように、Bピクチャの対応領域32が有する2個の動きベクトルのうち、右側の動きベクトルを利用したトラッキング過程は、Iピクチャのように、動き情報を有さないイントラ予測ピクチャまで行われるか、対応領域のうち、イントラ予測されるブロックに含まれる領域の広さが所定大きさ以上である参照ピクチャまで続けて行われる。 Similarly, when the second motion vector MV 2 is indicated B 3 picture corresponding region 32 of the current block 31, the B 3 picture is a B-picture, the corresponding area 32 has two motion vectors. Again, one of the two motion vectors corresponding area 32 of the B 3 picture has to track the left motion vector, B 3 corresponding region 41 of P 1 picture is used to predict the picture of the corresponding region 32 , The corresponding area 42 of the I 0 picture used for the prediction of the corresponding area 41 of the P 1 picture is determined. Also, of the two motion vectors corresponding area 32 of the B 3 picture has to track the right motion vectors, determining a corresponding area 38 of the P 5 picture is available of the B 3 picture prediction of a corresponding region 32 . As described above, the tracking process using the right motion vector among the two motion vectors included in the corresponding region 32 of the B 3 picture is the same as the intra prediction picture having no motion information like the I 0 picture. Or the reference picture in which the size of the area included in the intra-predicted block of the corresponding area is equal to or larger than a predetermined size is performed.

このように、現在ブロック31の動きベクトルをトラッキングすることによって決定された複数枚の参照ピクチャの対応領域32,33,34,38にそれぞれ所定の重み付けを乗じた後で加算し、現在ブロック31の予測ブロックを生成するよ。   As described above, the corresponding areas 32, 33, 34, and 38 of the plurality of reference pictures determined by tracking the motion vector of the current block 31 are respectively multiplied by predetermined weights, and then added to each other. Generate a prediction block.

図4は、本発明による映像符号化方法によって、現在ピクチャの予測に利用する複数枚の参照ピクチャを決定する過程のさらに他の例について説明した図である。図4では、映像符号化時のディレイを減らすために、現在ピクチャ以前に符号化されたピクチャだけを利用するという点を除き、前述の図3で説明した動きベクトル・トラッキング過程と類似している。H.264/AVCでは、現在ピクチャの直前または直後のピクチャに限定されずに、任意の方向の2枚の参照ピクチャを利用できるので、図4に図示されたように、前方向(forward)ピクチャだけを利用して予測符号化を行う場合もある。   FIG. 4 is a diagram illustrating still another example of a process of determining a plurality of reference pictures used for prediction of the current picture by the video encoding method according to the present invention. FIG. 4 is similar to the motion vector tracking process described above with reference to FIG. 3 except that only a picture encoded before the current picture is used to reduce the delay during video encoding. . H. In H.264 / AVC, two reference pictures in any direction can be used without being limited to the picture immediately before or after the current picture, so that only the forward picture is used as shown in FIG. In some cases, predictive encoding is performed.

図4を参照するに、現在ブロック43が有する2個の動きベクトルMV,MVをそれぞれトラッキングすることによって、現在ブロック43の予測に利用される複数枚の参照ピクチャの対応領域44,45,46,47,48,49,50,51を決定できる。 Referring to FIG. 4, by tracking the two motion vectors MV 1 and MV 2 of the current block 43, the corresponding regions 44, 45, 46, 47, 48, 49, 50, 51 can be determined.

以上で説明した通り、本発明による映像符号化方法及び装置は、現在ブロックの動きベクトルが指し示す参照ピクチャの対応領域だけではなく、参照ピクチャの対応領域が有する動き情報を利用し、参照ピクチャの対応領域の予測に利用された他の参照ピクチャの対応領域を現在ブロックの予測に利用する。また、現在ブロックまたは参照ピクチャの対応領域が2個の動きベクトルを有する場合には、各動きベクトルをトラッキングすることによって、参照ピクチャの対応領域を決定する。   As described above, the video coding method and apparatus according to the present invention uses not only the corresponding area of the reference picture indicated by the motion vector of the current block but also the motion information included in the corresponding area of the reference picture, Corresponding regions of other reference pictures used for region prediction are used for prediction of the current block. When the corresponding area of the current block or reference picture has two motion vectors, the corresponding area of the reference picture is determined by tracking each motion vector.

図5は、本発明による映像符号化装置を示したブロック図である。以下では、説明の便宜のために、H.264/AVCによる映像符号化装置を中心に説明するが、本発明による映像符号化装置は、動き予測及び補償を利用する他の方式の映像コーディング方式にも適用されうる。図5を参照するに、映像符号化装置500は、動き予測部502、動き補償部504、イントラ予測部506、変換部508、量子化部510、再整列部512、エントロピ・コーディング部514、逆量子化部516、逆変換部518、フィルタ520、フレームメモリ522及び制御部525を具備する。   FIG. 5 is a block diagram illustrating a video encoding apparatus according to the present invention. In the following, for the convenience of explanation, H.C. The video coding apparatus according to the H.264 / AVC will be mainly described, but the video coding apparatus according to the present invention can be applied to other video coding schemes using motion prediction and compensation. Referring to FIG. 5, the video encoding apparatus 500 includes a motion prediction unit 502, a motion compensation unit 504, an intra prediction unit 506, a conversion unit 508, a quantization unit 510, a rearrangement unit 512, an entropy coding unit 514, and an inverse. A quantization unit 516, an inverse transformation unit 518, a filter 520, a frame memory 522, and a control unit 525 are provided.

動き予測部502は、現在ピクチャを所定大きさのブロック単位に分割し、以前に符号化された後で復元されてフレームメモリ522に保存された参照ピクチャの所定探索領域範囲内で、現在ブロックと最も類似した領域を探索する動き予測を行い、現在ブロックと参照ピクチャの対応領域との位置差である動きベクトルを出力する。   The motion prediction unit 502 divides the current picture into blocks of a predetermined size, and within the predetermined search area range of the reference picture restored after being previously encoded and stored in the frame memory 522, Motion prediction for searching the most similar region is performed, and a motion vector that is a position difference between the current block and the corresponding region of the reference picture is output.

動き補償部504は、動きベクトルが指し示す参照ピクチャの対応領域情報を利用し、現在ブロックの予測値を生成する。特に、本発明による動き補償部504は、前述のように、現在ブロックが有する動きベクトルを継続的にトラッキングすることによって、複数枚の参照ピクチャの対応領域を決定し、決定された参照ピクチャの対応領域の加重和を介して現在ブロックの予測値を生成する。本発明による動き補償部504の具体的な構成及び動作については後述する。   The motion compensation unit 504 generates the prediction value of the current block using the corresponding region information of the reference picture indicated by the motion vector. In particular, as described above, the motion compensation unit 504 according to the present invention determines a corresponding region of a plurality of reference pictures by continuously tracking a motion vector included in the current block, and determines the correspondence of the determined reference pictures. A prediction value of the current block is generated through the weighted sum of the regions. A specific configuration and operation of the motion compensation unit 504 according to the present invention will be described later.

イントラ予測部506は、現在ブロックの予測値を現在ピクチャ内で探すイントラ予測を行う。   The intra prediction unit 506 performs intra prediction for searching for the prediction value of the current block in the current picture.

インター予測、イントラ予測、または本発明による複数枚の参照ピクチャの対応領域を利用した予測方式によって、現在ブロックの予測ブロックが生成されれば、現在ブロックと予測ブロックとの誤差値である剰余が生成され、生成された剰余は、変換部508によって周波数領域に変換され、量子化部510で量子化される。エントロピ・コーディング部514は、量子化された剰余を符号化し、ビットストリームを出力する。   If a prediction block of the current block is generated by inter prediction, intra prediction, or a prediction method using a corresponding region of a plurality of reference pictures according to the present invention, a remainder that is an error value between the current block and the prediction block is generated. Then, the generated remainder is converted into the frequency domain by the conversion unit 508 and quantized by the quantization unit 510. The entropy coding unit 514 encodes the quantized residue and outputs a bit stream.

参照ピクチャを得るために量子化されたピクチャは、逆量子化部516と逆変換部518とによってさらに復元される。このように復元された現在ピクチャは、デブロッキング・フィルタリングを行うフィルタ520を経た後、フレームメモリ522に保存されていて、次のピクチャの予測時に利用される。   The picture quantized to obtain the reference picture is further restored by the inverse quantization unit 516 and the inverse transform unit 518. The current picture restored in this way passes through a filter 520 that performs deblocking filtering, and is then stored in the frame memory 522 and used when predicting the next picture.

制御部525は、映像符号化装置500の各構成要素を制御する一方、現在ブロックの予測モードを決定する。具体的に制御部525は、一般的なインター予測またはイントラ予測されたブロックと現在ブロックとのコスト、及び本発明によって複数枚の参照ピクチャの対応領域を利用して予測されたブロックと現在ブロックとのコストを比較し、最小コストを有する予測モードを決定する。ここで、コスト計算は、さまざまな方法によって行われうる。使われるコスト関数としては、SAD(Sum of Absolute Difference)、SATD(Sum of Absolute Transformed Difference)、SSD(Sum of Squared Difference)、MAD(Mean of Absolute Difference)及びラグランジュ関数(Lagrange function)などがある。SADは、各4×4ブロック予測誤差(residue)値の絶対値を取ってその値を合わせた値である。SATDは、各4×4ブロックの予測誤差値にハダマード変換(Hadamard transform)を適用して生成された係数の絶対値を取って加えた値である。SSDは、各4×4ブロック予測サンプルの予測誤差値を自乗して加えた値であり、MADは、各4×4ブロック予測サンプルの予測誤差値に絶対値を取って平均を求めた値である。ラグランジュ関数は、コスト関数にビットストリーム長の情報を含めて作られた新しい関数である。   The control unit 525 controls each component of the video encoding device 500 and determines the prediction mode of the current block. Specifically, the control unit 525 determines the cost of a general inter prediction or intra predicted block and the current block, and the block and current block predicted using corresponding regions of a plurality of reference pictures according to the present invention. Are compared, and the prediction mode having the minimum cost is determined. Here, the cost calculation may be performed by various methods. Examples of cost functions used include SAD (Sum of Absolute Difference), SATD (Sum of Absolute Transformed Difference), SSD (Sum of Squared Difference), MAD (Mean of Absolute Difference), and Lagrange function. The SAD is a value obtained by taking the absolute value of each 4 × 4 block prediction error value and combining the values. SATD is a value obtained by taking the absolute value of a coefficient generated by applying a Hadamard transform to the prediction error value of each 4 × 4 block. The SSD is a value obtained by squaring the prediction error value of each 4 × 4 block prediction sample, and the MAD is an average value obtained by taking an absolute value from the prediction error value of each 4 × 4 block prediction sample. is there. The Lagrangian function is a new function created by including the bit stream length information in the cost function.

図6は、図5の動き補償部504の具体的な構成を示したブロック図である。図6を参照するに、動き補償部600は、参照ピクチャ決定部610及び加重予測部620を備える。   FIG. 6 is a block diagram showing a specific configuration of the motion compensation unit 504 of FIG. Referring to FIG. 6, the motion compensation unit 600 includes a reference picture determination unit 610 and a weighted prediction unit 620.

参照ピクチャ決定部610は、動き予測部502で生成された現在ブロックの動きベクトルを利用して参照ピクチャの対応領域を決定し、決定された参照ピクチャの対応領域が有する動きベクトルの経路をトラッキングすることによって、現在ブロックの予測に利用する複数枚の参照ピクチャの対応領域を決定する。   The reference picture determination unit 610 determines a corresponding region of the reference picture using the motion vector of the current block generated by the motion prediction unit 502, and tracks the path of the motion vector included in the determined corresponding region of the reference picture. As a result, a corresponding area of a plurality of reference pictures used for prediction of the current block is determined.

加重予測部620は、決定された複数枚の参照ピクチャの対応領域の加重和を求めることによって、現在ブロックの予測ブロックを生成する。具体的に加重予測部620は、複数枚の参照ピクチャの対応領域の重み付けを決定する重み付け計算部621、及び複数枚の参照ピクチャの対応領域に重み付けを乗じた後で加えることによって、現在ブロックに対する予測ブロックを生成する予測ブロック生成部622を備える。   The weighted prediction unit 620 generates a predicted block of the current block by obtaining a weighted sum of the corresponding areas of the determined plurality of reference pictures. Specifically, the weighted prediction unit 620 adds the weighting calculation unit 621 that determines the weighting of the corresponding region of the plurality of reference pictures and the weighting of the corresponding region of the plurality of reference pictures, and then adds the weighting to the current block. A prediction block generation unit 622 that generates a prediction block is provided.

以下では、参照ピクチャ決定部610で、現在ブロックの予測に利用する複数枚の参照ピクチャの対応領域を決定する過程について具体的に説明する。   Hereinafter, a process in which the reference picture determination unit 610 determines corresponding areas of a plurality of reference pictures used for prediction of the current block will be described in detail.

図7は、H.264/MPEG−4AVCの可変ブロックサイズ動き予測で利用される多様な大きさのブロックを示した図であり、図8は、可変ブロック動き予測された映像の一例を図示したものである。図7に図示されたように、マクロブロックは、四種の方法で分割されうる。すなわち、マクロブロックは、1つの16×16マクロブロック・パーティション、2つの16×8パーティション、2つの8×16パーティションまたは4つの8×8パーティションに分割されて動き予測されうる。また、8×8モードが選択されれば、マクロブロック内の4つの8×8サブマクロブロックは、それぞれ四種の方法でまた分割されうる。すなわち、8×8モードが選択された場合、各8×8ブロックは、1つの8×8サブマクロブロック・パーティション、2つの8×4サブマクロブロック・パーティション、2つの4×8サブマクロブロック・パーティションまたは4つの4×4サブマクロブロック・パーティションのうち、一つで分割される。各マクロブロック内で、かようなパーティションとサブマクロブロックとの非常に多数の組み合わせが可能である。マクロブロックを多様な大きさのサブブロックに分ける方法をツリー構造動き補償(tree structured motion compensation)という。   FIG. FIG. 8 is a diagram illustrating blocks of various sizes used in the H.264 / MPEG-4AVC variable block size motion prediction, and FIG. 8 illustrates an example of a variable block motion predicted video. As shown in FIG. 7, the macroblock may be divided in four ways. That is, the macroblock may be divided into one 16 × 16 macroblock partition, two 16 × 8 partitions, two 8 × 16 partitions, or four 8 × 8 partitions and motion predicted. If the 8 × 8 mode is selected, the four 8 × 8 sub-macroblocks in the macroblock can be divided by four methods. That is, when the 8 × 8 mode is selected, each 8 × 8 block has one 8 × 8 sub-macroblock partition, two 8 × 4 sub-macroblock partitions, two 4 × 8 sub-macroblocks, The partition is divided into one of four 4 × 4 sub-macroblock partitions. Within each macroblock, a large number of combinations of such partitions and sub-macroblocks are possible. The method of dividing a macroblock into sub-blocks of various sizes is called tree structured motion compensation.

図8を参照するに、映像で、エネルギーが低いブロックは、大サイズのパーティションに動き予測され、エネルギーが大きいブロックは、小サイズのパーティションに動き予測される。本発明について説明するにおいて、かようなツリー構造動き補償を利用し、現在ピクチャを分割するそれぞれの動きブロック間の境界を動きブロック境界と定義する。   Referring to FIG. 8, in the video, a low energy block is predicted to move to a large size partition, and a high energy block is predicted to move to a small size partition. In describing the present invention, such a tree structure motion compensation is used, and a boundary between each motion block dividing the current picture is defined as a motion block boundary.

前述のように、本発明による映像符号化方法によれば、現在ブロックの予測に利用する参照ピクチャの対応領域を決定するために、参照ピクチャの対応領域が有する動きベクトルを利用したトラッキングを遂行する。しかし、図8に図示されたように、参照ピクチャは、多様な大きさの動きブロックに分割されているので、現在ブロックに対応する参照ピクチャの対応領域は、正確に1つの動きブロックと一致せずに、複数個の動きブロックにわたって形成される場合がある。かような場合、参照ピクチャの対応領域内には、複数個の動きベクトルが存在する。このように、参照ピクチャの対応領域内に複数個の動きベクトルが存在する場合、動きベクトル経路をトラッキングする過程について説明する。   As described above, according to the video coding method of the present invention, tracking is performed using a motion vector included in a corresponding region of a reference picture in order to determine a corresponding region of the reference picture used for prediction of the current block. . However, as shown in FIG. 8, the reference picture is divided into motion blocks of various sizes, so that the corresponding area of the reference picture corresponding to the current block exactly matches one motion block. Instead, it may be formed over a plurality of motion blocks. In such a case, there are a plurality of motion vectors in the corresponding region of the reference picture. In this manner, a process of tracking a motion vector path when a plurality of motion vectors exist in the corresponding region of the reference picture will be described.

図9は、本発明による映像符号化方法によって、動きブロック境界を基準に分割された参照ピクチャの対応領域が参照する他の参照ピクチャの対応領域を決定するための過程について説明するための図である。   FIG. 9 is a diagram illustrating a process for determining a corresponding area of another reference picture that is referenced by a corresponding area of a reference picture divided based on a motion block boundary by the video encoding method according to the present invention. is there.

図9を参照するに、現在ブロック90が有する動きベクトルMVが指し示す参照ピクチャ1の対応領域91は、複数個の動きブロック(BLOCK)にわたって存在する。すなわち、現在ブロック90に対応する参照ピクチャ1の対応領域91は、いずれか1つの動きブロックとマッチングされるのではなく、ブロックA、ブロックB、ブロックC及びブロックDにわたって存在する。このような場合、参照ピクチャ決定部610は、参照ピクチャ1の対応領域91を参照ピクチャ1の動きブロック境界に沿って分割し、分割された参照ピクチャ1のサブ対応領域a,b,c,dを具備する参照ピクチャ1の各動きブロックの動きベクトルが指し示す参照ピクチャ2と参照ピクチャ3との対応領域を決定する。すなわち、参照ピクチャ決定部610は、分割されたa領域が属するブロックAが有する動きベクトルMVを利用して参照ピクチャ2の対応領域a’93を決定し、b領域が属するブロックBが有する動きベクトルMVを利用して参照ピクチャ2の対応領域b’94を決定し、c領域が属するブロックCが有する動きベクトルMVを利用し、参照ピクチャ3の対応領域c’96を決定し、d領域が属するブロックDが有する動きベクトルMVを利用し、参照ピクチャ3の対応領域d’95を決定する。 Referring to FIG. 9, the corresponding area 91 of the reference picture 1 indicated by the motion vector MV 1 of the current block 90 exists over a plurality of motion blocks (BLOCK). That is, the corresponding region 91 of the reference picture 1 corresponding to the current block 90 is not matched with any one motion block, but exists over the block A, the block B, the block C, and the block D. In such a case, the reference picture determination unit 610 divides the corresponding area 91 of the reference picture 1 along the motion block boundary of the reference picture 1, and sub-corresponding areas a, b, c, d of the divided reference picture 1 The corresponding region between the reference picture 2 and the reference picture 3 indicated by the motion vector of each motion block of the reference picture 1 having the above is determined. That is, the reference picture determination unit 610 determines the corresponding area a′93 of the reference picture 2 using the motion vector MV a that the block A to which the divided a area belongs, and the motion that the block B to which the b area belongs has A corresponding area b′94 of the reference picture 2 is determined using the vector MV b , a corresponding area c′96 of the reference picture 3 is determined using the motion vector MV c of the block C to which the c area belongs, and d The corresponding area d′ 95 of the reference picture 3 is determined using the motion vector MV d of the block D to which the area belongs.

図9では、現在ブロック90と対応する参照ピクチャ1の対応領域91を部分的に含むブロックA,B,C,Dが参照ピクチャ2及び参照ピクチャ3を参照する場合を例示しているが、ブロックA,B,C,Dが参照する参照ピクチャが変更される場合にも、同様にブロックA,B,C,Dが有するモーションフィールド(motion field)情報、すなわちブロックA,B,C,Dの動きベクトル及び参照ピクチャ情報を利用し、分割された参照ピクチャ1の対応領域に対応する他の参照ピクチャの対応領域を決定できる。   FIG. 9 illustrates a case where blocks A, B, C, and D partially including the corresponding area 91 of the reference picture 1 corresponding to the current block 90 refer to the reference picture 2 and the reference picture 3. Similarly, when the reference pictures referenced by A, B, C, and D are changed, the motion field information that the blocks A, B, C, and D have, that is, the blocks A, B, C, and D Using the motion vector and the reference picture information, it is possible to determine the corresponding area of another reference picture corresponding to the corresponding area of the divided reference picture 1.

図10は、本発明による映像符号化方法によって、動きブロック境界を基準に分割された参照ピクチャの対応領域が参照する他の参照ピクチャの対応領域を決定するための過程の他の例について説明するための図である。図10を参照するに、現在ブロックに対する参照ピクチャの対応領域100がブロックA,B1,B2,C,Dに部分的に含まれた場合には、前述のように、対応領域100を参照ピクチャの動きブロック境界に沿って分割し、分割された各対応領域a,b1,b2,c,dが属するブロックのモーションフィールド情報を利用し、他の参照ピクチャの対応領域を決定する。すなわち、参照ピクチャ決定部610は、a領域が属するブロックAのモーションフィールド情報を利用し、a領域に対応する他の参照ピクチャの対応領域を決定し、B1領域が属するブロックB1のモーションフィールド情報を利用し、b1領域に対応する他の参照ピクチャの対応領域を決定し、b2領域が属するブロックB2のモーションフィールド情報を利用し、b2領域に対応する他の参照ピクチャの対応領域を決定し、c領域が属するブロックCのモーションフィールド情報を利用し、c領域に対応する他の参照ピクチャの対応領域を決定し、d領域が属するブロックDが有するモーションフィールド情報を利用し、d領域に対応する他の参照ピクチャの対応領域を決定する。   FIG. 10 illustrates another example of a process for determining a corresponding area of another reference picture that is referenced by a corresponding area of a reference picture divided based on a motion block boundary by the video encoding method according to the present invention. FIG. Referring to FIG. 10, when the corresponding area 100 of the reference picture for the current block is partially included in the blocks A, B1, B2, C, and D, as described above, the corresponding area 100 is included in the reference picture. Dividing along the motion block boundary, the motion field information of the block to which each of the divided corresponding areas a, b1, b2, c, d belongs is used to determine the corresponding areas of other reference pictures. That is, the reference picture determining unit 610 uses the motion field information of the block A to which the area a belongs, determines the corresponding area of another reference picture corresponding to the area a, and determines the motion field information of the block B1 to which the area B1 belongs. A corresponding region of another reference picture corresponding to the b1 region is determined, a motion field information of the block B2 to which the b2 region belongs is used, a corresponding region of another reference picture corresponding to the b2 region is determined, and c Using the motion field information of the block C to which the area belongs, determining the corresponding area of another reference picture corresponding to the c area, and using the motion field information of the block D to which the d area belongs, The corresponding area of the reference picture is determined.

前述の参照ピクチャ決定過程は、現在ブロックの動きベクトルが指し示す参照ピクチャの対応領域から、他の参照ピクチャの対応領域を決定するときだけではなく、決定された他の参照ピクチャの対応領域から、さらに他の参照ピクチャを決定するときに、同一に適用されうる。すなわち、動きベクトルを利用したトラッキング過程は、対応領域が動きベクトル情報を有する動きブロックを含んでいる場合には、続けて行われうる。ただし、対応領域が全部イントラ予測ブロックに属する場合、またはイントラ予測されるブロックに属する対応領域の広さが所定臨界値以上である場合には、それ以上のトラッキングを行わずに、現在対応する参照ピクチャだけまでトラッキングを行うことができる。例えば、ふたたび図9を参照するに、もし現在ブロック90に対応する参照ピクチャ1の対応領域91が属するブロックA,B,C,Dがいずれもイントラ予測ブロックである場合には、それ以上のトラッキングを行わずに、参照ピクチャ1の対応領域91のみを現在ブロック90の予測に利用する。もしブロックA,B,Cは動きベクトルを有する動きブロックであり、ブロックDのみがイントラ予測ブロックであるとするとき、ブロックDに属する対応領域dの広さが所定臨界値以上である場合、参照ピクチャ1の対応領域91に所定の重み付けを乗じた値を現在ブロック90の予測に利用する。トラッキング過程を遂行するか否かを判断する過程は、参照ピクチャから決定された他の参照ピクチャの対応領域についても同一に行われる。   The reference picture determination process is performed not only when determining the corresponding area of another reference picture from the corresponding area of the reference picture indicated by the motion vector of the current block, but also from the determined corresponding area of the other reference picture. The same can be applied when determining other reference pictures. That is, the tracking process using a motion vector can be continuously performed when the corresponding region includes a motion block having motion vector information. However, if the corresponding region belongs to all intra-predicted blocks, or if the size of the corresponding region belonging to the intra-predicted block is greater than or equal to a predetermined critical value, the reference corresponding to the current correspondence is performed without further tracking. Tracking can be done only for pictures. For example, referring again to FIG. 9, if all of the blocks A, B, C, and D to which the corresponding area 91 of the reference picture 1 corresponding to the current block 90 belongs are intra prediction blocks, further tracking is performed. Without performing the above, only the corresponding area 91 of the reference picture 1 is used for the prediction of the current block 90. If the blocks A, B, and C are motion blocks having motion vectors, and only the block D is an intra-prediction block, the reference is given when the size of the corresponding region d belonging to the block D is equal to or greater than a predetermined critical value. A value obtained by multiplying the corresponding area 91 of the picture 1 by a predetermined weight is used for prediction of the current block 90. The process of determining whether or not to perform the tracking process is the same for the corresponding areas of other reference pictures determined from the reference picture.

一方、対応領域の一部がイントラ予測ブロックに含まれるが、イントラ予測ブロックに含まれる対応領域の広さが所定臨界値未満である場合には、続けて他の参照ピクチャの対応領域を決定するトラッキング過程を遂行する。このとき、イントラ予測ブロック周辺の動きブロックが有する動きベクトルを利用し、イントラ予測ブロックに仮想動きベクトルを割り当て、割り当てられた仮想動きベクトルが指し示す他の参照ピクチャの対応領域を決定できる。前述の例で、ブロックA,B,Cは動きベクトルMV,MV,MVを有する動きブロックであり、ブロックDのみイントラ予測ブロックであり、ブロックDに属する対応領域dの広さが所定臨界値未満であると仮定するならば、トラッキング過程は中断されずに続く。かような場合、ブロックA,B,Cに属する対応領域a,b,cについては、前述のようにブロックA,B,Cの動きベクトルMV,MV,MVを利用して他の参照ピクチャの対応領域を決定し、ブロックDに属する対応領域dについては、ブロックDの周辺動きブロックA,B,Cが有する動きベクトルMV,MV,MVの中間値(median)または平均値をブロックDの仮想動きベクトルとして割り当て、仮想動きベクトルが指し示す他の参照ピクチャの対応領域を決定できる。 On the other hand, when a part of the corresponding region is included in the intra prediction block, but the size of the corresponding region included in the intra prediction block is less than a predetermined critical value, the corresponding region of another reference picture is determined subsequently. Perform the tracking process. At this time, a motion vector included in a motion block around the intra prediction block is used, a virtual motion vector is assigned to the intra prediction block, and a corresponding region of another reference picture indicated by the assigned virtual motion vector can be determined. In the above example, the blocks A, B, and C are motion blocks having the motion vectors MV a , MV b , and MV c , and only the block D is an intra prediction block, and the width of the corresponding region d belonging to the block D is predetermined. Assuming that it is below the critical value, the tracking process continues uninterrupted. In such a case, for the corresponding areas a, b, and c belonging to the blocks A, B, and C, as described above, the motion vectors MV a , MV b , and MV c of the blocks A, B, and C are used. The corresponding area of the reference picture is determined, and for the corresponding area d belonging to the block D, an intermediate value (median) or an average of the motion vectors MV a , MV b , and MV c included in the peripheral motion blocks A, B, and C of the block D A value is assigned as a virtual motion vector of block D, and a corresponding area of another reference picture indicated by the virtual motion vector can be determined.

再び図6を参照するに、参照ピクチャ決定部610で、現在ブロックが有する動きベクトル経路をトラッキングし、複数枚の参照ピクチャの対応領域が決定されれば、重み付け計算部621は、それぞれの対応領域に付与される重み付けを計算する。   Referring to FIG. 6 again, when the reference picture determination unit 610 tracks the motion vector path of the current block and determines the corresponding areas of the plurality of reference pictures, the weight calculation unit 621 Calculate the weight given to.

重み付け計算部621は、以前に処理された現在ブロックの周辺ブロックの画素と、現在ブロックの周辺ブロックの画素に対応する参照ピクチャの対応領域の周辺画素とを利用し、参照ピクチャの対応領域の周辺画素の加重和を介して予測された現在ブロックの周辺画素の予測値と、現在ブロックの周辺画素の画素値との差が最小になる値を重み付けに決定する。   The weighting calculation unit 621 uses the peripheral block pixels of the current block processed previously and the peripheral pixels of the corresponding area of the reference picture corresponding to the peripheral block pixels of the current block. The value that minimizes the difference between the predicted value of the neighboring pixels of the current block predicted through the weighted sum of the pixels and the neighboring pixel values of the current block is determined as the weight.

図11は、本発明による映像符号化方法において、参照ピクチャの対応領域に付与される重み付けを計算する過程について説明するための図である。図11で、現在ブロックをD、現在ブロックDに対応する参照ピクチャ(t−1)の対応領域をDt−1、対応領域Dt−1の各分割された領域a,b,c,dに対応する参照ピクチャ(t−2)の対応領域をそれぞれDt−2,a,Dt−2,b,Dt−2,c,Dt−2,d(まとめて「Dt−2」とする)とし、Pを現在ブロックDの予測ブロックであると仮定する。 FIG. 11 is a diagram for explaining a process of calculating a weight given to a corresponding region of a reference picture in the video encoding method according to the present invention. In FIG. 11, the current block is D t , the corresponding area of the reference picture (t−1) corresponding to the current block D t is D t−1 , and the corresponding areas D t−1 are divided areas a, b, and c. , D corresponding to the reference picture (t-2) corresponding to D t-2, a , D t-2, b , D t-2, c , D t-2, d (collectively “D t want to) -2 ', it is assumed that the P t current is the prediction block of the block D t.

重み付け計算部621は、参照ピクチャ単位で重み付けを付与する。すなわち、重み付け計算部621は、同じ参照ピクチャに属する対応領域に同じ重み付けを付与する。図11で、参照ピクチャ(t−1)の対応領域Dt−1に付与される重み付けをα、参照ピクチャ(t−2)の対応領域Dt−2に付与される重み付けをβとすれば、現在ブロックDの予測ブロックPは、次の式(1)のように、参照ピクチャ(t−1)の対応領域Dt−1と、参照ピクチャ(t−2)の対応領域Dt−2との加重和として計算される。 The weighting calculation unit 621 assigns weighting in units of reference pictures. That is, the weight calculation unit 621 assigns the same weight to corresponding regions belonging to the same reference picture. In FIG. 11, if the weight assigned to the corresponding area D t-1 of the reference picture (t-1) is α and the weight assigned to the corresponding area D t-2 of the reference picture (t-2) is β. , the predicted block P t of the current block D t, as in the following equation (1), and the corresponding region D t-1 of the reference picture (t-1), the reference picture (t-2) corresponding region D t -2 is calculated as a weighted sum with -2 .

Figure 2010509800
参照ピクチャの対応領域に付与される重み付けα及びβは、多様なアルゴリズムを介して決定されうる。本発明では、現在ブロックDと予測ブロックPとの誤差を最小にする重み付けを利用する。現在ブロックDと予測ブロックPとの誤差(SSE:Sum of Squared Error)は、次の式(2)の通りである。
Figure 2010509800
The weighting α and β given to the corresponding region of the reference picture can be determined through various algorithms. In the present invention, weighting that minimizes the error between the current block D t and the prediction block P t is used. An error (SSE: Sum of Squared Error) between the current block D t and the prediction block P t is expressed by the following equation (2).

Figure 2010509800
重み付けα及びβは、SSEをα及びβに対して偏微分したとき、0になる次の式(3)の偏微分方程式を計算することによって決定されうる。
Figure 2010509800
The weights α and β can be determined by calculating the partial differential equation of the following equation (3) that becomes 0 when the SSE is partially differentiated with respect to α and β.

Figure 2010509800
式(3)の偏微分方程式を計算するために、現在ブロックの周辺ブロックの画素と、現在ブロックの周辺ブロックの画素に対応する参照ピクチャの対応領域の周辺画素とを利用する。これは、復号化部で以前に復号化された現在ブロックの周辺画素情報を利用して重み付けを決定することによって、別途に現在ブロックの予測に利用された重み付けを伝送せずとも、以前に処理された周辺画素データを基に重み付けを決定できるようにするためである。従って、本発明では、参照ピクチャの対応領域に割り当てられる重み付けを別途に伝送せずに、符号化部と復号化部とで以前に処理されたデータを利用して重み付けを計算して利用できるように、現在ブロックの周辺ブロックの画素と、現在ブロックの周辺ブロックの画素に対応する参照ピクチャの対応領域の周辺画素とを利用する。
Figure 2010509800
In order to calculate the partial differential equation of Equation (3), the pixels of the peripheral block of the current block and the peripheral pixels of the corresponding region of the reference picture corresponding to the pixels of the peripheral block of the current block are used. This is because the weighting is determined by using the peripheral pixel information of the current block previously decoded by the decoding unit, so that the weighting used for prediction of the current block is not transmitted separately. This is because the weighting can be determined based on the peripheral pixel data. Therefore, according to the present invention, the weight assigned to the corresponding region of the reference picture can be used by calculating the weight using the data previously processed by the encoding unit and the decoding unit without separately transmitting the weight. In addition, the peripheral block pixels of the current block and the peripheral pixels of the corresponding area of the reference picture corresponding to the peripheral block pixels of the current block are used.

図11をまた参照するに、参照ピクチャ(t−1)の対応領域Dt−1と、参照ピクチャ(t−2)の対応領域Dt−2とを利用し、現在ブロックDの予測ブロックPを計算するように、現在ブロックDの周辺ブロックの画素Nは、現在ブロックDとの空間的位置を考慮し、参照ピクチャ(t−1)の対応領域Dt−1の周辺画素Nt−1,a,Nt−1,b,Nt−1,cと、参照ピクチャ(t−2)の対応領域Dt−2の周辺画素Nt−2,a,Nt−2,b,Nt−2,cとを利用して計算できる。この場合、現在ブロックDの周辺ブロックの画素N、参照ピクチャ(t−1)の対応領域Dt−1の周辺画素Nt−1及び参照ピクチャ(t−2)の対応領域Dt−2の周辺画素Nt−2を利用して予測された周辺ブロック画素の予測値N’間のSSEは、次の式(4)の通りである。 To also refer to FIG. 11, a corresponding region D t-1 of the reference picture (t-1), the reference picture (t-2) and a corresponding region D t-2 using the prediction block of the current block D t to calculate P t, pixel N t of neighboring blocks of the current block D t is now considering the spatial position of the block D t, the periphery of the corresponding region D t-1 of the reference picture (t-1) Pixels N t−1, a , N t−1, b , N t−1, c and peripheral pixels N t−2, a , N t− of the corresponding region D t−2 of the reference picture (t−2) 2, b , N t-2, c . In this case, the pixel N t of neighboring blocks of the current block D t, the corresponding region of the corresponding region D t-1 of the peripheral pixels N t-1 and the reference picture of the reference picture (t-1) (t- 2) D t- predicted value N t 'SSE between the peripheral block pixel which is predicted using the second peripheral pixels N t-2 is as the following equation (4).

Figure 2010509800
重み付け計算部621は、前記式(4)の誤差値SSEをα及びβに対して偏微分した後、偏微分した値が0になるα及びβを決定する。
Figure 2010509800
The weighting calculation unit 621 partially differentiates the error value SSE of the equation (4) with respect to α and β, and then determines α and β at which the partially differentiated value becomes zero.

一方、式(1)で、α及びβの値を正規化(normalization)してα+β=1とすれば、β=1−αである。これを、式(1)に代入すれば、次の式(5)のようであり、この場合にSSEは、式(6)の通りである。   On the other hand, if α + β is normalized by α + β = 1 in equation (1), β = 1−α. If this is substituted into the equation (1), the following equation (5) is obtained. In this case, the SSE is as the equation (6).

Figure 2010509800
式(6)の誤差値(SSE)をαに対して偏微分し、
Figure 2010509800
Partially differentiate the error value (SSE) of equation (6) with respect to α,

Figure 2010509800
を満足するαの値は、次の式(7)の通りである。
Figure 2010509800
The value of α satisfying is as in the following formula (7).

Figure 2010509800
前述のように、対応領域それぞれの重み付けを別途に伝送せずとも、重み付けを決定できるようにするために、現在ブロックDの代わりに、以前に処理された周辺ブロックの画素Nを利用し、Dt−2の代わりにNt−2,Dt−1の代わりにNt−1を利用する。
Figure 2010509800
As described above, in order to be able to determine the weight without separately transmitting the weight of each corresponding region, the pixel N t of the previously processed peripheral block is used instead of the current block D t. N t−2 instead of D t−2 and N t−1 instead of D t−1 .

一方、前述の重み付け決定過程は、さらに多くの参照ピクチャの対応領域を利用する場合にも、各参照ピクチャに重み付けを割り当て、現在ブロックと予測ブロックとの誤差値を最小にする重み付けを決定することによって遂行されうる。   On the other hand, the weight determination process described above assigns a weight to each reference picture and determines a weight that minimizes an error value between the current block and the prediction block even when more corresponding areas of reference pictures are used. Can be accomplished by

すなわち、現在ブロックDの予測に利用されるn枚(nは整数)の参照ピクチャの対応領域をそれぞれD,D,D,…,Dとし、各対応領域に割り当てられる重み付けをW1,W2,W3,…,Wnとすれば、現在ブロックDの予測ブロックPは、P=W1*D+W2*D+W3*D+…+Wn*Dを利用して計算される。各重み付けW1,W2,…,Wnは、現在ブロックDと予測ブロックPとの誤差値の自乗であるSSEを各重み付けを媒介変数として偏微分した後、偏微分した値が0になる値に決定される。前述のように、偏微分方程式を解くときの条件として、現在ブロックの周辺ブロックの画素と、これに対応する参照ピクチャの対応領域の周辺画素とを利用する。 That is, the corresponding areas of n reference pictures (n is an integer) used for prediction of the current block D t are D 1 , D 2 , D 3 ,..., D n , respectively, and the weight assigned to each corresponding area is W1, W2, W3, ..., if Wn, the prediction block P t of the current block D t is calculated using the P t = W1 * D 1 + W2 * D 2 + W3 * D 3 + ... + Wn * D n Is done. Each weighting W1, W2, ..., Wn, after partially differentiating the respective weights as parametric the SSE is a square error value of the current block D t and the prediction block P t, the value obtained by partially differentiating becomes 0 value To be determined. As described above, as a condition for solving the partial differential equation, the pixels of the peripheral block of the current block and the peripheral pixels of the corresponding region of the reference picture corresponding to this are used.

再び図6を参照するに、予測ブロック生成部622は、式(1)のように、決定された重み付けを参照ピクチャの対応領域に乗じた後で加えることによって、現在ブロックの予測ブロックを生成する。   Referring to FIG. 6 again, the prediction block generation unit 622 generates the prediction block of the current block by adding the determined weight after multiplying the corresponding region of the reference picture as shown in Equation (1). .

本発明による動き補償部504で、複数枚の参照ピクチャの対応領域を利用して予測された予測ブロックと現在ブロックとの差である剰余は、変換、量子化及びエントロピ符号化過程を経てビットストリームとして出力される。   In the motion compensation unit 504 according to the present invention, a remainder, which is a difference between a prediction block predicted using a corresponding region of a plurality of reference pictures and a current block, is converted into a bitstream through transformation, quantization, and entropy coding processes. Is output as

一方、本発明による映像符号化方法によって符号化されるビットストリームのヘッダには、各ブロック単位で複数枚の参照ピクチャの対応領域を利用して予測されたことを示す1bitのフラグ(flag)を付加できる。例えば、「0」は、従来技術によって符号化されたビットストリームを示し、「1」は、本発明によって符号化されたビットストリームを示すようにすることができる。   On the other hand, in the header of the bitstream encoded by the video encoding method according to the present invention, a 1-bit flag (flag) indicating that prediction is performed using corresponding regions of a plurality of reference pictures in units of blocks. Can be added. For example, “0” may indicate a bitstream encoded according to the prior art, and “1” may indicate a bitstream encoded according to the present invention.

図12は、本発明による映像符号化方法を示したフローチャートである。図12を参照するに、段階1210で、現在ブロックが参照する参照ピクチャの対応領域の動きベクトル経路をトラッキングすることによって、現在ブロックの予測に利用する複数枚の参照ピクチャの対応領域を決定する。前述のように、参照ピクチャの対応領域が動きブロック境界を利用して分離された場合には、分離された各対応領域が属する動きブロックの動きベクトルを利用し、他の参照ピクチャの対応領域を決定する。   FIG. 12 is a flowchart illustrating a video encoding method according to the present invention. Referring to FIG. 12, in step 1210, the corresponding region of a plurality of reference pictures used for prediction of the current block is determined by tracking the motion vector path of the corresponding region of the reference picture to which the current block refers. As described above, when the corresponding region of the reference picture is separated using the motion block boundary, the motion vector of the motion block to which each separated corresponding region belongs is used, and the corresponding region of the other reference picture is determined. decide.

段階1220で、複数枚の参照ピクチャの対応領域に適用する重み付けを決定する。前述のように、対応領域の重み付けは、現在ブロックの周辺画素と、現在ブロックの周辺画素に対応する参照ピクチャの対応領域の周辺画素とを利用し、対応領域の周辺画素から予測される現在ブロックの周辺画素と原周辺画素との値の差を最小にする値に決定される。   In step 1220, weights to be applied to corresponding regions of a plurality of reference pictures are determined. As described above, the weighting of the corresponding area is performed by using the surrounding pixels of the current block and the surrounding pixels of the corresponding area of the reference picture corresponding to the surrounding pixels of the current block, and predicting the current block from the surrounding pixels of the corresponding area. Is determined to be a value that minimizes the difference in value between the peripheral pixels of the original and the original peripheral pixels.

段階1230で、参照ピクチャの対応領域と計算された重み付けとを乗じた値を合算し、現在ブロックの予測ブロックを生成する。   In operation 1230, a value obtained by multiplying the corresponding area of the reference picture and the calculated weight is added to generate a prediction block of the current block.

段階1240で、現在ブロックと予測ブロックとの差分値の剰余を変換、量子化及びエントロピ符号化し、ビットストリームを生成する。   In operation 1240, the remainder of the difference value between the current block and the prediction block is transformed, quantized, and entropy encoded to generate a bitstream.

図13は、本発明による映像復号化装置の構成を示したブロック図である。図13を参照するに、本発明による映像復号化装置1300は、エントロピデコーダ1310、再整列部1320、逆量子化部1330、逆変換部1340、動き補償部1350、イントラ予測部1360及びフィルタ1370を具備する。   FIG. 13 is a block diagram showing a configuration of a video decoding apparatus according to the present invention. Referring to FIG. 13, a video decoding apparatus 1300 according to the present invention includes an entropy decoder 1310, a rearrangement unit 1320, an inverse quantization unit 1330, an inverse transform unit 1340, a motion compensation unit 1350, an intra prediction unit 1360, and a filter 1370. It has.

エントロピデコーダ1310及び再整列部1320は、圧縮されたビットストリームを受信してエントロピ復号化を行い、量子化された係数を生成する。逆量子化部1330及び逆変換部1340は、量子化された係数に対する逆量子化及び逆変換を行い、変換符号化係数、動きベクトル情報、予測モード情報などを抽出する。ここで、予測モード情報には、本発明による映像符号化方法によって、複数枚の参照ピクチャの対応領域を利用した加重和を介して、現在ブロックが符号化されているか否かを示すフラグが含まれうる。前述のように、現在ブロックの復号化に利用される複数枚の参照ピクチャの対応領域は、映像符号化方式と同一に復号化される現在ブロックの動きベクトル情報を利用して決定されうるので、現在ブロックの復号化に利用される参照ピクチャの対応領域情報を別途に伝送する必要がない。   The entropy decoder 1310 and the reordering unit 1320 receive the compressed bit stream, perform entropy decoding, and generate quantized coefficients. The inverse quantization unit 1330 and the inverse transform unit 1340 perform inverse quantization and inverse transform on the quantized coefficients, and extract transform coding coefficients, motion vector information, prediction mode information, and the like. Here, the prediction mode information includes a flag indicating whether or not the current block is encoded through a weighted sum using corresponding regions of a plurality of reference pictures by the video encoding method according to the present invention. Can be. As described above, the corresponding areas of the plurality of reference pictures used for decoding the current block can be determined using the motion vector information of the current block decoded in the same way as the video encoding method. There is no need to separately transmit the corresponding area information of the reference picture used for decoding the current block.

イントラ予測部1360は、イントラ予測符号化された現在ブロックに対し、以前に復号化された現在ブロックの周辺ブロックを利用して予測ブロックを生成する。   The intra prediction unit 1360 generates a prediction block using the neighboring blocks of the current block decoded previously for the current block subjected to intra prediction encoding.

動き補償部1350は、前述の図5の動き補償部504と同じ構成及び動作を有する。すなわち、動き補償部1350は、復号化される現在ブロックが前述の複数枚の参照ピクチャの対応領域の加重和を利用して予測符号化された場合、ビットストリームに備わった現在ブロックの動きベクトルを利用し、以前に復号化された参照ピクチャの対応領域をトラッキングすることによって、参照ピクチャの対応領域を決定し、各参照ピクチャの対応領域に付与する重み付けを計算した後、参照ピクチャの対応領域に重み付けを乗じた後で合算し、現在ブロックの予測ブロックを生成する。前述のように、参照ピクチャの対応領域の重み付けは、以前に復号化された現在ブロックの周辺画素と、現在ブロックの周辺画素に対応する参照ピクチャの対応領域の周辺画素とを利用して決定される。   The motion compensation unit 1350 has the same configuration and operation as the motion compensation unit 504 of FIG. That is, when the current block to be decoded is predictively encoded using the weighted sum of the corresponding regions of the plurality of reference pictures, the motion compensation unit 1350 calculates the motion vector of the current block included in the bitstream. The corresponding region of the reference picture that has been previously decoded is used to determine the corresponding region of the reference picture and calculate the weight to be assigned to the corresponding region of each reference picture. After multiplying by weighting, it adds together and generates a prediction block of the current block. As described above, the weighting of the corresponding region of the reference picture is determined using the peripheral pixels of the current block that have been decoded previously and the peripheral pixels of the corresponding region of the reference picture corresponding to the peripheral pixels of the current block. The

動き補償部1350及びイントラ予測部1360では、生成された予測ブロックは、ビットストリームから抽出された現在ブロックと予測ブロックとの誤差値D’と加えられ、復元された映像データuF’が生成される。uF’は、フィルタ1370を経て、最終的に、現在ブロックに対する復号化が行われる。 In the motion compensation unit 1350 and the intra prediction unit 1360, the generated prediction block is added to the error value D ′ n between the current block and the prediction block extracted from the bit stream, and the restored video data uF ′ n is generated. Is done. uF ′ n passes through the filter 1370 and is finally decoded for the current block.

図14は、本発明による映像復号化方法を示したフローチャートである。図14を参照するに、段階1410で、入力されたビットストリームに備わった予測モード情報を判読し、復号化される現在ブロックの予測モードを判別する。   FIG. 14 is a flowchart illustrating a video decoding method according to the present invention. Referring to FIG. 14, in step 1410, prediction mode information included in an input bitstream is read to determine a prediction mode of a current block to be decoded.

段階1420で、復号化される現在ブロックが複数枚の参照ピクチャの対応領域を利用して予測されたと判別された場合、ビットストリームに備わった現在ブロックの動きベクトルが指し示す参照ピクチャの対応領域と、参照ピクチャの対応領域の動きベクトル経路とをトラッキングすることによって、現在ブロックの予測に利用する複数枚の参照ピクチャの対応領域を決定する。   If it is determined in step 1420 that the current block to be decoded is predicted using the corresponding regions of the plurality of reference pictures, the corresponding region of the reference picture indicated by the motion vector of the current block included in the bitstream; By tracking the motion vector path of the corresponding area of the reference picture, corresponding areas of a plurality of reference pictures used for prediction of the current block are determined.

段階1430で、以前に復号化された現在ブロックの周辺画素と、現在ブロックの周辺画素に対応する参照ピクチャの対応領域の周辺画素とを利用し、複数枚の参照ピクチャの対応領域に適用する重み付けを計算し、複数枚の参照ピクチャの対応領域の加重和を求めることによって、現在ブロックの予測ブロックを生成する。   In step 1430, the weights applied to the corresponding regions of the plurality of reference pictures using the peripheral pixels of the current block previously decoded and the peripheral pixels of the corresponding region of the reference picture corresponding to the peripheral pixels of the current block. And a predicted block of the current block is generated by calculating a weighted sum of corresponding regions of a plurality of reference pictures.

段階1440で、生成された予測ブロックと、ビットストリームに備わった現在ブロックと予測ブロックとの差分値とを加えて現在ブロックを復号化する。   In operation 1440, the current block is decoded by adding the generated prediction block and a difference value between the current block and the prediction block included in the bitstream.

本発明はまた、コンピュータで読み取り可能な記録媒体にコンピュータで読み取り可能なコードとして具現することが可能である。コンピュータで読み取り可能な記録媒体は、コンピュータシステムによって読み取り可能なデータが保存されるあらゆる種類の記録装置を含む。コンピュータで読み取り可能な記録媒体の例としては、ROM(Read-Only Memory)、RAM(Random-Access Memory)、CD−ROM、磁気テープ、フロッピー(登録商標)ディスク、光データ保存装置などがあり、またキャリアウェーブ(例えば、インターネットを介した伝送)の形態で具現されるものも含む。また、コンピュータで読み取り可能な記録媒体は、ネットワークに連結されたコンピュータシステムに分散され、分散方式でコンピュータで読み取り可能なコードが保存されて実行されうる。   The present invention can also be embodied as computer readable codes on a computer readable recording medium. Computer-readable recording media include all types of recording devices that can store data that can be read by a computer system. Examples of computer-readable recording media include ROM (Read-Only Memory), RAM (Random-Access Memory), CD-ROM, magnetic tape, floppy (registered trademark) disk, optical data storage device, etc. Also included are those embodied in the form of a carrier wave (for example, transmission via the Internet). Further, the computer-readable recording medium can be distributed in a computer system connected to a network, and computer-readable code can be stored and executed in a distributed manner.

以上、本発明についてその望ましい実施形態を中心に説明した。本発明が属する技術分野で当業者ならば、本発明の本質的な特性から外れない範囲で変形された形態で具現されうることを理解することができるであろう。従って、開示された実施形態は、限定的な観点ではなくして、説明的な観点から考慮されねばならない。本発明の範囲は、前述の説明ではなくして特許請求の範囲に示されており、それと同等な範囲内にあるあらゆる差異点は、本発明に含まれるものと解釈されるものである。   In the above, this invention was demonstrated centering on the desirable embodiment. Those skilled in the art to which the present invention pertains can understand that the present invention can be embodied in a modified form without departing from the essential characteristics of the present invention. Accordingly, the disclosed embodiments should be considered from an illustrative viewpoint rather than a limiting viewpoint. The scope of the present invention is defined by the terms of the claims, rather than the foregoing description, and all differences that are within the scope equivalent thereto are construed as being included in the present invention.

Claims (25)

映像符号化方法において、
現在ピクチャの現在ブロックが参照する参照ピクチャの対応領域の動きベクトル経路をトラッキングすることによって、前記現在ブロックの予測に利用する複数枚の参照ピクチャの対応領域を決定する段階と、
前記複数枚の参照ピクチャの対応領域の加重和を求めることによって、前記現在ブロックの予測ブロックを生成する段階と、
前記現在ブロックと予測ブロックとの差分を符号化する段階とを含む映像符号化方法。
In the video encoding method,
Determining a corresponding region of a plurality of reference pictures used for prediction of the current block by tracking a motion vector path of a corresponding region of a reference picture referred to by a current block of the current picture;
Generating a predicted block of the current block by obtaining a weighted sum of corresponding regions of the plurality of reference pictures;
Encoding a difference between the current block and the prediction block.
前記複数枚の参照ピクチャの対応領域を決定する段階は、
前記現在ブロックに対する動き予測を行い、前記現在ブロックに対応する第1参照ピクチャの対応領域を決定する段階と、
前記第1参照ピクチャの動きブロック境界に沿って、前記第1参照ピクチャの対応領域を分割する段階と、
前記分割された第1参照ピクチャの対応領域を具備する前記第1参照ピクチャの動きブロックの動きベクトルが指し示す第2参照ピクチャの対応領域を決定する段階とをさらに含むことを特徴とする請求項1に記載の映像符号化方法。
Determining a corresponding region of the plurality of reference pictures,
Performing motion prediction on the current block and determining a corresponding region of a first reference picture corresponding to the current block;
Dividing a corresponding region of the first reference picture along a motion block boundary of the first reference picture;
2. The method of claim 1, further comprising: determining a corresponding area of a second reference picture indicated by a motion vector of a motion block of the first reference picture having the corresponding area of the divided first reference picture. The video encoding method described in 1.
前記第2参照ピクチャの対応領域を決定する段階は、
前記第1参照ピクチャの動きブロック境界に沿って分割された第1参照ピクチャの対応領域のうち、イントラ予測ブロックに含まれる対応領域に対し、前記イントラ予測ブロックの周辺動きブロックの動きベクトルを利用して前記イントラ予測ブロックの仮想動きベクトルを決定し、前記決定された仮想動きベクトルが指し示す第2参照ピクチャの対応領域を決定することを特徴とする請求項2に記載の映像符号化方法。
Determining a corresponding region of the second reference picture comprises:
Of the corresponding regions of the first reference picture divided along the motion block boundary of the first reference picture, the motion vector of the peripheral motion block of the intra prediction block is used for the corresponding region included in the intra prediction block. 3. The video encoding method according to claim 2, further comprising: determining a virtual motion vector of the intra prediction block, and determining a corresponding region of a second reference picture indicated by the determined virtual motion vector.
前記イントラ予測ブロックの仮想動きベクトルは、
前記周辺動きブロックの動きベクトルの平均値または中間値のうち、一つを利用することを特徴とする請求項3に記載の映像符号化方法。
The virtual motion vector of the intra prediction block is
4. The video encoding method according to claim 3, wherein one of average values or intermediate values of motion vectors of the peripheral motion blocks is used.
前記参照ピクチャの対応領域の動きベクトル経路のトラッキングは、
前記現在ブロックの動きベクトルが指し示す第2参照ピクチャの対応領域を決定する段階を、(n−1)番目の参照ピクチャの動きベクトルが指し示すn番目の参照ピクチャの対応領域まで遂行する段階を含み、ここで、nは3以上であり、前記n番目の参照ピクチャは、(n−1)番目の参照ピクチャの参照ピクチャであることを特徴とする請求項1に記載の映像符号化方法。
Tracking the motion vector path of the corresponding region of the reference picture is
Determining the corresponding region of the second reference picture indicated by the motion vector of the current block up to the corresponding region of the nth reference picture indicated by the motion vector of the (n-1) th reference picture; 2. The video encoding method according to claim 1, wherein n is 3 or more, and the nth reference picture is a reference picture of an (n−1) th reference picture.
前記参照ピクチャの対応領域の動きベクトル経路のトラッキングは、
前記n番目の参照ピクチャの対応領域のうち、からイントラ予測されるブロックに含まれる対応領域の広さが所定臨界値以上である参照ピクチャまで行われることを特徴とする請求項5に記載の映像符号化方法。
Tracking the motion vector path of the corresponding region of the reference picture is
6. The video according to claim 5, wherein from the corresponding area of the nth reference picture to a reference picture whose corresponding area included in the intra-predicted block is greater than or equal to a predetermined critical value is performed. Encoding method.
前記現在ブロックに対する予測ブロックを生成する段階は、
前記複数枚の参照ピクチャの対応領域の重み付けを決定する段階と、
前記複数枚の参照ピクチャの対応領域それぞれに前記重み付けを乗じ、各乗算の結果を加えることによって、前記現在ブロックに対する予測ブロックを生成する段階とを含むことを特徴とする請求項1に記載の映像符号化方法。
Generating a prediction block for the current block;
Determining weights of corresponding areas of the plurality of reference pictures;
The video of claim 1, further comprising: generating a prediction block for the current block by multiplying each corresponding region of the plurality of reference pictures by the weight and adding a result of each multiplication. Encoding method.
前記重み付けは、
以前に処理された前記現在ブロックの周辺ブロックの画素と、前記現在ブロックの周辺ブロックの画素に対応する前記参照ピクチャの対応領域の周辺画素とを利用し、前記参照ピクチャの対応領域の周辺画素の加重和を介して予測された前記現在ブロックの周辺画素の予測値と前記現在ブロックの周辺画素の画素値との差が最小になる値に決定されることを特徴とする請求項7に記載の映像符号化方法。
The weight is
The previously processed pixels of the peripheral block of the current block and the peripheral pixels of the corresponding area of the reference picture corresponding to the pixels of the peripheral block of the current block are used to determine the peripheral pixels of the corresponding area of the reference picture. The method of claim 7, wherein a difference between a predicted value of a neighboring pixel of the current block predicted through a weighted sum and a pixel value of a neighboring pixel of the current block is determined to be a minimum. Video encoding method.
前記符号化の結果として生成されたビットストリームの所定領域に、前記複数枚の参照ピクチャを利用して予測符号化されたブロックを示す所定のフラグを挿入する段階をさらに含むことを特徴とする請求項1に記載の映像符号化方法。   The method may further include inserting a predetermined flag indicating a block that has been predictively encoded using the plurality of reference pictures into a predetermined area of the bitstream generated as a result of the encoding. Item 2. The video encoding method according to Item 1. 前記複数枚の参照ピクチャの対応領域を決定する段階は、
前記第1参照ピクチャの動きブロック境界に沿って分割された第1参照ピクチャ対応領域のうち、イントラ予測ブロックに含まれる領域の広さが所定臨界値以上である場合、前記第1参照ピクチャの対応領域だけを前記現在ブロックの予測に利用する参照ピクチャの対応領域として決定し、
前記現在ブロックの予測ブロックを生成する段階は、
前記第1参照ピクチャの対応領域に所定の重み付けを乗じた値を、前記現在ブロックの予測ブロックに決定することを特徴とする請求項1に記載の映像符号化方法。
Determining a corresponding region of the plurality of reference pictures,
Of the first reference picture corresponding regions divided along the motion block boundary of the first reference picture, when the size of the region included in the intra prediction block is greater than or equal to a predetermined threshold value, the first reference picture correspondence Determining only the region as the corresponding region of the reference picture used for prediction of the current block;
Generating a prediction block of the current block comprises:
The video encoding method according to claim 1, wherein a value obtained by multiplying a corresponding area of the first reference picture by a predetermined weight is determined as a prediction block of the current block.
映像符号化装置において、
現在ブロックが参照する参照ピクチャの対応領域の動きベクトル経路をトラッキングすることによって、前記現在ブロックの予測に利用する複数枚の参照ピクチャの対応領域を決定する参照ピクチャ決定部と、
前記複数枚の参照ピクチャの対応領域の加重和を求めることによって、前記現在ブロックの予測ブロックを生成する加重予測部と、
前記現在ブロックと予測ブロックとの差分を符号化する符号化部とを備える映像符号化装置。
In a video encoding device,
A reference picture determination unit for determining a corresponding region of a plurality of reference pictures used for prediction of the current block by tracking a motion vector path of a corresponding region of a reference picture to which a current block refers;
A weighted prediction unit that generates a predicted block of the current block by obtaining a weighted sum of corresponding regions of the plurality of reference pictures;
A video encoding apparatus comprising: an encoding unit that encodes a difference between the current block and a prediction block.
前記参照ピクチャ決定部は、
前記現在ブロックの動きベクトルが指し示す第1参照ピクチャの対応領域を、前記第1参照ピクチャの動きブロック境界に沿って分割し、前記分割された第1参照ピクチャの対応領域を具備する前記第1参照ピクチャの動きブロックの動きベクトルが指し示す第2参照ピクチャの対応領域を決定することを特徴とする請求項11に記載の映像符号化装置。
The reference picture determination unit
The first reference picture corresponding to the first reference picture indicated by the motion vector of the current block is divided along a motion block boundary of the first reference picture, and the first reference picture comprises the divided first reference picture corresponding area. 12. The video encoding apparatus according to claim 11, wherein a corresponding area of the second reference picture indicated by the motion vector of the motion block of the picture is determined.
前記参照ピクチャ決定部は、
前記第1参照ピクチャの動きブロック境界に沿って分割された第1参照ピクチャの対応領域のうち、イントラ予測ブロックに含まれる対応領域に対し、前記イントラ予測ブロックの周辺動きブロックの動きベクトルを利用して前記イントラ予測ブロックの仮想動きベクトルを決定し、前記決定された仮想動きベクトルが指し示す第2参照ピクチャの対応領域を決定することを特徴とする請求項12に記載の映像符号化装置。
The reference picture determination unit
Of the corresponding regions of the first reference picture divided along the motion block boundary of the first reference picture, the motion vector of the peripheral motion block of the intra prediction block is used for the corresponding region included in the intra prediction block. 13. The video encoding apparatus according to claim 12, wherein a virtual motion vector of the intra prediction block is determined, and a corresponding region of the second reference picture indicated by the determined virtual motion vector is determined.
前記イントラ予測ブロックの仮想動きベクトルは、
前記周辺動きブロックの動きベクトルの平均値または中間値のうち、一つを利用することを特徴とする請求項13に記載の映像符号化装置。
The virtual motion vector of the intra prediction block is
The video encoding apparatus according to claim 13, wherein one of average values or intermediate values of motion vectors of the peripheral motion blocks is used.
前記参照ピクチャ決定部は、
前記現在ブロックの動きベクトルが指し示す第2参照ピクチャの対応領域を決定する段階を、(n−1)番目の参照ピクチャの動きベクトルが指し示すn番目の参照ピクチャの対応領域まで行い、ここで、nは3以上であり、前記n番目の参照ピクチャは、(n−1)番目の参照ピクチャの参照ピクチャであることを特徴とする請求項11に記載の映像符号化装置。
The reference picture determination unit
The step of determining the corresponding region of the second reference picture indicated by the motion vector of the current block is performed up to the corresponding region of the nth reference picture indicated by the motion vector of the (n−1) th reference picture, where n 12. The video encoding apparatus according to claim 11, wherein is 3 or more, and the n-th reference picture is a reference picture of an (n−1) -th reference picture.
前記参照ピクチャ決定部は、
前記n番目の参照ピクチャの対応領域のうち、イントラ予測されるブロックに含まれる対応領域の広さが所定臨界値以上である参照ピクチャまで、前記トラッキングを遂行することを特徴とする請求項15に記載の映像符号化装置。
The reference picture determination unit
16. The tracking according to claim 15, wherein the tracking is performed up to a reference picture in which the size of the corresponding area included in the intra-predicted block is equal to or greater than a predetermined critical value among the corresponding areas of the nth reference picture. The video encoding device described.
前記加重予測部は、
前記複数枚の参照ピクチャの対応領域の重み付けを決定する重み付け計算部と、
前記複数枚の参照ピクチャの対応領域それぞれに前記重み付けを乗じ、前記乗算の結果を加えることによって、前記現在ブロックに対する予測ブロックを生成する予測ブロック生成部とを備えることを特徴とする請求項11に記載の映像符号化装置。
The weighted prediction unit includes:
A weight calculation unit for determining weights of corresponding regions of the plurality of reference pictures;
The prediction block generation unit configured to generate a prediction block for the current block by multiplying each corresponding region of the plurality of reference pictures by the weight and adding the result of the multiplication. The video encoding device described.
前記重み付け計算部は、
以前に処理された前記現在ブロックの周辺ブロックの画素と、前記現在ブロックの周辺ブロックの画素に対応する前記参照ピクチャの対応領域の周辺画素とを利用し、前記参照ピクチャの対応領域の周辺画素の加重和を介して予測された前記現在ブロックの周辺画素の予測値と前記現在ブロックの周辺画素の画素値との差が最小になる値を前記重み付けに決定することを特徴とする請求項17に記載の映像符号化装置。
The weight calculation unit
The previously processed pixels of the peripheral block of the current block and the peripheral pixels of the corresponding area of the reference picture corresponding to the pixels of the peripheral block of the current block are used to determine the peripheral pixels of the corresponding area of the reference picture. The weighting is determined as a value that minimizes a difference between a predicted value of a neighboring pixel of the current block predicted through a weighted sum and a pixel value of a neighboring pixel of the current block. The video encoding device described.
前記符号化部は、
前記符号化の結果として生成されたビットストリームの所定領域に、前記複数枚の参照ピクチャを利用して予測符号化されたブロックを示す所定のフラグを挿入することを特徴とする請求項11に記載の映像符号化装置。
The encoding unit includes:
The predetermined flag indicating a block that is predictively encoded using the plurality of reference pictures is inserted into a predetermined region of the bitstream generated as a result of the encoding. Video encoding device.
前記参照ピクチャ決定部は、
前記第1参照ピクチャの動きブロック境界に沿って分割された第1参照ピクチャ対応領域のうち、イントラ予測ブロックに含まれる領域の広さが所定臨界値以上である場合、前記第1参照ピクチャの対応領域だけを前記現在ブロックの予測に利用する参照ピクチャの対応領域として決定し、
前記加重予測部は、
前記第1参照ピクチャの対応領域に所定の重み付けを乗じた値を、前記現在ブロックの予測ブロックに決定することを特徴とする請求項11に記載の映像符号化装置。
The reference picture determination unit
Of the first reference picture corresponding regions divided along the motion block boundary of the first reference picture, when the size of the region included in the intra prediction block is greater than or equal to a predetermined threshold value, the first reference picture correspondence Determining only the region as the corresponding region of the reference picture used for prediction of the current block;
The weighted prediction unit includes:
The video encoding apparatus according to claim 11, wherein a value obtained by multiplying a corresponding area of the first reference picture by a predetermined weight is determined as a prediction block of the current block.
映像復号化方法において、
入力されたビットストリームに備わった予測モード情報を判読し、復号化される現在ブロックの予測モードを判別する段階と、
前記判別の結果、複数枚の参照ピクチャの対応領域を利用して予測された前記現在ブロックに対し、前記ビットストリームに備わった前記現在ブロックの動きベクトルが指し示す参照ピクチャの対応領域と、前記参照ピクチャの対応領域の動きベクトル経路とをトラッキングすることによって、前記現在ブロックの予測に利用する複数枚の参照ピクチャの対応領域を決定する段階と、
前記複数枚の参照ピクチャの対応領域の加重和を求めることによって、前記現在ブロックの予測ブロックを生成する段階と、
前記生成された予測ブロックと、前記ビットストリームに備わった前記現在ブロックと予測ブロックとの差分値とを加え、前記現在ブロックを復号化する段階とを含む映像復号化方法。
In the video decoding method,
Reading prediction mode information provided in the input bitstream and determining a prediction mode of a current block to be decoded;
As a result of the determination, for the current block predicted using the corresponding areas of a plurality of reference pictures, the corresponding area of the reference picture indicated by the motion vector of the current block included in the bitstream, and the reference picture Determining a corresponding region of a plurality of reference pictures used for prediction of the current block by tracking a motion vector path of the corresponding region of
Generating a predicted block of the current block by obtaining a weighted sum of corresponding regions of the plurality of reference pictures;
A video decoding method comprising: adding the generated prediction block and a difference value between the current block and the prediction block included in the bitstream and decoding the current block.
前記複数枚の参照ピクチャの対応領域を判別する段階は、
前記現在ブロックの動きベクトルが指し示す第1参照ピクチャの対応領域を、前記第1参照ピクチャの動きブロック境界に沿って分割する段階と、
前記分割された第1参照ピクチャの対応領域を具備する前記第1参照ピクチャの動きブロックの動きベクトルが指し示す第2参照ピクチャの対応領域を決定する段階とをさらに含むことを特徴とする請求項21に記載の映像復号化方法。
Determining a corresponding region of the plurality of reference pictures,
Dividing a corresponding region of a first reference picture indicated by a motion vector of the current block along a motion block boundary of the first reference picture;
The method further comprises: determining a corresponding area of a second reference picture indicated by a motion vector of a motion block of the first reference picture having the corresponding area of the divided first reference picture. The video decoding method according to claim 1.
前記参照ピクチャの対応領域の動きベクトル経路のトラッキングは、
前記現在ブロックの動きベクトルが指し示す第2参照ピクチャの対応領域を決定する段階を、(n−1)番目の参照ピクチャの動きベクトルが指し示すn番目の参照ピクチャの対応領域まで行い、ここで、nは3以上であり、前記n番目の参照ピクチャは、(n−1)番目の参照ピクチャの参照ピクチャであることを特徴とする請求項21に記載の映像復号化方法。
Tracking the motion vector path of the corresponding region of the reference picture is
The step of determining the corresponding region of the second reference picture indicated by the motion vector of the current block is performed up to the corresponding region of the nth reference picture indicated by the motion vector of the (n−1) th reference picture, where n The video decoding method according to claim 21, wherein is 3 or more, and the nth reference picture is a reference picture of an (n-1) th reference picture.
前記現在ブロックに対する予測ブロックを生成する段階は、
以前に処理された前記現在ブロックの周辺ブロックの画素と、前記現在ブロックの周辺ブロックの画素に対応する前記参照ピクチャの対応領域の周辺画素とを利用し、前記参照ピクチャの対応領域の周辺画素の加重和を介して予測された前記現在ブロックの周辺画素の予測値と前記現在ブロックの周辺画素の画素値との差が最小になる値を前記複数枚の参照ピクチャの対応領域の重み付けに決定する段階と、
前記複数枚の参照ピクチャの対応領域に前記重み付けを乗じた後で加えることによって、前記現在ブロックに対する予測ブロックを生成する段階とを含むことを特徴とする請求項21に記載の映像復号化方法。
Generating a prediction block for the current block;
The previously processed pixels of the peripheral block of the current block and the peripheral pixels of the corresponding area of the reference picture corresponding to the pixels of the peripheral block of the current block are used to determine the peripheral pixels of the corresponding area of the reference picture. A value that minimizes the difference between the predicted value of the neighboring pixels of the current block and the pixel value of the neighboring pixels of the current block predicted through the weighted sum is determined as the weight of the corresponding region of the plurality of reference pictures. Stages,
The video decoding method according to claim 21, further comprising: generating a prediction block for the current block by adding the weighted areas to corresponding areas of the plurality of reference pictures.
映像復号化装置において、
入力されたビットストリームに備わった予測モード情報を判読し、復号化される現在ブロックの予測モードを判別する予測モード判別部と、
前記判別の結果、複数枚の参照ピクチャの対応領域を利用して予測された前記現在ブロックに対し、前記ビットストリームに備わった前記現在ブロックの動きベクトルが指し示す参照ピクチャの対応領域と、前記参照ピクチャの対応領域の動きベクトル経路とをトラッキングすることによって、前記現在ブロックの予測に利用する複数枚の参照ピクチャの対応領域を決定する参照ピクチャ決定部と、
前記複数枚の参照ピクチャの対応領域の加重和を求めることによって、前記現在ブロックの予測ブロックを生成する加重予測部と、
前記生成された予測ブロックと、前記ビットストリームに備わった前記現在ブロックと予測ブロックとの差分値とを加え、前記現在ブロックを復号化する復号化部とを備える映像復号化装置。
In the video decoding device,
A prediction mode discriminator that interprets the prediction mode information provided in the input bitstream and discriminates the prediction mode of the current block to be decoded;
As a result of the determination, for the current block predicted using the corresponding areas of a plurality of reference pictures, the corresponding area of the reference picture indicated by the motion vector of the current block included in the bitstream, and the reference picture A reference picture determining unit that determines a corresponding area of a plurality of reference pictures used for prediction of the current block by tracking a motion vector path of the corresponding area of
A weighted prediction unit that generates a predicted block of the current block by obtaining a weighted sum of corresponding regions of the plurality of reference pictures;
A video decoding apparatus comprising: the generated prediction block; and a decoding unit that adds a difference value between the current block and the prediction block provided in the bitstream and decodes the current block.
JP2009535217A 2006-11-03 2007-11-02 Video encoding / decoding method and apparatus using motion vector tracking Expired - Fee Related JP5271271B2 (en)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US85629006P 2006-11-03 2006-11-03
US60/856,290 2006-11-03
KR1020070000706A KR101356734B1 (en) 2007-01-03 2007-01-03 Method and apparatus for video encoding, and method and apparatus for video decoding using motion vector tracking
KR10-2007-0000706 2007-01-03
PCT/KR2007/005531 WO2008054179A1 (en) 2006-11-03 2007-11-02 Method and apparatus for encoding/decoding image using motion vector tracking

Publications (2)

Publication Number Publication Date
JP2010509800A true JP2010509800A (en) 2010-03-25
JP5271271B2 JP5271271B2 (en) 2013-08-21

Family

ID=42193881

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009535217A Expired - Fee Related JP5271271B2 (en) 2006-11-03 2007-11-02 Video encoding / decoding method and apparatus using motion vector tracking

Country Status (2)

Country Link
JP (1) JP5271271B2 (en)
CN (1) CN101573982B (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011514773A (en) * 2008-03-04 2011-05-06 サムスン エレクトロニクス カンパニー リミテッド Video coding and decoding method and apparatus using continuous motion estimation
JP2011517227A (en) * 2008-04-11 2011-05-26 トムソン ライセンシング Method and apparatus for template matching prediction (TMP) in video encoding and decoding
CN110063056A (en) * 2016-12-07 2019-07-26 株式会社Kt Method and apparatus for handling vision signal
CN113965747A (en) * 2016-07-05 2022-01-21 株式会社Kt Method and computer readable medium for decoding or encoding video

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101522850B1 (en) * 2010-01-14 2015-05-26 삼성전자주식회사 Method and apparatus for encoding/decoding motion vector
JP5979405B2 (en) * 2011-03-11 2016-08-24 ソニー株式会社 Image processing apparatus and method
CN110830797B (en) * 2012-01-18 2023-09-15 韩国电子通信研究院 Video decoding device, video encoding device and method for transmitting bit stream
CN109479142B (en) * 2016-04-29 2023-10-13 世宗大学校产学协力团 Method and apparatus for encoding/decoding image signal
CN117082237A (en) 2016-04-29 2023-11-17 世宗大学校产学协力团 Method and apparatus for encoding/decoding image signal
CN110169059B (en) * 2017-01-13 2023-08-22 谷歌有限责任公司 Composite Prediction for Video Coding
CN111050177B (en) 2018-10-15 2021-07-20 腾讯科技(深圳)有限公司 Video encoding method, video decoding method, video encoding apparatus, video decoding apparatus, computer device, and storage medium
BR112021011723A2 (en) * 2018-12-21 2021-08-31 Huawei Technologies Co., Ltd. INTRA PREDICTION METHOD AND APPARATUS AND ENCODER, DECODER, COMPUTER PROGRAM, NON-TRANSITORY STORAGE MEDIA, AND BITS FLOW
CN112632426B (en) * 2020-12-22 2022-08-30 新华三大数据技术有限公司 Webpage processing method and device
CN117041597B (en) * 2023-10-09 2024-01-19 中信建投证券股份有限公司 Video encoding and decoding methods and devices, electronic equipment and storage medium

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07264596A (en) * 1994-03-15 1995-10-13 Daewoo Electron Co Ltd Image encoding device
JPH09161071A (en) * 1995-12-12 1997-06-20 Sony Corp Device and method for making areas correspond to each other
JPH09163376A (en) * 1995-12-05 1997-06-20 Nippon Telegr & Teleph Corp <Ntt> Inter-frame coding, decoding method and device for moving image
JP2002223440A (en) * 2001-01-25 2002-08-09 Nippon Hoso Kyokai <Nhk> Shape coder
JP2003284075A (en) * 2002-01-18 2003-10-03 Toshiba Corp Method and apparatus for coding moving image, and method and apparatus for decoding
JP2004072712A (en) * 2002-04-23 2004-03-04 Matsushita Electric Ind Co Ltd Motion vector encoding method and motion vector decoding method
JP2004227519A (en) * 2003-01-27 2004-08-12 Matsushita Electric Ind Co Ltd Image processing method
JP2004364265A (en) * 2003-06-03 2004-12-24 Lg Electronics Inc Method for determining motion vector and macro-block type
US20050152453A1 (en) * 2003-12-18 2005-07-14 Samsung Electronics Co., Ltd. Motion vector estimation method and encoding mode determining method
JP2006345445A (en) * 2005-06-10 2006-12-21 Sony Corp Moving picture conversion apparatus and moving picture conversion method, and computer program
JP2007043651A (en) * 2005-07-05 2007-02-15 Ntt Docomo Inc Dynamic image encoding device, dynamic image encoding method, dynamic image encoding program, dynamic image decoding device, dynamic image decoding method, and dynamic image decoding program

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2853553B2 (en) * 1994-02-22 1999-02-03 日本電気株式会社 Video coding method
US6711278B1 (en) * 1998-09-10 2004-03-23 Microsoft Corporation Tracking semantic objects in vector image sequences
US6314130B1 (en) * 1999-04-28 2001-11-06 Dspc Technologies, Ltd. System and method for joint time tracking of multiple paths
US6901110B1 (en) * 2000-03-10 2005-05-31 Obvious Technology Systems and methods for tracking objects in video sequences

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07264596A (en) * 1994-03-15 1995-10-13 Daewoo Electron Co Ltd Image encoding device
JPH09163376A (en) * 1995-12-05 1997-06-20 Nippon Telegr & Teleph Corp <Ntt> Inter-frame coding, decoding method and device for moving image
JPH09161071A (en) * 1995-12-12 1997-06-20 Sony Corp Device and method for making areas correspond to each other
JP2002223440A (en) * 2001-01-25 2002-08-09 Nippon Hoso Kyokai <Nhk> Shape coder
JP2003284075A (en) * 2002-01-18 2003-10-03 Toshiba Corp Method and apparatus for coding moving image, and method and apparatus for decoding
JP2004072712A (en) * 2002-04-23 2004-03-04 Matsushita Electric Ind Co Ltd Motion vector encoding method and motion vector decoding method
JP2004227519A (en) * 2003-01-27 2004-08-12 Matsushita Electric Ind Co Ltd Image processing method
JP2004364265A (en) * 2003-06-03 2004-12-24 Lg Electronics Inc Method for determining motion vector and macro-block type
US20050152453A1 (en) * 2003-12-18 2005-07-14 Samsung Electronics Co., Ltd. Motion vector estimation method and encoding mode determining method
JP2006345445A (en) * 2005-06-10 2006-12-21 Sony Corp Moving picture conversion apparatus and moving picture conversion method, and computer program
JP2007043651A (en) * 2005-07-05 2007-02-15 Ntt Docomo Inc Dynamic image encoding device, dynamic image encoding method, dynamic image encoding program, dynamic image decoding device, dynamic image decoding method, and dynamic image decoding program

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011514773A (en) * 2008-03-04 2011-05-06 サムスン エレクトロニクス カンパニー リミテッド Video coding and decoding method and apparatus using continuous motion estimation
JP2011517227A (en) * 2008-04-11 2011-05-26 トムソン ライセンシング Method and apparatus for template matching prediction (TMP) in video encoding and decoding
CN113965747A (en) * 2016-07-05 2022-01-21 株式会社Kt Method and computer readable medium for decoding or encoding video
CN110063056A (en) * 2016-12-07 2019-07-26 株式会社Kt Method and apparatus for handling vision signal
US11716467B2 (en) 2016-12-07 2023-08-01 Kt Corporation Method and apparatus for processing video signal
US11736686B2 (en) 2016-12-07 2023-08-22 Kt Corporation Method and apparatus for processing video signal
CN110063056B (en) * 2016-12-07 2023-09-12 株式会社Kt Method and apparatus for processing video signal

Also Published As

Publication number Publication date
CN101573982A (en) 2009-11-04
CN101573982B (en) 2011-08-03
JP5271271B2 (en) 2013-08-21

Similar Documents

Publication Publication Date Title
JP5271271B2 (en) Video encoding / decoding method and apparatus using motion vector tracking
KR101356734B1 (en) Method and apparatus for video encoding, and method and apparatus for video decoding using motion vector tracking
KR100750136B1 (en) Method and apparatus for encoding and decoding of video
JP5506397B2 (en) Video encoding method and apparatus, video decoding method and apparatus
KR101366093B1 (en) Method and apparatus for video encoding and decoding
KR101590511B1 (en) / / Motion Vector Coding Method and Apparatus
KR101279573B1 (en) Motion Vector Encoding/Decoding Method and Apparatus and Video Encoding/Decoding Method and Apparatus
US8165195B2 (en) Method of and apparatus for video intraprediction encoding/decoding
JP5620109B2 (en) Motion vector estimation method, motion vector estimation device, video encoder, video decoder, and decoding method
JP5524625B2 (en) Inter prediction encoding / decoding method and apparatus
JP5401009B2 (en) Video intra prediction encoding and decoding method and apparatus
JP5406222B2 (en) Video coding and decoding method and apparatus using continuous motion estimation
KR100694137B1 (en) Apparatus for encoding or decoding motion image, method therefor, and recording medium storing a program to implement thereof
KR101356207B1 (en) / Method and apparatus for encoding /decoding data
EP2555523A1 (en) Image encoding device, image decoding device, image encoding method, and image decoding method
KR20090012926A (en) Method and apparatus for encoding/decoding image using weighted prediction
JP2010509799A (en) Video predictive encoding method and apparatus, and decoding method and apparatus thereof
US8699576B2 (en) Method of and apparatus for estimating motion vector based on sizes of neighboring partitions, encoder, decoding, and decoding method
KR100809603B1 (en) Method and Apparatus for video coding on pixel-wise prediction
KR101582495B1 (en) Motion Vector Coding Method and Apparatus
KR101582493B1 (en) Motion Vector Coding Method and Apparatus
KR102479714B1 (en) Apparatus for encoding and decoding image using search range decision for motion estimation, and operating method thereof
KR101316710B1 (en) Motion Vector Encoding/Decoding Method and Apparatus and Video Encoding/Decoding Method and Apparatus
KR101314632B1 (en) Motion Vector Encoding/Decoding Method and Apparatus and Video Encoding/Decoding Method and Apparatus
KR20130098252A (en) Motion vector encoding/decoding method and apparatus and video encoding/decoding method and apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101102

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120712

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120904

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121204

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130416

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130510

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees