JP2010509800A - Video encoding / decoding method and apparatus using motion vector tracking - Google Patents
Video encoding / decoding method and apparatus using motion vector tracking Download PDFInfo
- Publication number
- JP2010509800A JP2010509800A JP2009535217A JP2009535217A JP2010509800A JP 2010509800 A JP2010509800 A JP 2010509800A JP 2009535217 A JP2009535217 A JP 2009535217A JP 2009535217 A JP2009535217 A JP 2009535217A JP 2010509800 A JP2010509800 A JP 2010509800A
- Authority
- JP
- Japan
- Prior art keywords
- reference picture
- block
- current block
- prediction
- motion vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Compression Or Coding Systems Of Tv Signals (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Abstract
動きベクトル・トラッキングを利用した映像符号化方法及び装置が開示される。該映像符号化方法及び装置は、現在ピクチャの動き情報を利用して参照ピクチャの対応領域を決定し、決定された参照ピクチャの対応領域の動き情報を利用して他の参照ピクチャの対応領域を決定する動きベクトル・トラッキング過程を介して、現在ピクチャの予測に利用する複数枚の参照ピクチャを決定し、決定された複数枚の参照ピクチャの加重和を介して、現在ピクチャの予測値を生成することを特徴とする。 A video encoding method and apparatus using motion vector tracking is disclosed. The video encoding method and apparatus determine a corresponding region of a reference picture using motion information of a current picture, and determine a corresponding region of another reference picture using motion information of the determined corresponding region of the reference picture. A plurality of reference pictures to be used for prediction of the current picture are determined through a motion vector tracking process to be determined, and a prediction value of the current picture is generated through a weighted sum of the determined plurality of reference pictures. It is characterized by that.
Description
本発明は、映像の予測符号化及び復号化に係り、さらに具体的には、現在ピクチャの動きベクトル経路を連続的にトラッキングすることによって複数枚の参照ピクチャを決定し、決定された複数枚の参照ピクチャを利用し、現在ピクチャを予測符号化する映像符号化方法及び装置、その復号化方法及び装置に関する。 The present invention relates to video predictive encoding and decoding, and more specifically, determines a plurality of reference pictures by continuously tracking a motion vector path of a current picture, and determines a plurality of determined plurality of pictures. The present invention relates to a video encoding method and apparatus for predictively encoding a current picture using a reference picture, and a decoding method and apparatus thereof.
動映像の符号化時には、映像シーケンス内の空間的冗長性及び時間的冗長性(redundancy)を除去することによって圧縮が行われる。時間的冗長性を除去するためには、現在符号化されるピクチャの前方または後方に位置した他のピクチャを参照ピクチャとして利用し、現在符号化されるピクチャの領域と類似した参照ピクチャの領域を検索し、現在符号化されるピクチャと参照ピクチャとの対応する領域間の動き量を検出し、該動き量に基づいて動き補償処理を行って得られる予測映像と現在符号化される映像との差分(residue)を符号化する。 When encoding a moving picture, compression is performed by removing spatial redundancy and temporal redundancy in the video sequence. In order to remove temporal redundancy, another picture located in front of or behind the current coded picture is used as a reference picture, and a reference picture area similar to the current coded picture area is used. A search is performed to detect a motion amount between corresponding regions of a picture that is currently encoded and a reference picture, and a predicted video obtained by performing a motion compensation process based on the motion amount and a video that is currently encoded Encode the difference.
ビデオピクチャは、一つまたはそれ以上のスライス単位にコーディングされる。ここで、1つのスライスは、1つのマクロブロックのみを含む場合もあり、1つのピクチャ全体が1つのスライスに符号化される場合もある。H.264標準案によれば、ビデオピクチャは、画面内の予測だけで符号化されるI(Intra)スライス、1枚の参照ピクチャの映像サンプルを利用した予測によって符号化されるP(Predictive)スライス、及び2枚の参照ピクチャの映像サンプルを利用した予測によって符号化されるB(Bi-predictive)スライス単位でコーディングされる。 A video picture is coded in one or more slice units. Here, one slice may include only one macroblock, and one entire picture may be encoded into one slice. H. According to the H.264 standard, a video picture is an I (Intra) slice that is encoded only by prediction within the screen, a P (Predictive) slice that is encoded by prediction using a video sample of one reference picture, And B (Bi-predictive) slices encoded by prediction using video samples of two reference pictures.
従来、MPEG−2などでは、現在ピクチャの直前のピクチャ1枚、及び直後に出てくるピクチャ1枚を参照ピクチャとして利用する双方向予測(bi-directional prediction)を行っていた。H.264/AVC(Advanced Video Coding)では、かような双方向予測の概念を拡張し、現在ピクチャの直前及び直後のピクチャに限定せず、前後に関係なくして任意の2枚のピクチャを参照ピクチャとして利用できる。このように、前後に関係なくして任意の2枚のピクチャを参照ピクチャとして利用して予測されるピクチャを、双予測ピクチャ(Bi-predictive picture、以下、「Bピクチャ」とする)と定義する。 Conventionally, in MPEG-2 or the like, bi-directional prediction using one picture immediately before the current picture and one picture appearing immediately after as a reference picture has been performed. H. In H.264 / AVC (Advanced Video Coding), the concept of bi-directional prediction is extended, and it is not limited to the picture immediately before and immediately after the current picture, and any two pictures can be used as reference pictures regardless of before and after. Available. In this way, a picture predicted using any two pictures as reference pictures regardless of before and after is defined as a bi-predictive picture (hereinafter referred to as “B picture”).
図1は、H.264/AVCによって、Bピクチャとして符号化される現在ピクチャに備わったブロックの予測過程について説明するための図である。H.264/AVCによれば、Bピクチャ内のブロックは、MB 1のように、同じ方向の2枚の参照ピクチャA及びBを利用したり、MB 2のように、異なる方向の2枚の参照ピクチャB及びCを利用したり、MB 3のように、同一参照ピクチャA内の2枚の互いに異なる領域でサンプリングされた領域を利用したり、MB4やMB5のように、任意の参照ピクチャBまたはDのみを利用して予測される。
FIG. 2 is a diagram for describing a prediction process of a block included in a current picture encoded as a B picture by H.264 / AVC. FIG. H. According to H.264 / AVC, a block in a B picture uses two reference pictures A and B in the same direction as in
一般的に、Bピクチャとしてコーディングされる映像データの符号化効率は、IピクチャやPピクチャとしてコーディングされる映像データの符号化効率に比べてさらに高い。これは、Bピクチャは、2枚の参照ピクチャを利用するために1枚の参照ピクチャを利用するPピクチャや、画面内の予測を利用するIピクチャに比べ、現在映像データと類似した予測データを生成できる可能性が高いだけではなく、Bピクチャの場合、2枚の参照ピクチャの平均値を予測データとして利用するために、時間的に前後に位置するピクチャ間に誤差が発生するとしても、時間方向に平坦になった平均値を予測値として利用するようになり、一種の低周波フィルタリングを行ったように、視覚的に符号化歪曲がほとんど発生しない場合もあるためである。 In general, the encoding efficiency of video data coded as a B picture is even higher than the encoding efficiency of video data coded as an I picture or P picture. This is because the B picture has prediction data similar to the current video data compared to the P picture that uses one reference picture to use two reference pictures and the I picture that uses prediction in the screen. In addition to a high possibility of being generated, in the case of a B picture, in order to use an average value of two reference pictures as prediction data, even if an error occurs between pictures located before and after in time, time This is because the average value flattened in the direction is used as the predicted value, and there is a case where the coding distortion hardly occurs visually as if a kind of low frequency filtering is performed.
Pピクチャに比べ、2枚の参照ピクチャを利用するBピクチャの場合がさらに大きい符号化効率を有するように、さらに多数の参照ピクチャを利用するならば、符号化効率を向上させることができるにもかかわらず、各参照ピクチャごとに動き予測及び補償を行う場合、演算量が増加する限界によって、従来の映像圧縮標準案では、最大2枚までの参照ピクチャのみを利用している。 Compared to the P picture, if a larger number of reference pictures are used so that a B picture using two reference pictures has a larger encoding efficiency, the encoding efficiency can be improved. Regardless, when motion prediction and compensation are performed for each reference picture, the conventional video compression standard proposal uses only up to two reference pictures due to the limit of the amount of calculation.
本発明は、前記のような問題点を解決するために案出されたものであり、現在ブロックの参照ピクチャの動きベクトル経路をトラッキングすることによって、さらに多くの参照ピクチャを現在ブロックの予測に利用して符号化効率を向上させる映像符号化方法及び装置、該復号化方法及び装置を提供するところに目的がある。 The present invention has been devised to solve the above-described problems, and uses more reference pictures for prediction of the current block by tracking the motion vector path of the reference picture of the current block. Thus, it is an object of the present invention to provide a video encoding method and apparatus for improving the encoding efficiency, and the decoding method and apparatus.
前記のような技術的課題を解決するために、本発明による映像符号化方法は、現在ブロックが参照する参照ピクチャの対応領域の動きベクトル経路をトラッキングすることによって、前記現在ブロックの予測に利用する複数枚の参照ピクチャの対応領域を決定する段階と、前記複数枚の参照ピクチャの対応領域の加重和を求めることによって、前記現在ブロックの予測ブロックを生成する段階と、前記現在ブロックと予測ブロックとの差分を符号化する段階とを含むことを特徴とする。 In order to solve the above technical problem, the video coding method according to the present invention is used for prediction of the current block by tracking the motion vector path of the corresponding region of the reference picture referenced by the current block. Determining a corresponding region of a plurality of reference pictures; generating a predicted block of the current block by obtaining a weighted sum of the corresponding regions of the plurality of reference pictures; and the current block and the predicted block; And a step of encoding the difference.
本発明による映像符号化装置は、現在ブロックが参照する参照ピクチャの対応領域の動きベクトル経路をトラッキングすることによって、前記現在ブロックの予測に利用する複数枚の参照ピクチャの対応領域を決定する参照ピクチャ決定部と、前記複数枚の参照ピクチャの対応領域の加重和を求めることによって、前記現在ブロックの予測ブロックを生成する加重予測部と、前記現在ブロックと予測ブロックとの差分を符号化する符号化部とを備えることを特徴とする。 A video encoding apparatus according to the present invention tracks a motion vector path of a corresponding area of a reference picture referenced by a current block, thereby determining a corresponding area of a plurality of reference pictures used for prediction of the current block A determination unit; a weighted prediction unit that generates a prediction block of the current block by obtaining a weighted sum of corresponding regions of the plurality of reference pictures; and an encoding that encodes a difference between the current block and the prediction block And a section.
本発明による映像復号化方法は、入力されたビットストリームに備わった予測モード情報を判読し、復号化される現在ブロックの予測モードを判別する段階と、前記判別の結果、複数枚の参照ピクチャの対応領域を利用して予測された前記現在ブロックに対し、前記ビットストリームに備わった前記現在ブロックの動きベクトルが指し示す参照ピクチャの対応領域と、前記参照ピクチャの対応領域の動きベクトル経路とをトラッキングすることによって、前記現在ブロックの予測に利用する複数枚の参照ピクチャの対応領域を決定する段階と、前記複数枚の参照ピクチャの対応領域の加重和を求めることによって、前記現在ブロックの予測ブロックを生成する段階と、前記生成された予測ブロックと、前記ビットストリームに備わった前記現在ブロックと予測ブロックとの差分値とを加え、前記現在ブロックを復号化する段階とを含むことを特徴とする。 According to the video decoding method of the present invention, the prediction mode information included in the input bitstream is read, and the prediction mode of the current block to be decoded is determined. For the current block predicted using the corresponding area, the corresponding area of the reference picture indicated by the motion vector of the current block included in the bitstream and the motion vector path of the corresponding area of the reference picture are tracked. And determining a corresponding area of a plurality of reference pictures used for prediction of the current block, and generating a predicted block of the current block by obtaining a weighted sum of the corresponding areas of the plurality of reference pictures Performing the generated prediction block and the current stream included in the bitstream. And the difference value of the block and the predicted block is added, characterized in that it comprises a step of decoding the current block.
本発明による映像復号化装置は、入力されたビットストリームに備わった予測モード情報を判読し、復号化される現在ブロックの予測モードを判別する予測モード判別部と、前記判別の結果、複数枚の参照ピクチャの対応領域を利用して予測された前記現在ブロックに対し、前記ビットストリームに備わった前記現在ブロックの動きベクトルが指し示す参照ピクチャの対応領域と、前記参照ピクチャの対応領域の動きベクトル経路とをトラッキングすることによって、前記現在ブロックの予測に利用する複数枚の参照ピクチャの対応領域を決定する参照ピクチャ決定部と、前記複数枚の参照ピクチャの対応領域の加重和を求めることによって、前記現在ブロックの予測ブロックを生成する加重予測部と、前記生成された予測ブロックと、前記ビットストリームに備わった前記現在ブロックと予測ブロックとの差分値とを加え、前記現在ブロックを復号化する復号化部とを備えることを特徴とする。 The video decoding apparatus according to the present invention interprets prediction mode information included in an input bitstream and determines a prediction mode of a current block to be decoded, and a plurality of discs as a result of the determination. For the current block predicted using a corresponding area of a reference picture, a corresponding area of a reference picture indicated by a motion vector of the current block included in the bitstream, and a motion vector path of the corresponding area of the reference picture By tracking a current picture block, a reference picture determination unit that determines a corresponding area of a plurality of reference pictures used for prediction of the current block, and a weighted sum of the corresponding areas of the plurality of reference pictures. A weighted prediction unit for generating a prediction block of the block, the generated prediction block, and Tsu said equipped Doo stream current block and the difference value between the prediction block is added, characterized in that it comprises a decoding unit to decode the current block.
本発明によれば、さらに多数の参照ピクチャを利用して予測符号化を行うことによって、予測効率及び符号化効率を向上させることができる。 According to the present invention, prediction efficiency and encoding efficiency can be improved by performing predictive encoding using a larger number of reference pictures.
以下、添付された図面を参照しつつ、本発明の望ましい実施形態について詳細に説明する。 Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.
本発明による映像符号化方法は、現在ピクチャの動きベクトルが指し示す参照ピクチャの動きベクトルを利用し、他の参照ピクチャの対応領域を継続的にトラッキングすることによって、現在ピクチャの予測に利用される複数枚の参照ピクチャを決定し、決定された参照ピクチャの加重和を介して、現在ピクチャの予測値を生成することを特徴とする。まず、図2ないし図4を参照し、本発明による映像符号化方法及び装置に適用される複数枚の参照ピクチャ決定過程について説明する。 The video encoding method according to the present invention uses a motion vector of a reference picture indicated by a motion vector of a current picture, and continuously tracks a corresponding area of another reference picture, so that a plurality of images used for prediction of the current picture are used. One reference picture is determined, and a prediction value of the current picture is generated through a weighted sum of the determined reference pictures. First, a process of determining a plurality of reference pictures applied to the video coding method and apparatus according to the present invention will be described with reference to FIGS.
図2は、本発明による映像符号化方法によって、現在ピクチャの予測に利用する複数枚の参照ピクチャを決定する過程の一例について説明した図である。 FIG. 2 is a diagram illustrating an example of a process of determining a plurality of reference pictures used for prediction of the current picture by the video encoding method according to the present invention.
現在ピクチャの符号化対象になるブロック(以下、「現在ブロック」とする)21に対して一般的な動き予測が行われ、現在ブロック21と最も類似した参照ピクチャ1の対応領域22、及び現在ブロック21と参照ピクチャ1の対応領域22との位置差を示す動きベクトルMV1が決定された状態であると仮定する。また、現在ブロック21は、Pピクチャ内に備わった1枚の参照ピクチャのみを参照する動きブロックであると仮定する。しかし本発明は、図2に図示されたように、1つの動きベクトルを有する動きブロックだけではなく、2個の動きベクトルを有するBピクチャ内の動きブロックに対して動きベクトルそれぞれをトラッキングすることによっても適用されうる。
General motion prediction is performed on a block (hereinafter referred to as “current block”) 21 to be encoded of the current picture, the
図2を参照するに、現在ブロック21に対する動き予測の結果として生成される動きベクトルMV1は、参照ピクチャ1で現在ブロック21と最も誤差が少ない領域を示す。従来技術によれば、参照ピクチャ1の対応領域22の値を現在ブロック21の予測値に決定し、決定された予測値と現在ブロック21の原画素値との差である剰余(residue)を符号化する。
Referring to FIG. 2, a motion vector MV 1 generated as a result of motion prediction for the
本発明による映像符号化方法は、従来技術のように、現在ブロックの動きベクトルが指し示す参照ピクチャの対応領域だけではなく、参照ピクチャの対応領域が有する動き情報を利用し、参照ピクチャの対応領域の予測に利用された他の参照ピクチャの対応領域を現在ブロックの予測に利用する。図2を参照するに、現在ブロック21に対応する参照ピクチャ1の対応領域22が有する動きベクトルMV2を利用し、参照ピクチャ1の対応領域22の予測に利用された参照ピクチャ2の対応領域23を決定する。また、参照ピクチャ2の対応領域23の動きベクトルMV3を利用し、参照ピクチャ2の対応領域23の予測に利用された参照ピクチャ3の対応領域24を決定する。参照ピクチャn−1の対応領域25の動きベクトルMVnは、参照ピクチャn−1の対応領域25の予測に利用された参照ピクチャAの対応領域26を決定するのに利用される。後述するように、現在ブロックの動きベクトルが指し示す参照ピクチャの対応領域、及び参照ピクチャの対応領域が有する動きベクトルが指し示す他の参照ピクチャの対応領域をトラッキングし続ける過程は、イントラ予測されるブロックだけで構成される参照ピクチャまで遂行されるか、またはイントラ予測ブロックに含まれる対応領域の大きさが所定臨界値以上である参照ピクチャまで行われる。
The video encoding method according to the present invention uses not only the corresponding area of the reference picture indicated by the motion vector of the current block but also the motion information of the corresponding area of the reference picture, as in the prior art, Corresponding regions of other reference pictures used for prediction are used for prediction of the current block. Referring to FIG. 2, the motion vector MV 2 included in the
このように本発明は、従来技術のように、現在ブロック21が有する動きベクトルMV1が指し示す参照ピクチャ1の対応領域22だけではなく、参照ピクチャ1の対応領域22の動きベクトルMV2が指し示す参照ピクチャ2の対応領域23、参照ピクチャ2の対応領域23の動きベクトルMV3が指し示す参照ピクチャ3の対応領域24のように、現在ブロック21の動きベクトルが指し示す参照ピクチャの対応領域の動きベクトル経路をトラッキングすることによって決定された複数枚の参照ピクチャの対応領域に、所定の重み付けを乗じた後で加算することによって、現在ブロック21の予測ブロックを生成する。
As described above, according to the present invention, not only the corresponding
図3は、本発明による映像符号化方法によって、現在ピクチャの予測に利用する複数枚の参照ピクチャを決定する過程の他の例について説明した図である。図3で、I0はIピクチャ、P1及びP5はPピクチャ、B2及びB3はBピクチャであると仮定する。以下では、本発明によって、B2ピクチャに備わった現在ブロック31の予測に利用される複数枚の参照ピクチャ対応領域を決定する過程について説明する。
FIG. 3 is a diagram illustrating another example of a process of determining a plurality of reference pictures used for prediction of a current picture by the video encoding method according to the present invention. In FIG. 3, it is assumed that I 0 is an I picture, P 1 and P 5 are P pictures, and B 2 and B 3 are B pictures. Hereinafter, the present invention, the process will be described for determining a plurality of reference pictures corresponding area used for prediction of the
図3を参照するに、B2ピクチャに備わった現在ブロック31は、一般的な動き予測の結果、2個の動きベクトルMV1,MV2を有すると仮定する。B2ピクチャに備わった現在ブロック31のように、現在符号化される対象ブロックが2個の動きベクトルを有する場合には、それぞれの動きベクトルに対して参照ピクチャの対応領域の動きベクトル経路をトラッキングする過程を遂行することによって、複数枚の参照ピクチャの対応領域を決定する。すなわち、現在ブロック31の第1動きベクトルMV1が指し示すP1ピクチャの対応領域33が有する動き情報を利用し、P1ピクチャの対応領域33の予測に利用された他の参照ピクチャI0の対応領域34を決定する。I0ピクチャの場合、イントラ予測されるブロックによってのみ構成されるIピクチャであり、対応領域34は、動き情報を有さないので、トラッキング過程は中断される。
Referring to FIG. 3, it is assumed that the
同様に、現在ブロック31の第2動きベクトルMV2が指し示すB3ピクチャの対応領域32の場合、B3ピクチャがBピクチャであるので、対応領域32も2個の動きベクトルを有する。この場合もまた、B3ピクチャの対応領域32が有する2個の動きベクトルのうち、左側の動きベクトルをトラッキングし、B3ピクチャの対応領域32の予測に利用されたP1ピクチャの対応領域41、P1ピクチャの対応領域41の予測に利用されたI0ピクチャの対応領域42を決定する。また、B3ピクチャの対応領域32が有する2個の動きベクトルのうち、右側の動きベクトルをトラッキングし、B3ピクチャの対応領域32の予測に利用されたP5ピクチャの対応領域38を決定する。前述のように、B3ピクチャの対応領域32が有する2個の動きベクトルのうち、右側の動きベクトルを利用したトラッキング過程は、I0ピクチャのように、動き情報を有さないイントラ予測ピクチャまで行われるか、対応領域のうち、イントラ予測されるブロックに含まれる領域の広さが所定大きさ以上である参照ピクチャまで続けて行われる。
Similarly, when the second motion vector MV 2 is indicated B 3
このように、現在ブロック31の動きベクトルをトラッキングすることによって決定された複数枚の参照ピクチャの対応領域32,33,34,38にそれぞれ所定の重み付けを乗じた後で加算し、現在ブロック31の予測ブロックを生成するよ。
As described above, the corresponding
図4は、本発明による映像符号化方法によって、現在ピクチャの予測に利用する複数枚の参照ピクチャを決定する過程のさらに他の例について説明した図である。図4では、映像符号化時のディレイを減らすために、現在ピクチャ以前に符号化されたピクチャだけを利用するという点を除き、前述の図3で説明した動きベクトル・トラッキング過程と類似している。H.264/AVCでは、現在ピクチャの直前または直後のピクチャに限定されずに、任意の方向の2枚の参照ピクチャを利用できるので、図4に図示されたように、前方向(forward)ピクチャだけを利用して予測符号化を行う場合もある。 FIG. 4 is a diagram illustrating still another example of a process of determining a plurality of reference pictures used for prediction of the current picture by the video encoding method according to the present invention. FIG. 4 is similar to the motion vector tracking process described above with reference to FIG. 3 except that only a picture encoded before the current picture is used to reduce the delay during video encoding. . H. In H.264 / AVC, two reference pictures in any direction can be used without being limited to the picture immediately before or after the current picture, so that only the forward picture is used as shown in FIG. In some cases, predictive encoding is performed.
図4を参照するに、現在ブロック43が有する2個の動きベクトルMV1,MV2をそれぞれトラッキングすることによって、現在ブロック43の予測に利用される複数枚の参照ピクチャの対応領域44,45,46,47,48,49,50,51を決定できる。
Referring to FIG. 4, by tracking the two motion vectors MV 1 and MV 2 of the
以上で説明した通り、本発明による映像符号化方法及び装置は、現在ブロックの動きベクトルが指し示す参照ピクチャの対応領域だけではなく、参照ピクチャの対応領域が有する動き情報を利用し、参照ピクチャの対応領域の予測に利用された他の参照ピクチャの対応領域を現在ブロックの予測に利用する。また、現在ブロックまたは参照ピクチャの対応領域が2個の動きベクトルを有する場合には、各動きベクトルをトラッキングすることによって、参照ピクチャの対応領域を決定する。 As described above, the video coding method and apparatus according to the present invention uses not only the corresponding area of the reference picture indicated by the motion vector of the current block but also the motion information included in the corresponding area of the reference picture, Corresponding regions of other reference pictures used for region prediction are used for prediction of the current block. When the corresponding area of the current block or reference picture has two motion vectors, the corresponding area of the reference picture is determined by tracking each motion vector.
図5は、本発明による映像符号化装置を示したブロック図である。以下では、説明の便宜のために、H.264/AVCによる映像符号化装置を中心に説明するが、本発明による映像符号化装置は、動き予測及び補償を利用する他の方式の映像コーディング方式にも適用されうる。図5を参照するに、映像符号化装置500は、動き予測部502、動き補償部504、イントラ予測部506、変換部508、量子化部510、再整列部512、エントロピ・コーディング部514、逆量子化部516、逆変換部518、フィルタ520、フレームメモリ522及び制御部525を具備する。
FIG. 5 is a block diagram illustrating a video encoding apparatus according to the present invention. In the following, for the convenience of explanation, H.C. The video coding apparatus according to the H.264 / AVC will be mainly described, but the video coding apparatus according to the present invention can be applied to other video coding schemes using motion prediction and compensation. Referring to FIG. 5, the
動き予測部502は、現在ピクチャを所定大きさのブロック単位に分割し、以前に符号化された後で復元されてフレームメモリ522に保存された参照ピクチャの所定探索領域範囲内で、現在ブロックと最も類似した領域を探索する動き予測を行い、現在ブロックと参照ピクチャの対応領域との位置差である動きベクトルを出力する。
The
動き補償部504は、動きベクトルが指し示す参照ピクチャの対応領域情報を利用し、現在ブロックの予測値を生成する。特に、本発明による動き補償部504は、前述のように、現在ブロックが有する動きベクトルを継続的にトラッキングすることによって、複数枚の参照ピクチャの対応領域を決定し、決定された参照ピクチャの対応領域の加重和を介して現在ブロックの予測値を生成する。本発明による動き補償部504の具体的な構成及び動作については後述する。
The
イントラ予測部506は、現在ブロックの予測値を現在ピクチャ内で探すイントラ予測を行う。
The
インター予測、イントラ予測、または本発明による複数枚の参照ピクチャの対応領域を利用した予測方式によって、現在ブロックの予測ブロックが生成されれば、現在ブロックと予測ブロックとの誤差値である剰余が生成され、生成された剰余は、変換部508によって周波数領域に変換され、量子化部510で量子化される。エントロピ・コーディング部514は、量子化された剰余を符号化し、ビットストリームを出力する。
If a prediction block of the current block is generated by inter prediction, intra prediction, or a prediction method using a corresponding region of a plurality of reference pictures according to the present invention, a remainder that is an error value between the current block and the prediction block is generated. Then, the generated remainder is converted into the frequency domain by the
参照ピクチャを得るために量子化されたピクチャは、逆量子化部516と逆変換部518とによってさらに復元される。このように復元された現在ピクチャは、デブロッキング・フィルタリングを行うフィルタ520を経た後、フレームメモリ522に保存されていて、次のピクチャの予測時に利用される。
The picture quantized to obtain the reference picture is further restored by the
制御部525は、映像符号化装置500の各構成要素を制御する一方、現在ブロックの予測モードを決定する。具体的に制御部525は、一般的なインター予測またはイントラ予測されたブロックと現在ブロックとのコスト、及び本発明によって複数枚の参照ピクチャの対応領域を利用して予測されたブロックと現在ブロックとのコストを比較し、最小コストを有する予測モードを決定する。ここで、コスト計算は、さまざまな方法によって行われうる。使われるコスト関数としては、SAD(Sum of Absolute Difference)、SATD(Sum of Absolute Transformed Difference)、SSD(Sum of Squared Difference)、MAD(Mean of Absolute Difference)及びラグランジュ関数(Lagrange function)などがある。SADは、各4×4ブロック予測誤差(residue)値の絶対値を取ってその値を合わせた値である。SATDは、各4×4ブロックの予測誤差値にハダマード変換(Hadamard transform)を適用して生成された係数の絶対値を取って加えた値である。SSDは、各4×4ブロック予測サンプルの予測誤差値を自乗して加えた値であり、MADは、各4×4ブロック予測サンプルの予測誤差値に絶対値を取って平均を求めた値である。ラグランジュ関数は、コスト関数にビットストリーム長の情報を含めて作られた新しい関数である。
The
図6は、図5の動き補償部504の具体的な構成を示したブロック図である。図6を参照するに、動き補償部600は、参照ピクチャ決定部610及び加重予測部620を備える。
FIG. 6 is a block diagram showing a specific configuration of the
参照ピクチャ決定部610は、動き予測部502で生成された現在ブロックの動きベクトルを利用して参照ピクチャの対応領域を決定し、決定された参照ピクチャの対応領域が有する動きベクトルの経路をトラッキングすることによって、現在ブロックの予測に利用する複数枚の参照ピクチャの対応領域を決定する。
The reference
加重予測部620は、決定された複数枚の参照ピクチャの対応領域の加重和を求めることによって、現在ブロックの予測ブロックを生成する。具体的に加重予測部620は、複数枚の参照ピクチャの対応領域の重み付けを決定する重み付け計算部621、及び複数枚の参照ピクチャの対応領域に重み付けを乗じた後で加えることによって、現在ブロックに対する予測ブロックを生成する予測ブロック生成部622を備える。
The
以下では、参照ピクチャ決定部610で、現在ブロックの予測に利用する複数枚の参照ピクチャの対応領域を決定する過程について具体的に説明する。
Hereinafter, a process in which the reference
図7は、H.264/MPEG−4AVCの可変ブロックサイズ動き予測で利用される多様な大きさのブロックを示した図であり、図8は、可変ブロック動き予測された映像の一例を図示したものである。図7に図示されたように、マクロブロックは、四種の方法で分割されうる。すなわち、マクロブロックは、1つの16×16マクロブロック・パーティション、2つの16×8パーティション、2つの8×16パーティションまたは4つの8×8パーティションに分割されて動き予測されうる。また、8×8モードが選択されれば、マクロブロック内の4つの8×8サブマクロブロックは、それぞれ四種の方法でまた分割されうる。すなわち、8×8モードが選択された場合、各8×8ブロックは、1つの8×8サブマクロブロック・パーティション、2つの8×4サブマクロブロック・パーティション、2つの4×8サブマクロブロック・パーティションまたは4つの4×4サブマクロブロック・パーティションのうち、一つで分割される。各マクロブロック内で、かようなパーティションとサブマクロブロックとの非常に多数の組み合わせが可能である。マクロブロックを多様な大きさのサブブロックに分ける方法をツリー構造動き補償(tree structured motion compensation)という。 FIG. FIG. 8 is a diagram illustrating blocks of various sizes used in the H.264 / MPEG-4AVC variable block size motion prediction, and FIG. 8 illustrates an example of a variable block motion predicted video. As shown in FIG. 7, the macroblock may be divided in four ways. That is, the macroblock may be divided into one 16 × 16 macroblock partition, two 16 × 8 partitions, two 8 × 16 partitions, or four 8 × 8 partitions and motion predicted. If the 8 × 8 mode is selected, the four 8 × 8 sub-macroblocks in the macroblock can be divided by four methods. That is, when the 8 × 8 mode is selected, each 8 × 8 block has one 8 × 8 sub-macroblock partition, two 8 × 4 sub-macroblock partitions, two 4 × 8 sub-macroblocks, The partition is divided into one of four 4 × 4 sub-macroblock partitions. Within each macroblock, a large number of combinations of such partitions and sub-macroblocks are possible. The method of dividing a macroblock into sub-blocks of various sizes is called tree structured motion compensation.
図8を参照するに、映像で、エネルギーが低いブロックは、大サイズのパーティションに動き予測され、エネルギーが大きいブロックは、小サイズのパーティションに動き予測される。本発明について説明するにおいて、かようなツリー構造動き補償を利用し、現在ピクチャを分割するそれぞれの動きブロック間の境界を動きブロック境界と定義する。 Referring to FIG. 8, in the video, a low energy block is predicted to move to a large size partition, and a high energy block is predicted to move to a small size partition. In describing the present invention, such a tree structure motion compensation is used, and a boundary between each motion block dividing the current picture is defined as a motion block boundary.
前述のように、本発明による映像符号化方法によれば、現在ブロックの予測に利用する参照ピクチャの対応領域を決定するために、参照ピクチャの対応領域が有する動きベクトルを利用したトラッキングを遂行する。しかし、図8に図示されたように、参照ピクチャは、多様な大きさの動きブロックに分割されているので、現在ブロックに対応する参照ピクチャの対応領域は、正確に1つの動きブロックと一致せずに、複数個の動きブロックにわたって形成される場合がある。かような場合、参照ピクチャの対応領域内には、複数個の動きベクトルが存在する。このように、参照ピクチャの対応領域内に複数個の動きベクトルが存在する場合、動きベクトル経路をトラッキングする過程について説明する。 As described above, according to the video coding method of the present invention, tracking is performed using a motion vector included in a corresponding region of a reference picture in order to determine a corresponding region of the reference picture used for prediction of the current block. . However, as shown in FIG. 8, the reference picture is divided into motion blocks of various sizes, so that the corresponding area of the reference picture corresponding to the current block exactly matches one motion block. Instead, it may be formed over a plurality of motion blocks. In such a case, there are a plurality of motion vectors in the corresponding region of the reference picture. In this manner, a process of tracking a motion vector path when a plurality of motion vectors exist in the corresponding region of the reference picture will be described.
図9は、本発明による映像符号化方法によって、動きブロック境界を基準に分割された参照ピクチャの対応領域が参照する他の参照ピクチャの対応領域を決定するための過程について説明するための図である。 FIG. 9 is a diagram illustrating a process for determining a corresponding area of another reference picture that is referenced by a corresponding area of a reference picture divided based on a motion block boundary by the video encoding method according to the present invention. is there.
図9を参照するに、現在ブロック90が有する動きベクトルMV1が指し示す参照ピクチャ1の対応領域91は、複数個の動きブロック(BLOCK)にわたって存在する。すなわち、現在ブロック90に対応する参照ピクチャ1の対応領域91は、いずれか1つの動きブロックとマッチングされるのではなく、ブロックA、ブロックB、ブロックC及びブロックDにわたって存在する。このような場合、参照ピクチャ決定部610は、参照ピクチャ1の対応領域91を参照ピクチャ1の動きブロック境界に沿って分割し、分割された参照ピクチャ1のサブ対応領域a,b,c,dを具備する参照ピクチャ1の各動きブロックの動きベクトルが指し示す参照ピクチャ2と参照ピクチャ3との対応領域を決定する。すなわち、参照ピクチャ決定部610は、分割されたa領域が属するブロックAが有する動きベクトルMVaを利用して参照ピクチャ2の対応領域a’93を決定し、b領域が属するブロックBが有する動きベクトルMVbを利用して参照ピクチャ2の対応領域b’94を決定し、c領域が属するブロックCが有する動きベクトルMVcを利用し、参照ピクチャ3の対応領域c’96を決定し、d領域が属するブロックDが有する動きベクトルMVdを利用し、参照ピクチャ3の対応領域d’95を決定する。
Referring to FIG. 9, the corresponding
図9では、現在ブロック90と対応する参照ピクチャ1の対応領域91を部分的に含むブロックA,B,C,Dが参照ピクチャ2及び参照ピクチャ3を参照する場合を例示しているが、ブロックA,B,C,Dが参照する参照ピクチャが変更される場合にも、同様にブロックA,B,C,Dが有するモーションフィールド(motion field)情報、すなわちブロックA,B,C,Dの動きベクトル及び参照ピクチャ情報を利用し、分割された参照ピクチャ1の対応領域に対応する他の参照ピクチャの対応領域を決定できる。
FIG. 9 illustrates a case where blocks A, B, C, and D partially including the corresponding
図10は、本発明による映像符号化方法によって、動きブロック境界を基準に分割された参照ピクチャの対応領域が参照する他の参照ピクチャの対応領域を決定するための過程の他の例について説明するための図である。図10を参照するに、現在ブロックに対する参照ピクチャの対応領域100がブロックA,B1,B2,C,Dに部分的に含まれた場合には、前述のように、対応領域100を参照ピクチャの動きブロック境界に沿って分割し、分割された各対応領域a,b1,b2,c,dが属するブロックのモーションフィールド情報を利用し、他の参照ピクチャの対応領域を決定する。すなわち、参照ピクチャ決定部610は、a領域が属するブロックAのモーションフィールド情報を利用し、a領域に対応する他の参照ピクチャの対応領域を決定し、B1領域が属するブロックB1のモーションフィールド情報を利用し、b1領域に対応する他の参照ピクチャの対応領域を決定し、b2領域が属するブロックB2のモーションフィールド情報を利用し、b2領域に対応する他の参照ピクチャの対応領域を決定し、c領域が属するブロックCのモーションフィールド情報を利用し、c領域に対応する他の参照ピクチャの対応領域を決定し、d領域が属するブロックDが有するモーションフィールド情報を利用し、d領域に対応する他の参照ピクチャの対応領域を決定する。
FIG. 10 illustrates another example of a process for determining a corresponding area of another reference picture that is referenced by a corresponding area of a reference picture divided based on a motion block boundary by the video encoding method according to the present invention. FIG. Referring to FIG. 10, when the corresponding
前述の参照ピクチャ決定過程は、現在ブロックの動きベクトルが指し示す参照ピクチャの対応領域から、他の参照ピクチャの対応領域を決定するときだけではなく、決定された他の参照ピクチャの対応領域から、さらに他の参照ピクチャを決定するときに、同一に適用されうる。すなわち、動きベクトルを利用したトラッキング過程は、対応領域が動きベクトル情報を有する動きブロックを含んでいる場合には、続けて行われうる。ただし、対応領域が全部イントラ予測ブロックに属する場合、またはイントラ予測されるブロックに属する対応領域の広さが所定臨界値以上である場合には、それ以上のトラッキングを行わずに、現在対応する参照ピクチャだけまでトラッキングを行うことができる。例えば、ふたたび図9を参照するに、もし現在ブロック90に対応する参照ピクチャ1の対応領域91が属するブロックA,B,C,Dがいずれもイントラ予測ブロックである場合には、それ以上のトラッキングを行わずに、参照ピクチャ1の対応領域91のみを現在ブロック90の予測に利用する。もしブロックA,B,Cは動きベクトルを有する動きブロックであり、ブロックDのみがイントラ予測ブロックであるとするとき、ブロックDに属する対応領域dの広さが所定臨界値以上である場合、参照ピクチャ1の対応領域91に所定の重み付けを乗じた値を現在ブロック90の予測に利用する。トラッキング過程を遂行するか否かを判断する過程は、参照ピクチャから決定された他の参照ピクチャの対応領域についても同一に行われる。
The reference picture determination process is performed not only when determining the corresponding area of another reference picture from the corresponding area of the reference picture indicated by the motion vector of the current block, but also from the determined corresponding area of the other reference picture. The same can be applied when determining other reference pictures. That is, the tracking process using a motion vector can be continuously performed when the corresponding region includes a motion block having motion vector information. However, if the corresponding region belongs to all intra-predicted blocks, or if the size of the corresponding region belonging to the intra-predicted block is greater than or equal to a predetermined critical value, the reference corresponding to the current correspondence is performed without further tracking. Tracking can be done only for pictures. For example, referring again to FIG. 9, if all of the blocks A, B, C, and D to which the corresponding
一方、対応領域の一部がイントラ予測ブロックに含まれるが、イントラ予測ブロックに含まれる対応領域の広さが所定臨界値未満である場合には、続けて他の参照ピクチャの対応領域を決定するトラッキング過程を遂行する。このとき、イントラ予測ブロック周辺の動きブロックが有する動きベクトルを利用し、イントラ予測ブロックに仮想動きベクトルを割り当て、割り当てられた仮想動きベクトルが指し示す他の参照ピクチャの対応領域を決定できる。前述の例で、ブロックA,B,Cは動きベクトルMVa,MVb,MVcを有する動きブロックであり、ブロックDのみイントラ予測ブロックであり、ブロックDに属する対応領域dの広さが所定臨界値未満であると仮定するならば、トラッキング過程は中断されずに続く。かような場合、ブロックA,B,Cに属する対応領域a,b,cについては、前述のようにブロックA,B,Cの動きベクトルMVa,MVb,MVcを利用して他の参照ピクチャの対応領域を決定し、ブロックDに属する対応領域dについては、ブロックDの周辺動きブロックA,B,Cが有する動きベクトルMVa,MVb,MVcの中間値(median)または平均値をブロックDの仮想動きベクトルとして割り当て、仮想動きベクトルが指し示す他の参照ピクチャの対応領域を決定できる。 On the other hand, when a part of the corresponding region is included in the intra prediction block, but the size of the corresponding region included in the intra prediction block is less than a predetermined critical value, the corresponding region of another reference picture is determined subsequently. Perform the tracking process. At this time, a motion vector included in a motion block around the intra prediction block is used, a virtual motion vector is assigned to the intra prediction block, and a corresponding region of another reference picture indicated by the assigned virtual motion vector can be determined. In the above example, the blocks A, B, and C are motion blocks having the motion vectors MV a , MV b , and MV c , and only the block D is an intra prediction block, and the width of the corresponding region d belonging to the block D is predetermined. Assuming that it is below the critical value, the tracking process continues uninterrupted. In such a case, for the corresponding areas a, b, and c belonging to the blocks A, B, and C, as described above, the motion vectors MV a , MV b , and MV c of the blocks A, B, and C are used. The corresponding area of the reference picture is determined, and for the corresponding area d belonging to the block D, an intermediate value (median) or an average of the motion vectors MV a , MV b , and MV c included in the peripheral motion blocks A, B, and C of the block D A value is assigned as a virtual motion vector of block D, and a corresponding area of another reference picture indicated by the virtual motion vector can be determined.
再び図6を参照するに、参照ピクチャ決定部610で、現在ブロックが有する動きベクトル経路をトラッキングし、複数枚の参照ピクチャの対応領域が決定されれば、重み付け計算部621は、それぞれの対応領域に付与される重み付けを計算する。
Referring to FIG. 6 again, when the reference
重み付け計算部621は、以前に処理された現在ブロックの周辺ブロックの画素と、現在ブロックの周辺ブロックの画素に対応する参照ピクチャの対応領域の周辺画素とを利用し、参照ピクチャの対応領域の周辺画素の加重和を介して予測された現在ブロックの周辺画素の予測値と、現在ブロックの周辺画素の画素値との差が最小になる値を重み付けに決定する。
The
図11は、本発明による映像符号化方法において、参照ピクチャの対応領域に付与される重み付けを計算する過程について説明するための図である。図11で、現在ブロックをDt、現在ブロックDtに対応する参照ピクチャ(t−1)の対応領域をDt−1、対応領域Dt−1の各分割された領域a,b,c,dに対応する参照ピクチャ(t−2)の対応領域をそれぞれDt−2,a,Dt−2,b,Dt−2,c,Dt−2,d(まとめて「Dt−2」とする)とし、Ptを現在ブロックDtの予測ブロックであると仮定する。 FIG. 11 is a diagram for explaining a process of calculating a weight given to a corresponding region of a reference picture in the video encoding method according to the present invention. In FIG. 11, the current block is D t , the corresponding area of the reference picture (t−1) corresponding to the current block D t is D t−1 , and the corresponding areas D t−1 are divided areas a, b, and c. , D corresponding to the reference picture (t-2) corresponding to D t-2, a , D t-2, b , D t-2, c , D t-2, d (collectively “D t want to) -2 ', it is assumed that the P t current is the prediction block of the block D t.
重み付け計算部621は、参照ピクチャ単位で重み付けを付与する。すなわち、重み付け計算部621は、同じ参照ピクチャに属する対応領域に同じ重み付けを付与する。図11で、参照ピクチャ(t−1)の対応領域Dt−1に付与される重み付けをα、参照ピクチャ(t−2)の対応領域Dt−2に付与される重み付けをβとすれば、現在ブロックDtの予測ブロックPtは、次の式(1)のように、参照ピクチャ(t−1)の対応領域Dt−1と、参照ピクチャ(t−2)の対応領域Dt−2との加重和として計算される。
The
図11をまた参照するに、参照ピクチャ(t−1)の対応領域Dt−1と、参照ピクチャ(t−2)の対応領域Dt−2とを利用し、現在ブロックDtの予測ブロックPtを計算するように、現在ブロックDtの周辺ブロックの画素Ntは、現在ブロックDtとの空間的位置を考慮し、参照ピクチャ(t−1)の対応領域Dt−1の周辺画素Nt−1,a,Nt−1,b,Nt−1,cと、参照ピクチャ(t−2)の対応領域Dt−2の周辺画素Nt−2,a,Nt−2,b,Nt−2,cとを利用して計算できる。この場合、現在ブロックDtの周辺ブロックの画素Nt、参照ピクチャ(t−1)の対応領域Dt−1の周辺画素Nt−1及び参照ピクチャ(t−2)の対応領域Dt−2の周辺画素Nt−2を利用して予測された周辺ブロック画素の予測値Nt’間のSSEは、次の式(4)の通りである。 To also refer to FIG. 11, a corresponding region D t-1 of the reference picture (t-1), the reference picture (t-2) and a corresponding region D t-2 using the prediction block of the current block D t to calculate P t, pixel N t of neighboring blocks of the current block D t is now considering the spatial position of the block D t, the periphery of the corresponding region D t-1 of the reference picture (t-1) Pixels N t−1, a , N t−1, b , N t−1, c and peripheral pixels N t−2, a , N t− of the corresponding region D t−2 of the reference picture (t−2) 2, b , N t-2, c . In this case, the pixel N t of neighboring blocks of the current block D t, the corresponding region of the corresponding region D t-1 of the peripheral pixels N t-1 and the reference picture of the reference picture (t-1) (t- 2) D t- predicted value N t 'SSE between the peripheral block pixel which is predicted using the second peripheral pixels N t-2 is as the following equation (4).
一方、式(1)で、α及びβの値を正規化(normalization)してα+β=1とすれば、β=1−αである。これを、式(1)に代入すれば、次の式(5)のようであり、この場合にSSEは、式(6)の通りである。 On the other hand, if α + β is normalized by α + β = 1 in equation (1), β = 1−α. If this is substituted into the equation (1), the following equation (5) is obtained. In this case, the SSE is as the equation (6).
一方、前述の重み付け決定過程は、さらに多くの参照ピクチャの対応領域を利用する場合にも、各参照ピクチャに重み付けを割り当て、現在ブロックと予測ブロックとの誤差値を最小にする重み付けを決定することによって遂行されうる。 On the other hand, the weight determination process described above assigns a weight to each reference picture and determines a weight that minimizes an error value between the current block and the prediction block even when more corresponding areas of reference pictures are used. Can be accomplished by
すなわち、現在ブロックDtの予測に利用されるn枚(nは整数)の参照ピクチャの対応領域をそれぞれD1,D2,D3,…,Dnとし、各対応領域に割り当てられる重み付けをW1,W2,W3,…,Wnとすれば、現在ブロックDtの予測ブロックPtは、Pt=W1*D1+W2*D2+W3*D3+…+Wn*Dnを利用して計算される。各重み付けW1,W2,…,Wnは、現在ブロックDtと予測ブロックPtとの誤差値の自乗であるSSEを各重み付けを媒介変数として偏微分した後、偏微分した値が0になる値に決定される。前述のように、偏微分方程式を解くときの条件として、現在ブロックの周辺ブロックの画素と、これに対応する参照ピクチャの対応領域の周辺画素とを利用する。
That is, the corresponding areas of n reference pictures (n is an integer) used for prediction of the current block D t are D 1 , D 2 , D 3 ,..., D n , respectively, and the weight assigned to each corresponding area is W1, W2, W3, ..., if Wn, the prediction block P t of the current block D t is calculated using the P t = W1 * D 1 + W2 *
再び図6を参照するに、予測ブロック生成部622は、式(1)のように、決定された重み付けを参照ピクチャの対応領域に乗じた後で加えることによって、現在ブロックの予測ブロックを生成する。
Referring to FIG. 6 again, the prediction
本発明による動き補償部504で、複数枚の参照ピクチャの対応領域を利用して予測された予測ブロックと現在ブロックとの差である剰余は、変換、量子化及びエントロピ符号化過程を経てビットストリームとして出力される。
In the
一方、本発明による映像符号化方法によって符号化されるビットストリームのヘッダには、各ブロック単位で複数枚の参照ピクチャの対応領域を利用して予測されたことを示す1bitのフラグ(flag)を付加できる。例えば、「0」は、従来技術によって符号化されたビットストリームを示し、「1」は、本発明によって符号化されたビットストリームを示すようにすることができる。 On the other hand, in the header of the bitstream encoded by the video encoding method according to the present invention, a 1-bit flag (flag) indicating that prediction is performed using corresponding regions of a plurality of reference pictures in units of blocks. Can be added. For example, “0” may indicate a bitstream encoded according to the prior art, and “1” may indicate a bitstream encoded according to the present invention.
図12は、本発明による映像符号化方法を示したフローチャートである。図12を参照するに、段階1210で、現在ブロックが参照する参照ピクチャの対応領域の動きベクトル経路をトラッキングすることによって、現在ブロックの予測に利用する複数枚の参照ピクチャの対応領域を決定する。前述のように、参照ピクチャの対応領域が動きブロック境界を利用して分離された場合には、分離された各対応領域が属する動きブロックの動きベクトルを利用し、他の参照ピクチャの対応領域を決定する。
FIG. 12 is a flowchart illustrating a video encoding method according to the present invention. Referring to FIG. 12, in
段階1220で、複数枚の参照ピクチャの対応領域に適用する重み付けを決定する。前述のように、対応領域の重み付けは、現在ブロックの周辺画素と、現在ブロックの周辺画素に対応する参照ピクチャの対応領域の周辺画素とを利用し、対応領域の周辺画素から予測される現在ブロックの周辺画素と原周辺画素との値の差を最小にする値に決定される。
In
段階1230で、参照ピクチャの対応領域と計算された重み付けとを乗じた値を合算し、現在ブロックの予測ブロックを生成する。
In
段階1240で、現在ブロックと予測ブロックとの差分値の剰余を変換、量子化及びエントロピ符号化し、ビットストリームを生成する。
In
図13は、本発明による映像復号化装置の構成を示したブロック図である。図13を参照するに、本発明による映像復号化装置1300は、エントロピデコーダ1310、再整列部1320、逆量子化部1330、逆変換部1340、動き補償部1350、イントラ予測部1360及びフィルタ1370を具備する。
FIG. 13 is a block diagram showing a configuration of a video decoding apparatus according to the present invention. Referring to FIG. 13, a
エントロピデコーダ1310及び再整列部1320は、圧縮されたビットストリームを受信してエントロピ復号化を行い、量子化された係数を生成する。逆量子化部1330及び逆変換部1340は、量子化された係数に対する逆量子化及び逆変換を行い、変換符号化係数、動きベクトル情報、予測モード情報などを抽出する。ここで、予測モード情報には、本発明による映像符号化方法によって、複数枚の参照ピクチャの対応領域を利用した加重和を介して、現在ブロックが符号化されているか否かを示すフラグが含まれうる。前述のように、現在ブロックの復号化に利用される複数枚の参照ピクチャの対応領域は、映像符号化方式と同一に復号化される現在ブロックの動きベクトル情報を利用して決定されうるので、現在ブロックの復号化に利用される参照ピクチャの対応領域情報を別途に伝送する必要がない。
The
イントラ予測部1360は、イントラ予測符号化された現在ブロックに対し、以前に復号化された現在ブロックの周辺ブロックを利用して予測ブロックを生成する。
The
動き補償部1350は、前述の図5の動き補償部504と同じ構成及び動作を有する。すなわち、動き補償部1350は、復号化される現在ブロックが前述の複数枚の参照ピクチャの対応領域の加重和を利用して予測符号化された場合、ビットストリームに備わった現在ブロックの動きベクトルを利用し、以前に復号化された参照ピクチャの対応領域をトラッキングすることによって、参照ピクチャの対応領域を決定し、各参照ピクチャの対応領域に付与する重み付けを計算した後、参照ピクチャの対応領域に重み付けを乗じた後で合算し、現在ブロックの予測ブロックを生成する。前述のように、参照ピクチャの対応領域の重み付けは、以前に復号化された現在ブロックの周辺画素と、現在ブロックの周辺画素に対応する参照ピクチャの対応領域の周辺画素とを利用して決定される。
The
動き補償部1350及びイントラ予測部1360では、生成された予測ブロックは、ビットストリームから抽出された現在ブロックと予測ブロックとの誤差値D’nと加えられ、復元された映像データuF’nが生成される。uF’nは、フィルタ1370を経て、最終的に、現在ブロックに対する復号化が行われる。
In the
図14は、本発明による映像復号化方法を示したフローチャートである。図14を参照するに、段階1410で、入力されたビットストリームに備わった予測モード情報を判読し、復号化される現在ブロックの予測モードを判別する。
FIG. 14 is a flowchart illustrating a video decoding method according to the present invention. Referring to FIG. 14, in
段階1420で、復号化される現在ブロックが複数枚の参照ピクチャの対応領域を利用して予測されたと判別された場合、ビットストリームに備わった現在ブロックの動きベクトルが指し示す参照ピクチャの対応領域と、参照ピクチャの対応領域の動きベクトル経路とをトラッキングすることによって、現在ブロックの予測に利用する複数枚の参照ピクチャの対応領域を決定する。
If it is determined in
段階1430で、以前に復号化された現在ブロックの周辺画素と、現在ブロックの周辺画素に対応する参照ピクチャの対応領域の周辺画素とを利用し、複数枚の参照ピクチャの対応領域に適用する重み付けを計算し、複数枚の参照ピクチャの対応領域の加重和を求めることによって、現在ブロックの予測ブロックを生成する。
In
段階1440で、生成された予測ブロックと、ビットストリームに備わった現在ブロックと予測ブロックとの差分値とを加えて現在ブロックを復号化する。
In
本発明はまた、コンピュータで読み取り可能な記録媒体にコンピュータで読み取り可能なコードとして具現することが可能である。コンピュータで読み取り可能な記録媒体は、コンピュータシステムによって読み取り可能なデータが保存されるあらゆる種類の記録装置を含む。コンピュータで読み取り可能な記録媒体の例としては、ROM(Read-Only Memory)、RAM(Random-Access Memory)、CD−ROM、磁気テープ、フロッピー(登録商標)ディスク、光データ保存装置などがあり、またキャリアウェーブ(例えば、インターネットを介した伝送)の形態で具現されるものも含む。また、コンピュータで読み取り可能な記録媒体は、ネットワークに連結されたコンピュータシステムに分散され、分散方式でコンピュータで読み取り可能なコードが保存されて実行されうる。 The present invention can also be embodied as computer readable codes on a computer readable recording medium. Computer-readable recording media include all types of recording devices that can store data that can be read by a computer system. Examples of computer-readable recording media include ROM (Read-Only Memory), RAM (Random-Access Memory), CD-ROM, magnetic tape, floppy (registered trademark) disk, optical data storage device, etc. Also included are those embodied in the form of a carrier wave (for example, transmission via the Internet). Further, the computer-readable recording medium can be distributed in a computer system connected to a network, and computer-readable code can be stored and executed in a distributed manner.
以上、本発明についてその望ましい実施形態を中心に説明した。本発明が属する技術分野で当業者ならば、本発明の本質的な特性から外れない範囲で変形された形態で具現されうることを理解することができるであろう。従って、開示された実施形態は、限定的な観点ではなくして、説明的な観点から考慮されねばならない。本発明の範囲は、前述の説明ではなくして特許請求の範囲に示されており、それと同等な範囲内にあるあらゆる差異点は、本発明に含まれるものと解釈されるものである。 In the above, this invention was demonstrated centering on the desirable embodiment. Those skilled in the art to which the present invention pertains can understand that the present invention can be embodied in a modified form without departing from the essential characteristics of the present invention. Accordingly, the disclosed embodiments should be considered from an illustrative viewpoint rather than a limiting viewpoint. The scope of the present invention is defined by the terms of the claims, rather than the foregoing description, and all differences that are within the scope equivalent thereto are construed as being included in the present invention.
Claims (25)
現在ピクチャの現在ブロックが参照する参照ピクチャの対応領域の動きベクトル経路をトラッキングすることによって、前記現在ブロックの予測に利用する複数枚の参照ピクチャの対応領域を決定する段階と、
前記複数枚の参照ピクチャの対応領域の加重和を求めることによって、前記現在ブロックの予測ブロックを生成する段階と、
前記現在ブロックと予測ブロックとの差分を符号化する段階とを含む映像符号化方法。 In the video encoding method,
Determining a corresponding region of a plurality of reference pictures used for prediction of the current block by tracking a motion vector path of a corresponding region of a reference picture referred to by a current block of the current picture;
Generating a predicted block of the current block by obtaining a weighted sum of corresponding regions of the plurality of reference pictures;
Encoding a difference between the current block and the prediction block.
前記現在ブロックに対する動き予測を行い、前記現在ブロックに対応する第1参照ピクチャの対応領域を決定する段階と、
前記第1参照ピクチャの動きブロック境界に沿って、前記第1参照ピクチャの対応領域を分割する段階と、
前記分割された第1参照ピクチャの対応領域を具備する前記第1参照ピクチャの動きブロックの動きベクトルが指し示す第2参照ピクチャの対応領域を決定する段階とをさらに含むことを特徴とする請求項1に記載の映像符号化方法。 Determining a corresponding region of the plurality of reference pictures,
Performing motion prediction on the current block and determining a corresponding region of a first reference picture corresponding to the current block;
Dividing a corresponding region of the first reference picture along a motion block boundary of the first reference picture;
2. The method of claim 1, further comprising: determining a corresponding area of a second reference picture indicated by a motion vector of a motion block of the first reference picture having the corresponding area of the divided first reference picture. The video encoding method described in 1.
前記第1参照ピクチャの動きブロック境界に沿って分割された第1参照ピクチャの対応領域のうち、イントラ予測ブロックに含まれる対応領域に対し、前記イントラ予測ブロックの周辺動きブロックの動きベクトルを利用して前記イントラ予測ブロックの仮想動きベクトルを決定し、前記決定された仮想動きベクトルが指し示す第2参照ピクチャの対応領域を決定することを特徴とする請求項2に記載の映像符号化方法。 Determining a corresponding region of the second reference picture comprises:
Of the corresponding regions of the first reference picture divided along the motion block boundary of the first reference picture, the motion vector of the peripheral motion block of the intra prediction block is used for the corresponding region included in the intra prediction block. 3. The video encoding method according to claim 2, further comprising: determining a virtual motion vector of the intra prediction block, and determining a corresponding region of a second reference picture indicated by the determined virtual motion vector.
前記周辺動きブロックの動きベクトルの平均値または中間値のうち、一つを利用することを特徴とする請求項3に記載の映像符号化方法。 The virtual motion vector of the intra prediction block is
4. The video encoding method according to claim 3, wherein one of average values or intermediate values of motion vectors of the peripheral motion blocks is used.
前記現在ブロックの動きベクトルが指し示す第2参照ピクチャの対応領域を決定する段階を、(n−1)番目の参照ピクチャの動きベクトルが指し示すn番目の参照ピクチャの対応領域まで遂行する段階を含み、ここで、nは3以上であり、前記n番目の参照ピクチャは、(n−1)番目の参照ピクチャの参照ピクチャであることを特徴とする請求項1に記載の映像符号化方法。 Tracking the motion vector path of the corresponding region of the reference picture is
Determining the corresponding region of the second reference picture indicated by the motion vector of the current block up to the corresponding region of the nth reference picture indicated by the motion vector of the (n-1) th reference picture; 2. The video encoding method according to claim 1, wherein n is 3 or more, and the nth reference picture is a reference picture of an (n−1) th reference picture.
前記n番目の参照ピクチャの対応領域のうち、からイントラ予測されるブロックに含まれる対応領域の広さが所定臨界値以上である参照ピクチャまで行われることを特徴とする請求項5に記載の映像符号化方法。 Tracking the motion vector path of the corresponding region of the reference picture is
6. The video according to claim 5, wherein from the corresponding area of the nth reference picture to a reference picture whose corresponding area included in the intra-predicted block is greater than or equal to a predetermined critical value is performed. Encoding method.
前記複数枚の参照ピクチャの対応領域の重み付けを決定する段階と、
前記複数枚の参照ピクチャの対応領域それぞれに前記重み付けを乗じ、各乗算の結果を加えることによって、前記現在ブロックに対する予測ブロックを生成する段階とを含むことを特徴とする請求項1に記載の映像符号化方法。 Generating a prediction block for the current block;
Determining weights of corresponding areas of the plurality of reference pictures;
The video of claim 1, further comprising: generating a prediction block for the current block by multiplying each corresponding region of the plurality of reference pictures by the weight and adding a result of each multiplication. Encoding method.
以前に処理された前記現在ブロックの周辺ブロックの画素と、前記現在ブロックの周辺ブロックの画素に対応する前記参照ピクチャの対応領域の周辺画素とを利用し、前記参照ピクチャの対応領域の周辺画素の加重和を介して予測された前記現在ブロックの周辺画素の予測値と前記現在ブロックの周辺画素の画素値との差が最小になる値に決定されることを特徴とする請求項7に記載の映像符号化方法。 The weight is
The previously processed pixels of the peripheral block of the current block and the peripheral pixels of the corresponding area of the reference picture corresponding to the pixels of the peripheral block of the current block are used to determine the peripheral pixels of the corresponding area of the reference picture. The method of claim 7, wherein a difference between a predicted value of a neighboring pixel of the current block predicted through a weighted sum and a pixel value of a neighboring pixel of the current block is determined to be a minimum. Video encoding method.
前記第1参照ピクチャの動きブロック境界に沿って分割された第1参照ピクチャ対応領域のうち、イントラ予測ブロックに含まれる領域の広さが所定臨界値以上である場合、前記第1参照ピクチャの対応領域だけを前記現在ブロックの予測に利用する参照ピクチャの対応領域として決定し、
前記現在ブロックの予測ブロックを生成する段階は、
前記第1参照ピクチャの対応領域に所定の重み付けを乗じた値を、前記現在ブロックの予測ブロックに決定することを特徴とする請求項1に記載の映像符号化方法。 Determining a corresponding region of the plurality of reference pictures,
Of the first reference picture corresponding regions divided along the motion block boundary of the first reference picture, when the size of the region included in the intra prediction block is greater than or equal to a predetermined threshold value, the first reference picture correspondence Determining only the region as the corresponding region of the reference picture used for prediction of the current block;
Generating a prediction block of the current block comprises:
The video encoding method according to claim 1, wherein a value obtained by multiplying a corresponding area of the first reference picture by a predetermined weight is determined as a prediction block of the current block.
現在ブロックが参照する参照ピクチャの対応領域の動きベクトル経路をトラッキングすることによって、前記現在ブロックの予測に利用する複数枚の参照ピクチャの対応領域を決定する参照ピクチャ決定部と、
前記複数枚の参照ピクチャの対応領域の加重和を求めることによって、前記現在ブロックの予測ブロックを生成する加重予測部と、
前記現在ブロックと予測ブロックとの差分を符号化する符号化部とを備える映像符号化装置。 In a video encoding device,
A reference picture determination unit for determining a corresponding region of a plurality of reference pictures used for prediction of the current block by tracking a motion vector path of a corresponding region of a reference picture to which a current block refers;
A weighted prediction unit that generates a predicted block of the current block by obtaining a weighted sum of corresponding regions of the plurality of reference pictures;
A video encoding apparatus comprising: an encoding unit that encodes a difference between the current block and a prediction block.
前記現在ブロックの動きベクトルが指し示す第1参照ピクチャの対応領域を、前記第1参照ピクチャの動きブロック境界に沿って分割し、前記分割された第1参照ピクチャの対応領域を具備する前記第1参照ピクチャの動きブロックの動きベクトルが指し示す第2参照ピクチャの対応領域を決定することを特徴とする請求項11に記載の映像符号化装置。 The reference picture determination unit
The first reference picture corresponding to the first reference picture indicated by the motion vector of the current block is divided along a motion block boundary of the first reference picture, and the first reference picture comprises the divided first reference picture corresponding area. 12. The video encoding apparatus according to claim 11, wherein a corresponding area of the second reference picture indicated by the motion vector of the motion block of the picture is determined.
前記第1参照ピクチャの動きブロック境界に沿って分割された第1参照ピクチャの対応領域のうち、イントラ予測ブロックに含まれる対応領域に対し、前記イントラ予測ブロックの周辺動きブロックの動きベクトルを利用して前記イントラ予測ブロックの仮想動きベクトルを決定し、前記決定された仮想動きベクトルが指し示す第2参照ピクチャの対応領域を決定することを特徴とする請求項12に記載の映像符号化装置。 The reference picture determination unit
Of the corresponding regions of the first reference picture divided along the motion block boundary of the first reference picture, the motion vector of the peripheral motion block of the intra prediction block is used for the corresponding region included in the intra prediction block. 13. The video encoding apparatus according to claim 12, wherein a virtual motion vector of the intra prediction block is determined, and a corresponding region of the second reference picture indicated by the determined virtual motion vector is determined.
前記周辺動きブロックの動きベクトルの平均値または中間値のうち、一つを利用することを特徴とする請求項13に記載の映像符号化装置。 The virtual motion vector of the intra prediction block is
The video encoding apparatus according to claim 13, wherein one of average values or intermediate values of motion vectors of the peripheral motion blocks is used.
前記現在ブロックの動きベクトルが指し示す第2参照ピクチャの対応領域を決定する段階を、(n−1)番目の参照ピクチャの動きベクトルが指し示すn番目の参照ピクチャの対応領域まで行い、ここで、nは3以上であり、前記n番目の参照ピクチャは、(n−1)番目の参照ピクチャの参照ピクチャであることを特徴とする請求項11に記載の映像符号化装置。 The reference picture determination unit
The step of determining the corresponding region of the second reference picture indicated by the motion vector of the current block is performed up to the corresponding region of the nth reference picture indicated by the motion vector of the (n−1) th reference picture, where n 12. The video encoding apparatus according to claim 11, wherein is 3 or more, and the n-th reference picture is a reference picture of an (n−1) -th reference picture.
前記n番目の参照ピクチャの対応領域のうち、イントラ予測されるブロックに含まれる対応領域の広さが所定臨界値以上である参照ピクチャまで、前記トラッキングを遂行することを特徴とする請求項15に記載の映像符号化装置。 The reference picture determination unit
16. The tracking according to claim 15, wherein the tracking is performed up to a reference picture in which the size of the corresponding area included in the intra-predicted block is equal to or greater than a predetermined critical value among the corresponding areas of the nth reference picture. The video encoding device described.
前記複数枚の参照ピクチャの対応領域の重み付けを決定する重み付け計算部と、
前記複数枚の参照ピクチャの対応領域それぞれに前記重み付けを乗じ、前記乗算の結果を加えることによって、前記現在ブロックに対する予測ブロックを生成する予測ブロック生成部とを備えることを特徴とする請求項11に記載の映像符号化装置。 The weighted prediction unit includes:
A weight calculation unit for determining weights of corresponding regions of the plurality of reference pictures;
The prediction block generation unit configured to generate a prediction block for the current block by multiplying each corresponding region of the plurality of reference pictures by the weight and adding the result of the multiplication. The video encoding device described.
以前に処理された前記現在ブロックの周辺ブロックの画素と、前記現在ブロックの周辺ブロックの画素に対応する前記参照ピクチャの対応領域の周辺画素とを利用し、前記参照ピクチャの対応領域の周辺画素の加重和を介して予測された前記現在ブロックの周辺画素の予測値と前記現在ブロックの周辺画素の画素値との差が最小になる値を前記重み付けに決定することを特徴とする請求項17に記載の映像符号化装置。 The weight calculation unit
The previously processed pixels of the peripheral block of the current block and the peripheral pixels of the corresponding area of the reference picture corresponding to the pixels of the peripheral block of the current block are used to determine the peripheral pixels of the corresponding area of the reference picture. The weighting is determined as a value that minimizes a difference between a predicted value of a neighboring pixel of the current block predicted through a weighted sum and a pixel value of a neighboring pixel of the current block. The video encoding device described.
前記符号化の結果として生成されたビットストリームの所定領域に、前記複数枚の参照ピクチャを利用して予測符号化されたブロックを示す所定のフラグを挿入することを特徴とする請求項11に記載の映像符号化装置。 The encoding unit includes:
The predetermined flag indicating a block that is predictively encoded using the plurality of reference pictures is inserted into a predetermined region of the bitstream generated as a result of the encoding. Video encoding device.
前記第1参照ピクチャの動きブロック境界に沿って分割された第1参照ピクチャ対応領域のうち、イントラ予測ブロックに含まれる領域の広さが所定臨界値以上である場合、前記第1参照ピクチャの対応領域だけを前記現在ブロックの予測に利用する参照ピクチャの対応領域として決定し、
前記加重予測部は、
前記第1参照ピクチャの対応領域に所定の重み付けを乗じた値を、前記現在ブロックの予測ブロックに決定することを特徴とする請求項11に記載の映像符号化装置。 The reference picture determination unit
Of the first reference picture corresponding regions divided along the motion block boundary of the first reference picture, when the size of the region included in the intra prediction block is greater than or equal to a predetermined threshold value, the first reference picture correspondence Determining only the region as the corresponding region of the reference picture used for prediction of the current block;
The weighted prediction unit includes:
The video encoding apparatus according to claim 11, wherein a value obtained by multiplying a corresponding area of the first reference picture by a predetermined weight is determined as a prediction block of the current block.
入力されたビットストリームに備わった予測モード情報を判読し、復号化される現在ブロックの予測モードを判別する段階と、
前記判別の結果、複数枚の参照ピクチャの対応領域を利用して予測された前記現在ブロックに対し、前記ビットストリームに備わった前記現在ブロックの動きベクトルが指し示す参照ピクチャの対応領域と、前記参照ピクチャの対応領域の動きベクトル経路とをトラッキングすることによって、前記現在ブロックの予測に利用する複数枚の参照ピクチャの対応領域を決定する段階と、
前記複数枚の参照ピクチャの対応領域の加重和を求めることによって、前記現在ブロックの予測ブロックを生成する段階と、
前記生成された予測ブロックと、前記ビットストリームに備わった前記現在ブロックと予測ブロックとの差分値とを加え、前記現在ブロックを復号化する段階とを含む映像復号化方法。 In the video decoding method,
Reading prediction mode information provided in the input bitstream and determining a prediction mode of a current block to be decoded;
As a result of the determination, for the current block predicted using the corresponding areas of a plurality of reference pictures, the corresponding area of the reference picture indicated by the motion vector of the current block included in the bitstream, and the reference picture Determining a corresponding region of a plurality of reference pictures used for prediction of the current block by tracking a motion vector path of the corresponding region of
Generating a predicted block of the current block by obtaining a weighted sum of corresponding regions of the plurality of reference pictures;
A video decoding method comprising: adding the generated prediction block and a difference value between the current block and the prediction block included in the bitstream and decoding the current block.
前記現在ブロックの動きベクトルが指し示す第1参照ピクチャの対応領域を、前記第1参照ピクチャの動きブロック境界に沿って分割する段階と、
前記分割された第1参照ピクチャの対応領域を具備する前記第1参照ピクチャの動きブロックの動きベクトルが指し示す第2参照ピクチャの対応領域を決定する段階とをさらに含むことを特徴とする請求項21に記載の映像復号化方法。 Determining a corresponding region of the plurality of reference pictures,
Dividing a corresponding region of a first reference picture indicated by a motion vector of the current block along a motion block boundary of the first reference picture;
The method further comprises: determining a corresponding area of a second reference picture indicated by a motion vector of a motion block of the first reference picture having the corresponding area of the divided first reference picture. The video decoding method according to claim 1.
前記現在ブロックの動きベクトルが指し示す第2参照ピクチャの対応領域を決定する段階を、(n−1)番目の参照ピクチャの動きベクトルが指し示すn番目の参照ピクチャの対応領域まで行い、ここで、nは3以上であり、前記n番目の参照ピクチャは、(n−1)番目の参照ピクチャの参照ピクチャであることを特徴とする請求項21に記載の映像復号化方法。 Tracking the motion vector path of the corresponding region of the reference picture is
The step of determining the corresponding region of the second reference picture indicated by the motion vector of the current block is performed up to the corresponding region of the nth reference picture indicated by the motion vector of the (n−1) th reference picture, where n The video decoding method according to claim 21, wherein is 3 or more, and the nth reference picture is a reference picture of an (n-1) th reference picture.
以前に処理された前記現在ブロックの周辺ブロックの画素と、前記現在ブロックの周辺ブロックの画素に対応する前記参照ピクチャの対応領域の周辺画素とを利用し、前記参照ピクチャの対応領域の周辺画素の加重和を介して予測された前記現在ブロックの周辺画素の予測値と前記現在ブロックの周辺画素の画素値との差が最小になる値を前記複数枚の参照ピクチャの対応領域の重み付けに決定する段階と、
前記複数枚の参照ピクチャの対応領域に前記重み付けを乗じた後で加えることによって、前記現在ブロックに対する予測ブロックを生成する段階とを含むことを特徴とする請求項21に記載の映像復号化方法。 Generating a prediction block for the current block;
The previously processed pixels of the peripheral block of the current block and the peripheral pixels of the corresponding area of the reference picture corresponding to the pixels of the peripheral block of the current block are used to determine the peripheral pixels of the corresponding area of the reference picture. A value that minimizes the difference between the predicted value of the neighboring pixels of the current block and the pixel value of the neighboring pixels of the current block predicted through the weighted sum is determined as the weight of the corresponding region of the plurality of reference pictures. Stages,
The video decoding method according to claim 21, further comprising: generating a prediction block for the current block by adding the weighted areas to corresponding areas of the plurality of reference pictures.
入力されたビットストリームに備わった予測モード情報を判読し、復号化される現在ブロックの予測モードを判別する予測モード判別部と、
前記判別の結果、複数枚の参照ピクチャの対応領域を利用して予測された前記現在ブロックに対し、前記ビットストリームに備わった前記現在ブロックの動きベクトルが指し示す参照ピクチャの対応領域と、前記参照ピクチャの対応領域の動きベクトル経路とをトラッキングすることによって、前記現在ブロックの予測に利用する複数枚の参照ピクチャの対応領域を決定する参照ピクチャ決定部と、
前記複数枚の参照ピクチャの対応領域の加重和を求めることによって、前記現在ブロックの予測ブロックを生成する加重予測部と、
前記生成された予測ブロックと、前記ビットストリームに備わった前記現在ブロックと予測ブロックとの差分値とを加え、前記現在ブロックを復号化する復号化部とを備える映像復号化装置。 In the video decoding device,
A prediction mode discriminator that interprets the prediction mode information provided in the input bitstream and discriminates the prediction mode of the current block to be decoded;
As a result of the determination, for the current block predicted using the corresponding areas of a plurality of reference pictures, the corresponding area of the reference picture indicated by the motion vector of the current block included in the bitstream, and the reference picture A reference picture determining unit that determines a corresponding area of a plurality of reference pictures used for prediction of the current block by tracking a motion vector path of the corresponding area of
A weighted prediction unit that generates a predicted block of the current block by obtaining a weighted sum of corresponding regions of the plurality of reference pictures;
A video decoding apparatus comprising: the generated prediction block; and a decoding unit that adds a difference value between the current block and the prediction block provided in the bitstream and decodes the current block.
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US85629006P | 2006-11-03 | 2006-11-03 | |
US60/856,290 | 2006-11-03 | ||
KR1020070000706A KR101356734B1 (en) | 2007-01-03 | 2007-01-03 | Method and apparatus for video encoding, and method and apparatus for video decoding using motion vector tracking |
KR10-2007-0000706 | 2007-01-03 | ||
PCT/KR2007/005531 WO2008054179A1 (en) | 2006-11-03 | 2007-11-02 | Method and apparatus for encoding/decoding image using motion vector tracking |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010509800A true JP2010509800A (en) | 2010-03-25 |
JP5271271B2 JP5271271B2 (en) | 2013-08-21 |
Family
ID=42193881
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009535217A Expired - Fee Related JP5271271B2 (en) | 2006-11-03 | 2007-11-02 | Video encoding / decoding method and apparatus using motion vector tracking |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP5271271B2 (en) |
CN (1) | CN101573982B (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011514773A (en) * | 2008-03-04 | 2011-05-06 | サムスン エレクトロニクス カンパニー リミテッド | Video coding and decoding method and apparatus using continuous motion estimation |
JP2011517227A (en) * | 2008-04-11 | 2011-05-26 | トムソン ライセンシング | Method and apparatus for template matching prediction (TMP) in video encoding and decoding |
CN110063056A (en) * | 2016-12-07 | 2019-07-26 | 株式会社Kt | Method and apparatus for handling vision signal |
CN113965747A (en) * | 2016-07-05 | 2022-01-21 | 株式会社Kt | Method and computer readable medium for decoding or encoding video |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101522850B1 (en) * | 2010-01-14 | 2015-05-26 | 삼성전자주식회사 | Method and apparatus for encoding/decoding motion vector |
JP5979405B2 (en) * | 2011-03-11 | 2016-08-24 | ソニー株式会社 | Image processing apparatus and method |
CN110830797B (en) * | 2012-01-18 | 2023-09-15 | 韩国电子通信研究院 | Video decoding device, video encoding device and method for transmitting bit stream |
CN109479142B (en) * | 2016-04-29 | 2023-10-13 | 世宗大学校产学协力团 | Method and apparatus for encoding/decoding image signal |
CN117082237A (en) | 2016-04-29 | 2023-11-17 | 世宗大学校产学协力团 | Method and apparatus for encoding/decoding image signal |
CN110169059B (en) * | 2017-01-13 | 2023-08-22 | 谷歌有限责任公司 | Composite Prediction for Video Coding |
CN111050177B (en) | 2018-10-15 | 2021-07-20 | 腾讯科技(深圳)有限公司 | Video encoding method, video decoding method, video encoding apparatus, video decoding apparatus, computer device, and storage medium |
BR112021011723A2 (en) * | 2018-12-21 | 2021-08-31 | Huawei Technologies Co., Ltd. | INTRA PREDICTION METHOD AND APPARATUS AND ENCODER, DECODER, COMPUTER PROGRAM, NON-TRANSITORY STORAGE MEDIA, AND BITS FLOW |
CN112632426B (en) * | 2020-12-22 | 2022-08-30 | 新华三大数据技术有限公司 | Webpage processing method and device |
CN117041597B (en) * | 2023-10-09 | 2024-01-19 | 中信建投证券股份有限公司 | Video encoding and decoding methods and devices, electronic equipment and storage medium |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07264596A (en) * | 1994-03-15 | 1995-10-13 | Daewoo Electron Co Ltd | Image encoding device |
JPH09161071A (en) * | 1995-12-12 | 1997-06-20 | Sony Corp | Device and method for making areas correspond to each other |
JPH09163376A (en) * | 1995-12-05 | 1997-06-20 | Nippon Telegr & Teleph Corp <Ntt> | Inter-frame coding, decoding method and device for moving image |
JP2002223440A (en) * | 2001-01-25 | 2002-08-09 | Nippon Hoso Kyokai <Nhk> | Shape coder |
JP2003284075A (en) * | 2002-01-18 | 2003-10-03 | Toshiba Corp | Method and apparatus for coding moving image, and method and apparatus for decoding |
JP2004072712A (en) * | 2002-04-23 | 2004-03-04 | Matsushita Electric Ind Co Ltd | Motion vector encoding method and motion vector decoding method |
JP2004227519A (en) * | 2003-01-27 | 2004-08-12 | Matsushita Electric Ind Co Ltd | Image processing method |
JP2004364265A (en) * | 2003-06-03 | 2004-12-24 | Lg Electronics Inc | Method for determining motion vector and macro-block type |
US20050152453A1 (en) * | 2003-12-18 | 2005-07-14 | Samsung Electronics Co., Ltd. | Motion vector estimation method and encoding mode determining method |
JP2006345445A (en) * | 2005-06-10 | 2006-12-21 | Sony Corp | Moving picture conversion apparatus and moving picture conversion method, and computer program |
JP2007043651A (en) * | 2005-07-05 | 2007-02-15 | Ntt Docomo Inc | Dynamic image encoding device, dynamic image encoding method, dynamic image encoding program, dynamic image decoding device, dynamic image decoding method, and dynamic image decoding program |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2853553B2 (en) * | 1994-02-22 | 1999-02-03 | 日本電気株式会社 | Video coding method |
US6711278B1 (en) * | 1998-09-10 | 2004-03-23 | Microsoft Corporation | Tracking semantic objects in vector image sequences |
US6314130B1 (en) * | 1999-04-28 | 2001-11-06 | Dspc Technologies, Ltd. | System and method for joint time tracking of multiple paths |
US6901110B1 (en) * | 2000-03-10 | 2005-05-31 | Obvious Technology | Systems and methods for tracking objects in video sequences |
-
2007
- 2007-11-02 JP JP2009535217A patent/JP5271271B2/en not_active Expired - Fee Related
- 2007-11-02 CN CN2007800491266A patent/CN101573982B/en not_active Expired - Fee Related
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07264596A (en) * | 1994-03-15 | 1995-10-13 | Daewoo Electron Co Ltd | Image encoding device |
JPH09163376A (en) * | 1995-12-05 | 1997-06-20 | Nippon Telegr & Teleph Corp <Ntt> | Inter-frame coding, decoding method and device for moving image |
JPH09161071A (en) * | 1995-12-12 | 1997-06-20 | Sony Corp | Device and method for making areas correspond to each other |
JP2002223440A (en) * | 2001-01-25 | 2002-08-09 | Nippon Hoso Kyokai <Nhk> | Shape coder |
JP2003284075A (en) * | 2002-01-18 | 2003-10-03 | Toshiba Corp | Method and apparatus for coding moving image, and method and apparatus for decoding |
JP2004072712A (en) * | 2002-04-23 | 2004-03-04 | Matsushita Electric Ind Co Ltd | Motion vector encoding method and motion vector decoding method |
JP2004227519A (en) * | 2003-01-27 | 2004-08-12 | Matsushita Electric Ind Co Ltd | Image processing method |
JP2004364265A (en) * | 2003-06-03 | 2004-12-24 | Lg Electronics Inc | Method for determining motion vector and macro-block type |
US20050152453A1 (en) * | 2003-12-18 | 2005-07-14 | Samsung Electronics Co., Ltd. | Motion vector estimation method and encoding mode determining method |
JP2006345445A (en) * | 2005-06-10 | 2006-12-21 | Sony Corp | Moving picture conversion apparatus and moving picture conversion method, and computer program |
JP2007043651A (en) * | 2005-07-05 | 2007-02-15 | Ntt Docomo Inc | Dynamic image encoding device, dynamic image encoding method, dynamic image encoding program, dynamic image decoding device, dynamic image decoding method, and dynamic image decoding program |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011514773A (en) * | 2008-03-04 | 2011-05-06 | サムスン エレクトロニクス カンパニー リミテッド | Video coding and decoding method and apparatus using continuous motion estimation |
JP2011517227A (en) * | 2008-04-11 | 2011-05-26 | トムソン ライセンシング | Method and apparatus for template matching prediction (TMP) in video encoding and decoding |
CN113965747A (en) * | 2016-07-05 | 2022-01-21 | 株式会社Kt | Method and computer readable medium for decoding or encoding video |
CN110063056A (en) * | 2016-12-07 | 2019-07-26 | 株式会社Kt | Method and apparatus for handling vision signal |
US11716467B2 (en) | 2016-12-07 | 2023-08-01 | Kt Corporation | Method and apparatus for processing video signal |
US11736686B2 (en) | 2016-12-07 | 2023-08-22 | Kt Corporation | Method and apparatus for processing video signal |
CN110063056B (en) * | 2016-12-07 | 2023-09-12 | 株式会社Kt | Method and apparatus for processing video signal |
Also Published As
Publication number | Publication date |
---|---|
CN101573982A (en) | 2009-11-04 |
CN101573982B (en) | 2011-08-03 |
JP5271271B2 (en) | 2013-08-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5271271B2 (en) | Video encoding / decoding method and apparatus using motion vector tracking | |
KR101356734B1 (en) | Method and apparatus for video encoding, and method and apparatus for video decoding using motion vector tracking | |
KR100750136B1 (en) | Method and apparatus for encoding and decoding of video | |
JP5506397B2 (en) | Video encoding method and apparatus, video decoding method and apparatus | |
KR101366093B1 (en) | Method and apparatus for video encoding and decoding | |
KR101590511B1 (en) | / / Motion Vector Coding Method and Apparatus | |
KR101279573B1 (en) | Motion Vector Encoding/Decoding Method and Apparatus and Video Encoding/Decoding Method and Apparatus | |
US8165195B2 (en) | Method of and apparatus for video intraprediction encoding/decoding | |
JP5620109B2 (en) | Motion vector estimation method, motion vector estimation device, video encoder, video decoder, and decoding method | |
JP5524625B2 (en) | Inter prediction encoding / decoding method and apparatus | |
JP5401009B2 (en) | Video intra prediction encoding and decoding method and apparatus | |
JP5406222B2 (en) | Video coding and decoding method and apparatus using continuous motion estimation | |
KR100694137B1 (en) | Apparatus for encoding or decoding motion image, method therefor, and recording medium storing a program to implement thereof | |
KR101356207B1 (en) | / Method and apparatus for encoding /decoding data | |
EP2555523A1 (en) | Image encoding device, image decoding device, image encoding method, and image decoding method | |
KR20090012926A (en) | Method and apparatus for encoding/decoding image using weighted prediction | |
JP2010509799A (en) | Video predictive encoding method and apparatus, and decoding method and apparatus thereof | |
US8699576B2 (en) | Method of and apparatus for estimating motion vector based on sizes of neighboring partitions, encoder, decoding, and decoding method | |
KR100809603B1 (en) | Method and Apparatus for video coding on pixel-wise prediction | |
KR101582495B1 (en) | Motion Vector Coding Method and Apparatus | |
KR101582493B1 (en) | Motion Vector Coding Method and Apparatus | |
KR102479714B1 (en) | Apparatus for encoding and decoding image using search range decision for motion estimation, and operating method thereof | |
KR101316710B1 (en) | Motion Vector Encoding/Decoding Method and Apparatus and Video Encoding/Decoding Method and Apparatus | |
KR101314632B1 (en) | Motion Vector Encoding/Decoding Method and Apparatus and Video Encoding/Decoding Method and Apparatus | |
KR20130098252A (en) | Motion vector encoding/decoding method and apparatus and video encoding/decoding method and apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20101102 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120712 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120904 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20121204 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130416 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130510 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |