JP2008539646A - Video coding method and apparatus for providing high-speed FGS - Google Patents

Video coding method and apparatus for providing high-speed FGS Download PDF

Info

Publication number
JP2008539646A
JP2008539646A JP2008508745A JP2008508745A JP2008539646A JP 2008539646 A JP2008539646 A JP 2008539646A JP 2008508745 A JP2008508745 A JP 2008508745A JP 2008508745 A JP2008508745 A JP 2008508745A JP 2008539646 A JP2008539646 A JP 2008539646A
Authority
JP
Japan
Prior art keywords
fgs
frame
base layer
layer
motion vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008508745A
Other languages
Japanese (ja)
Inventor
ウ−ジン・ハン
キョ−ヒュク・イ
サン−チャン・チャ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020050052428A external-priority patent/KR100703778B1/en
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2008539646A publication Critical patent/JP2008539646A/en
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/34Scalability techniques involving progressive bit-plane based encoding of the enhancement layer, e.g. fine granular scalability [FGS]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/523Motion estimation or motion compensation with sub-pixel accuracy
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding

Abstract

本発明は、多階層基盤のPFGSアルゴリズムの演算量を減少させる方法、その方法を用いたビデオコーディング方法及び装置に関する。
ビデオエンコーディング方法は、所定の精度で推定された動きベクトルを用いて現在フレームに対する予測イメージを求めるステップと、現在フレームと予測イメージ間の残差を量子化した後、逆量子化することによって現在フレームの復元イメージを生成するステップと、推定された動きベクトルを用いてFGS階層の参照フレームと基礎階層の参照フレームを動き補償するステップと、動き補償されたFGS階層の参照フレームと動き補償された基礎階層の参照フレームとの差分を求めるステップと、現在フレームから復元イメージ及び差分を差し引くステップと、差し引き結果を符号化するステップとからなる。
The present invention relates to a method for reducing the amount of computation of a multi-layer based PFGS algorithm, and a video coding method and apparatus using the method.
The video encoding method includes a step of obtaining a predicted image for a current frame using a motion vector estimated with a predetermined accuracy, and quantizing a residual between the current frame and the predicted image, and then inversely quantizing the current frame. Generating a reconstructed image of the FGS layer, using the estimated motion vector to motion compensate the reference frame of the FGS layer and the reference frame of the base layer, and the motion compensated reference frame of the FGS layer and the motion compensated base The step includes a step of obtaining a difference from the reference frame of the hierarchy, a step of subtracting the restored image and the difference from the current frame, and a step of encoding the subtraction result.

Description

本発明は、ビデオコーディング技術に関し、より詳しくは、多階層基盤のPFGSアルゴリズムの演算量を減少させる方法、その方法を用いたビデオコーディング方法及び装置に関する。   The present invention relates to a video coding technique, and more particularly to a method for reducing the amount of computation of a multi-layer based PFGS algorithm, and a video coding method and apparatus using the method.

インターネットを含め情報通信技術の発達により、文字、音声だけでなく、画像通信も増加しつつある。既存の文字中心の通信方式は消費者の多様な欲求を充足させられず、文字、映像、音楽など多様な形態の情報を受け入れることができるマルチメディアサービスが増加している。マルチメディアデータは、その量が膨大で大容量の格納媒体を必要とし、伝送時に広い帯域幅を必要とする。したがって、文字、映像、オーディオを含むマルチメディアデータを伝送するためには、圧縮コーディング技法の使用が必須である。   With the development of information communication technology including the Internet, not only text and voice but also image communication is increasing. Existing character-centric communication methods cannot satisfy the diverse needs of consumers, and multimedia services that can accept various forms of information such as characters, video, and music are increasing. Multimedia data requires an enormous amount and a large capacity storage medium, and requires a wide bandwidth during transmission. Therefore, in order to transmit multimedia data including characters, video, and audio, it is essential to use a compression coding technique.

データを圧縮する基本的な原理は、データの重複要素を除去する過程である。イメージで同じ色やオブジェクトが繰り返されるような空間的重複、動画フレームで隣接フレームがほとんど変化しない場合やオーディオで同じ音が繰り返されるような時間的重複、人間の視覚及び知覚能力が高い周波数に鈍感なことを考慮して知覚的重複を除去することによって、データを圧縮することができる。一般的なビデオコーディング方法において、時間的重複は動き補償に基づく時間的フィルタリングで除去し、空間的重複は空間的変換で除去する。   The basic principle of compressing data is a process of removing duplicate elements of data. Spatial overlap in which the same color and object are repeated in the image, temporal overlap in which the adjacent frame is hardly changed in the video frame and the same sound is repeated in the audio, insensitive to frequencies with high human visual and perceptual ability The data can be compressed by removing perceptual duplication taking account of this. In a general video coding method, temporal overlap is removed by temporal filtering based on motion compensation, and spatial overlap is removed by spatial transformation.

データの重複を除去した後、生成されるマルチメディアを伝送するためには伝送媒体が必要となるが、その性能は伝送媒体別に差がある。現在使われている伝送媒体は、1秒当たり数十メガビットのデータを伝送し得る超高速通信網及び1秒当たり384kbitの伝送速度を有する移動通信網など多様な伝送速度を有する。多様な速度の伝送媒体を提供したり、または伝送環境に応じて適する伝送率でマルチメディアを伝送したりすることが可能な、拡張性を持ったデータコーディング方法がマルチメディア環境にふさわしいのかもしれない。   After removing data duplication, a transmission medium is required to transmit the generated multimedia, but the performance varies depending on the transmission medium. Currently used transmission media have various transmission speeds such as an ultrahigh-speed communication network capable of transmitting data of several tens of megabits per second and a mobile communication network having a transmission speed of 384 kbits per second. A scalable data coding method that can provide transmission media of various speeds or transmit multimedia at a transmission rate suitable for the transmission environment may be suitable for the multimedia environment. Absent.

拡張性とは、ビットストリームの復号を完全には行えない可能性も意味する。また、ビデオの解像度を意味する空間的拡張や、ビデオの質のレベルに対するSNR拡張性、フレーム率に対する時間的拡張性などを含む。   Extensibility also means that the bitstream cannot be completely decoded. It also includes spatial expansion, meaning video resolution, SNR scalability for video quality level, temporal scalability for frame rate, and the like.

現在、MPEGとITUの共同作業グループであるJVTでは、H.264を基本に多階層状に拡張性を実現するための標準化作業を進行している。JVTでは、SNR拡張性を提供するために既存のFGS技術を採択している。   Currently, JVT, a joint working group of MPEG and ITU, Standardization work for realizing expandability in multiple layers based on H.264 is in progress. JVT has adopted existing FGS technology to provide SNR extensibility.

図1は、従来のFGS技術を説明する図面である。FGS基盤のコーデックは、基礎階層とFGS階層とに分けてコーディングを行う。本明細書においてプライム(’)符号は、元イメージでなく、量子化/逆量子化を経て生成された、すなわち復元されたイメージを示す。具体的に、現在オリジナルフレーム12で、あるブロックOは、動きベクトルによって左側の復元された基礎階層フレーム11の対応するブロックM’、及び右側の復元された基礎階層フレーム12の対応するブロックN’から予測されたブロックPと差し引かれて差分ブロックRになる。したがって、Rは下記数式(1)で表される。 FIG. 1 is a diagram for explaining a conventional FGS technique. The FGS-based codec performs coding in a base layer and an FGS layer. In this specification, a prime (') code indicates an image generated through quantization / inverse quantization, that is, a restored image, not an original image. Specifically, in the current original frame 12, a certain block O includes a corresponding block M B ′ of the restored base layer frame 11 on the left side by a motion vector and a corresponding block N of the restored base layer frame 12 on the right side. It becomes difference block R B is subtracted the predicted block P B from B '. Thus, R B is represented by the following equation (1).

=O−P=O−(M’+N’)/2 ・・・(1) R B = O-P B = O- (M B '+ N B') / 2 ··· (1)

差分ブロックRは、基礎階層の量子化ステップQPによって量子化された後R 、また逆量子化過程を経て復元された差分ブロックR’になる。この後、FGS階層では前記量子化されない差分ブロックRと前記復元された差分ブロックR’とを差し引き、差し引き結果のブロック△を基礎階層の量子化ステップよりも小さい量子化ステップQPによって量子化する(量子化ステップが小さいほど圧縮率が低い)。量子化された△は△で表される。結局、デコーダ段に伝送されるデータは基礎階層のR とFGS階層の△である。 Difference block R B is, R B Q, also becomes difference block R B 'restored through the inverse quantization process after being quantized by the quantization step QP B base layer. Thereafter, in the FGS layer, the difference block R B that is not quantized and the restored difference block R B ′ are subtracted, and the resulting block Δ is quantized by a quantization step QP F that is smaller than the quantization step of the base layer. (The smaller the quantization step, the lower the compression ratio). The quantized △ is represented by △ Q. After all, data to be transmitted to the decoder stage is △ Q of the base layer R B Q and FGS layers.

図2は、従来のPFGS技術を説明する図面である。既存のFGS技術が復元された基礎階層の量子化された差分R’を用いてFGS階層のデータの量を減らすのに比べ、PFGS技術はFGS階層で、左右参照フレームもFGS技術によってその品質が向上していることを用いて、新しく更新された左右参照フレームを用いて新しい差分ブロックRを計算し、これと基礎階層の量子化されたブロックR’との差分を量子化することによって性能を高める。前記Rは下記数式(2)で表される。 FIG. 2 is a diagram for explaining a conventional PFGS technique. Compared to reducing the amount of data in the FGS layer using the quantized difference R B ′ of the base layer where the existing FGS technology is restored, the PFGS technology is the FGS layer, and the right and left reference frames are also improved by the FGS technology. There using that improved, the newly updated using the left and right reference frames to calculate a new difference block R F, quantizes the difference between the block R B 'which has been quantized in this and the base layer that To increase performance. The RF is represented by the following formula (2).

=O−P=O−(M’+N’)/2 ・・・(2) R F = O-P F = O- (M F '+ N F ') / 2 (2)

ここで、M’はFGS階層の復元された左側参照フレーム21のうち、動きベクトルによって対応する領域であり、N’はFGS階層の復元された右側参照フレーム23のうち、動きベクトルによって対応する領域である。 Here, M F ′ is a region corresponding to the motion vector in the restored left reference frame 21 of the FGS layer, and N F ′ corresponds to the motion vector of the restored right reference frame 23 in the FGS layer. It is an area to do.

FGS技術に比べてPFGS技術が有する長所は、左右参照フレームの品質が高まることによって、FGS階層のデータ量が小さくなり得るという点である。ただし、FGS階層でも動き補償が別途に必要であるため、演算量が増加する短所もある。このように、PFGSは既存FGSに比べて性能が向上する長所があるが、FGS階層ごとに動き補償によって予測信号を生成し、これに対する残差信号を生成しなければならないため演算量が増加する。最近のビデオコーデックは、1/2ピクセルあるいは1/4ピクセル単位まで補間をして動き補償を行う。もし1/4ピクセル単位に動き補償行う場合、該当解像度の4倍の大きさのイメージを生成しなければならない。   The advantage of the PFGS technology compared to the FGS technology is that the amount of data in the FGS layer can be reduced by increasing the quality of the left and right reference frames. However, since motion compensation is separately required even in the FGS layer, there is a disadvantage that the amount of calculation increases. As described above, the PFGS has an advantage that the performance is improved as compared with the existing FGS. However, the prediction signal must be generated by motion compensation for each FGS layer, and a residual signal corresponding to this must be generated. . Recent video codecs perform motion compensation by interpolating to 1/2 pixel or 1/4 pixel unit. If motion compensation is performed in units of 1/4 pixel, an image having a size four times the corresponding resolution must be generated.

さらに、H.264に基づくH.264SEの場合、1/2ピクセル補間フィルタは6タップフィルタで、その計算が非常に複雑で動き補償の大部分演算量を占める。したがって、エンコーディングプロセス及びデコーディングプロセスが複雑になるため、より高いシステム資源を必要とし、リアルタイム放送、画像会議などのようにリアルタイムエンコーディング及びデコーディングが要求される分野では特に問題になる。   Further, H.C. H.264 based on H.264. In the case of H.264SE, the ½ pixel interpolation filter is a 6-tap filter, and its calculation is very complicated and occupies most of the amount of motion compensation. Therefore, the encoding process and the decoding process become complicated, which requires higher system resources, and is particularly problematic in fields where real-time encoding and decoding are required, such as real-time broadcasting and image conferencing.

本発明の目的は、PFGSアルゴリズムの性能を維持しつつ、動き補償時に要求される演算量を減少し得る方法及びその方法を用いた装置を提供することにある。   An object of the present invention is to provide a method capable of reducing the amount of calculation required at the time of motion compensation while maintaining the performance of the PFGS algorithm, and an apparatus using the method.

また、本発明は前記目的に制限されず、言及していないさらなる目的は下記によって当業者に明確に理解できる。   Further, the present invention is not limited to the above objects, and further objects not mentioned can be clearly understood by those skilled in the art by the following.

上記目的を達成するためのFGS基盤のビデオエンコーディング方法は、所定の精度で推定された動きベクトルを用いて現在フレームに対する予測イメージを求めるステップと、前記現在フレームと前記予測イメージ間の残差を量子化した後、逆量子化することによって現在フレームの復元イメージを生成するステップと、前記推定された動きベクトルを用いてFGS階層の参照フレームと基礎階層の参照フレームを動き補償するステップと、前記動き補償されたFGS階層の参照フレームと前記動き補償された基礎階層の参照フレームとの差分を求めるステップと、前記現在フレームから前記復元イメージ及び前記差分を差し引くステップと、前記差し引き結果を符号化するステップとを含む。   An FGS-based video encoding method for achieving the above object includes a step of obtaining a prediction image for a current frame using a motion vector estimated with a predetermined accuracy, and a residual between the current frame and the prediction image is quantized. And generating a restored image of the current frame by inverse quantization, motion-compensating the reference frame of the FGS layer and the reference frame of the base layer using the estimated motion vector, and the motion Determining a difference between a compensated FGS layer reference frame and the motion compensated base layer reference frame, subtracting the restored image and the difference from the current frame, and encoding the subtraction result Including.

上記目的を達成するためのFGS基盤のビデオエンコーディング方法は、所定の精度で推定された動きベクトルを用いて現在フレームに対する予測イメージを求めるステップと、前記現在フレームと前記予測イメージ間の残差を量子化した後、逆量子化することによって現在フレームの復元イメージを生成するステップと、前記推定された動きベクトルを用いてFGS階層の参照フレーム及び基礎階層の参照フレームを動き補償することによって、FGS階層の予測フレーム及び基礎階層の予測フレームを生成するステップと、前記FGS階層の予測フレームと前記基礎階層の予測フレームとの差分を求めるステップと、前記現在フレームから前記復元イメージ及び前記差分を差し引くステップと、前記差し引き結果を符号化するステップとを含む。   An FGS-based video encoding method for achieving the above object includes a step of obtaining a prediction image for a current frame using a motion vector estimated with a predetermined accuracy, and a residual between the current frame and the prediction image is quantized. And generating a restored image of the current frame by inverse quantization, and performing motion compensation on the reference frame of the FGS layer and the reference frame of the base layer using the estimated motion vector, Generating a prediction frame and a base layer prediction frame, obtaining a difference between the FGS layer prediction frame and the base layer prediction frame, and subtracting the restored image and the difference from the current frame. Encoding the subtraction result; Including.

上記目的を達成するためのFGS基盤のビデオエンコーディング方法は、所定の精度で推定された動きベクトルを用いて現在フレームに対する予測イメージを求めるステップと、前記現在フレームと前記予測イメージ間の残差を量子化した後、逆量子化することによって現在フレームの復元イメージを生成するステップと、FGS階層の参照フレームと基礎階層の参照フレームとの差分を求めるステップと、前記推定された動きベクトルを用いて前記差分を動き補償するステップと、前記現在フレームから前記復元イメージ及び前記動き補償された結果を差し引くステップと、前記差し引き結果を符号化するステップとを含む。   An FGS-based video encoding method for achieving the above object includes a step of obtaining a prediction image for a current frame using a motion vector estimated with a predetermined accuracy, and a residual between the current frame and the prediction image is quantized. And generating a restored image of the current frame by inverse quantization, determining a difference between a reference frame of the FGS layer and a reference frame of the base layer, and using the estimated motion vector Subtracting the difference from motion, subtracting the restored image and the motion compensated result from the current frame, and encoding the subtraction result.

上記目的を達成するためのFGS基盤のビデオデコーディング方法は、入力されたビットストリームから基礎階層のテクスチャデータと、FGS階層のテクスチャデータと、動きベクトルとを抽出するステップと、前記基礎階層のテクスチャデータから基礎階層フレームを復元するステップと、前記動きベクトルを用いてFGS階層の参照フレームと基礎階層の参照フレームを動き補償するステップと、前記動き補償されたFGS階層の参照フレームと前記動き補償された基礎階層の参照フレームとの差分を求めるステップと、前記基礎階層フレーム、前記FGS階層のテクスチャデータ、前記差分を加算するステップと、を含む。   In order to achieve the above object, an FGS-based video decoding method includes a step of extracting base layer texture data, FGS layer texture data, and a motion vector from an input bitstream, and the base layer texture. Reconstructing a base layer frame from data, using the motion vector to perform motion compensation of a reference frame of an FGS layer and a reference frame of the base layer, and the motion compensated reference frame of the FGS layer and the motion compensated. A step of obtaining a difference from the reference frame of the base layer, and a step of adding the base layer frame, the texture data of the FGS layer, and the difference.

上記目的を達成するためのFGS基盤のビデオデコーディング方法は、入力されたビットストリームから基礎階層のテクスチャデータと、FGS階層のテクスチャデータと、動きベクトルとを抽出するステップと、前記基礎階層のテクスチャデータから基礎階層フレームを復元するステップと、前記動きベクトルを用いてFGS階層の参照フレーム及び基礎階層の参照フレームを動き補償することによって、FGS階層の予測フレーム及び基礎階層の予測フレームを生成するステップと、前記FGS階層の予測フレームと前記基礎階層の予測フレームとの差分を求めるステップと、前記テクスチャデータと、前記復元された基礎階層フレーム及び前記差分を加算するステップとを含む。   In order to achieve the above object, an FGS-based video decoding method comprises: extracting base layer texture data, FGS layer texture data, and motion vectors from an input bitstream; and A step of restoring a base layer frame from the data, and a step of generating a prediction frame of the FGS layer and a base layer prediction frame by performing motion compensation on the reference frame of the FGS layer and the reference frame of the base layer using the motion vector And calculating the difference between the predicted frame of the FGS layer and the predicted frame of the base layer, and adding the texture data, the restored base layer frame and the difference.

上記目的を達成するためのFGS基盤のビデオデコーディング方法は、入力されたビットストリームから基礎階層のテクスチャデータと、FGS階層のテクスチャデータと、動きベクトルとを抽出するステップと、前記基礎階層のテクスチャデータから基礎階層フレームを復元するステップと、FGS階層の参照フレームと基礎階層の参照フレームとの差分を求めるステップと、前記動きベクトルを用いて前記差分を動き補償するステップと、前記FGS階層のテクスチャデータ、前記復元された基礎階層フレーム及び前記動き補償された結果を加算するステップと、を含む。   In order to achieve the above object, an FGS-based video decoding method comprises: extracting base layer texture data, FGS layer texture data, and motion vectors from an input bitstream; and Restoring a base layer frame from data; obtaining a difference between a reference frame of the FGS layer and a reference frame of the base layer; motion compensating the difference using the motion vector; and texture of the FGS layer Adding data, the restored base layer frame and the motion compensated result.

その他、実施形態の具体的な事項は詳細な説明及び図面に含まれている。   In addition, the specific matter of embodiment is contained in detailed description and drawing.

本発明によれば、PFGSの実現において演算量を大幅に減少し得、これによってデコーディング過程も変更されるのでH.264 SE標準化文書にも適用し得る。   According to the present invention, the amount of computation can be greatly reduced in the implementation of PFGS, and the decoding process is changed accordingly. It can also be applied to H.264 SE standardized documents.

本発明の利点及び特徴、そしてそれらを達成する方法は、添付する図面とともに詳述する実施形態を参照すれば明確になる。しかし、本発明は以下に開示する実施形態に限定されず、相異なる多様な形態で実現できる。本実施形態は、本発明の開示を完全なものにし、本発明の属する技術分野における通常の知識を有する者に発明の範疇を知らせるために提供するものであって、本発明は請求項の範疇によってのみ定義される。また、明細書全体において同じ参照符号は同じ構成要素を示す。   Advantages and features of the present invention and methods for achieving them will be apparent with reference to the embodiments described in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, and can be realized in various different forms. This embodiment is provided to complete the disclosure of the present invention and to inform those having ordinary knowledge in the technical field to which the present invention pertains the scope of the invention. Defined only by. The same reference numerals denote the same components throughout the specification.

[第1実施形態]
図3は、本発明の第1実施形態による高速PFGS方法を説明する図面である。
[First Embodiment]
FIG. 3 illustrates a high-speed PFGS method according to the first embodiment of the present invention.

図2と同様に、PFGS方法よるFGS階層で量子化される値は△であり、これは下記数式(3)で表される。   As in FIG. 2, the value quantized in the FGS hierarchy by the PFGS method is Δ, which is expressed by the following mathematical formula (3).

△=R−R’ ・・・(3) Δ = R F −R B ′ (3)

ここで、Rは上記数式(2)であり、R’は下記数式(4)で表される。 Here, R F is the above equation (2), and R B ′ is represented by the following equation (4).

’=O’−P=O’−(M’+N’)/2 ・・・(4) R B '= O'-P B = O' - (M B '+ N B') / 2 ··· (4)

ここで、O’はオリジナルイメージOを基礎階層の量子化ステップQPによって量子化した後、逆量子化して復元されたイメージを意味する。 Here, O ′ means an image restored by performing inverse quantization after quantizing the original image O by the quantization step QP B of the base layer.

上記数式(2)で表されるRと上記数式(4)で表されるR’を用いて上記数式(3)を整理すれば、△は下記数式(5)で表される。 If the above formula (3) is arranged using R F represented by the above formula (2) and R B ′ represented by the above formula (4), Δ is represented by the following formula (5).

△=O−(M’+N’)/2−[O’−(M’+N’)/2] ・・・(5) △ = O- (M F '+ N F') / 2- [O '- (M B' + N B ') / 2] ··· (5)

一方、図3を参照すれば、階層間参照フレームの差分である△及び△は下記数式(6)で表される。 On the other hand, referring to FIG. 3, is the difference in the hierarchy between the reference frames △ M and △ N is represented by the following equation (6).

=M’−M
=N’−N’ ・・・(6)
△ M = M F '-M B '
△ N = N F '-N B ' ··· (6)

数式(6)を用いて上記数式(5)を整理すれば、△は下記数式(7)で表される。   If the above formula (5) is arranged using the formula (6), Δ is expressed by the following formula (7).

△=O−O’−(△+△)/2 ・・・(7) △ = O-O '- ( △ M + △ N) / 2 ··· (7)

数式(7)によれば、エンコーダ段ではオリジナルイメージOから、QPで量子化された後、逆量子化された基礎階層イメージ、すなわち基礎階層の復元されたイメージO’と、階層間参照フレームの差分の平均((△+△)/2)とを差し引くことによって、△を求め得ることが分かる。同様に、デコーダ段ではイメージOは、基礎階層の復元されたイメージO’、△及び階層間参照フレームの差分の平均を加算することによって復元できる。 According to Equation (7), the encoder stage is quantized with QP B from the original image O, and then the inversely quantized base layer image, that is, the restored base layer image O ′ and the inter-layer reference frame. It can be seen that Δ can be obtained by subtracting the average of the differences ((Δ M + Δ N ) / 2). Similarly, in the decoder stage, the image O can be restored by adding the restored images O ′ and Δ of the base layer and the average of the differences of the inter-layer reference frames.

既存のPFGSは、動きベクトル探索によって生成されたピクセルまたはサブピクセル(1/2ピクセル、1/4ピクセルなど)精度を有する動きベクトルによって動き補償を行う。最近では圧縮効率を高めるために、1/2ピクセルまたは1/4ピクセルなどの高い精度によって動きベクトル探索及び動き補償を行うのが一般的である。既存のPFGSは、例えば1/4ピクセル精度で動き補償して生成した予測イメージを整数ピクセル単位でパッキングした後、オリジナルイメージと予測イメージを差し引き、これを量子化するものである。ここでパッキングとは、1/4ピクセル単位に動きベクトル探索をするとき、4倍に補間された参照イメージを元の大きさに戻す過程で、例えば4つのピクセルごとに1つのピクセルを選択する方式で行われる。   In the existing PFGS, motion compensation is performed using a motion vector having a pixel or sub-pixel accuracy (1/2 pixel, 1/4 pixel, etc.) generated by motion vector search. Recently, in order to increase the compression efficiency, it is common to perform motion vector search and motion compensation with high accuracy such as 1/2 pixel or 1/4 pixel. In the existing PFGS, for example, after a predicted image generated by motion compensation with 1/4 pixel accuracy is packed in units of integer pixels, the original image and the predicted image are subtracted and quantized. Packing is a method of selecting one pixel for every four pixels, for example, in the process of returning the reference image interpolated four times to the original size when performing a motion vector search in units of 1/4 pixel. Done in

ところが、本発明による高速PFGSで量子化するFGS階層のデータ△は、上記数式(7)のように表されるため、高い精度で動きベクトル探索を行わなくても圧縮性能にそれほど影響を与えない。上記数式(7)の右辺の1番目項Oと2番目項O’は、動きベクトル探索及び動き補償が適用されない部分であるので問題ない。ただし、3番目項((△+△)/2)にだけ動きベクトル探索及び動き補償が適用されるが、この項は階層間の差分で表されているため、高い精度で動きベクトル探索及び動き補償を行うことはそれほど効果はない。それは、基礎階層にて所定ピクセル精度で動き補償したイメージと向上階層にて前記ピクセル精度で動き補償したイメージとを差し引くため、前記差し引き結果、イメージは相対的にピクセル精度に鈍感になるからである。したがって、既存のPFGSに比べて低いピクセル精度で動きベクトル探索及び動き補償を行うことができる。 However, since the data Δ in the FGS layer quantized by the high-speed PFGS according to the present invention is expressed as the above equation (7), the compression performance is not greatly affected even if the motion vector search is not performed with high accuracy. . The first term O and the second term O ′ on the right side of the equation (7) are portions to which motion vector search and motion compensation are not applied, so that there is no problem. However, although motion vector search and motion compensation are applied only to the third term ((Δ M + Δ M ) / 2), since this term is represented by a difference between layers, motion vector search is performed with high accuracy. And motion compensation is not very effective. This is because the image is relatively insensitive to pixel accuracy because the image compensated for motion with a predetermined pixel accuracy in the basic layer is subtracted from the image compensated for motion with the pixel accuracy in the enhancement layer. . Therefore, motion vector search and motion compensation can be performed with lower pixel accuracy than existing PFGS.

[第2実施形態]
第1実施形態での上記数式(5)は下記数式(8)のように、予測信号間の差分で説明することもできる。ここで、Pは(M’+N’)/2であり、Pは(M’+N’)/2である。
[Second Embodiment]
The above formula (5) in the first embodiment can also be described by the difference between the prediction signals as in the following formula (8). Here, P F is the (M F '+ N F' ) / 2, P B is the (M B '+ N B' ) / 2.

△=O−O’−(P−P) ・・・(8) Δ = O−O ′ − (P F −P B ) (8)

第1実施形態と第2実施形態には、以下のような違いがある。第1実施形態では参照イメージの階層間の差分△,△を先に計算した後、これを2で割る。第2実施形態では各階層での予測イメージP−Pを先に計算した後、予測イメージ間の差分を求める。ただし、これはアルゴリズム実現上の差であり、両者の計算結果△は同一である。 There are the following differences between the first embodiment and the second embodiment. After calculating the difference △ M between layers of the reference image, the △ N previously in the first embodiment, dividing it in two. After calculating the predicted image P F -P B in each layer above the second embodiment obtains a difference between the prediction image. However, this is a difference in the realization of the algorithm, and the calculation results Δ are the same.

[第3実施形態]
前記第1実施形態と第2実施形態では動き補償を先に行った後、イメージ間の差分を求めた。しかし、この順序を変えて参照イメージの階層間の差分を先に計算した後、動き補償を行うことも可能である。このように第3実施形態によれば、差分信号に対する動き補償を行うため、境界パディングの影響が微小である。したがって、境界パディング過程を省略することができる。境界パディングとは、動きベクトル探索時にフレームの境界部分でブロックマッチングが制限されるのを考慮して、境界部分のピクセルを境界周辺にコピーすることを意味する。
[Third Embodiment]
In the first embodiment and the second embodiment, after performing motion compensation first, a difference between images is obtained. However, it is also possible to perform motion compensation after changing the order and calculating the difference between the layers of the reference image first. Thus, according to the third embodiment, since motion compensation is performed on the differential signal, the influence of boundary padding is very small. Therefore, the boundary padding process can be omitted. Boundary padding means that pixels in the boundary portion are copied around the boundary in consideration of block matching being limited at the boundary portion of the frame during motion vector search.

第3実施形態による差分△は下記数式(9)で表される。ここで、mc(.)は動き補償を行う関数である。   The difference Δ according to the third embodiment is expressed by the following mathematical formula (9). Here, mc (.) Is a function for performing motion compensation.

△=O−O’−[(mc(M’−M’)+mc(N’−N’)]/2
・・・(9)
△ = O-O '- [ (mc (M F' -M B ') + mc (N F' -N B ')] / 2
... (9)

既存のPFGSでは上記数式(3)のRまたはRを求めるとき、直接予測(動きベクトル探索及び動き補償)を行うのに比べ、上記3つの実施形態では予測結果を差し引いたり、差し引き結果を予測したりするため、動きベクトルの精度を高めるための補間によってもその性能がそれほど大きく変わらない、すなわち補間に鈍感な特徴を有する。 In the existing PFGS, when obtaining R F or R B in the above formula (3), the prediction results are subtracted or subtracted in the above three embodiments compared to direct prediction (motion vector search and motion compensation). In order to predict, the performance does not change so much even by the interpolation for improving the accuracy of the motion vector, that is, it has a feature insensitive to the interpolation.

したがって、1/4ピクセル補間あるいは1/2ピクセル補間を省略することもできる。また、高い演算量を要求するH.264の1/2ピクセル補間フィルタの代わりに、相対的に演算量が少ないバイリニアフィルタを使用することもできる。例えば、上記数式(7)、(8)、及び(9)の3番目項にバイリニアフィルタを適用する。その結果、既存のPFGSのようにR及びRを求めるための予測信号に直接バイリニアフィルタを適用する場合に比べて性能低下が減少する。 Therefore, 1/4 pixel interpolation or 1/2 pixel interpolation can be omitted. In addition, H.M. In place of the H.264 1/2 pixel interpolation filter, a bilinear filter having a relatively small amount of calculation can be used. For example, a bilinear filter is applied to the third term of the mathematical formulas (7), (8), and (9). As a result, the performance degradation is reduced as compared with the case where the bilinear filter is directly applied to the prediction signal for obtaining R F and R B as in the existing PFGS.

[第4実施形態]
前記第1実施形態ないし第3実施形態は上記数式(3)に基づいている。言い換えれば、コーディングされるべき値がFGS階層から得た差分Rと基礎階層から得た差分Rとをさらに差し引いた値であることを基本仮定にしている。しかし、FGS階層から得た差分が非常に少ない場合、すなわち時間的連関性が非常に大きい場合は、このような接近方法が却ってコーディング性能を低下する場合がある。この場合には、却ってFGS階層から得た差分だけをコーディングするのがより良いコーディング性能を示す。すなわち、上記数式(3)でRだけをコーディングするのである。
[Fourth Embodiment]
The first to third embodiments are based on the mathematical formula (3). In other words, is the basic assumption that the values to be coded is further subtracted value and the difference R B obtained from the difference R F and base layer obtained from FGS layer. However, when the difference obtained from the FGS layer is very small, that is, when the temporal relevance is very large, such an approach may decrease coding performance. In this case, it is better to code only the difference obtained from the FGS layer. That is, only R F is coded in the above equation (3).

この場合、上記数式(7)ないし(9)は下記数式(10)ないし(12)のように変更できる。   In this case, the above formulas (7) to (9) can be changed to the following formulas (10) to (12).

△=O−P−(△+△)/2 ・・・(10) △ = O-P B - ( △ M + △ N) / 2 ··· (10)

△=O−P−(P−P) ・・・(11) Δ = O−P B − (P F −P B ) (11)

△=O−P−[(mc(M’−M’)+mc(N’−N’)]/2
・・・(12)
△ = O-P B - [ (mc (M F '-M B') + mc (N F '-N B')] / 2
(12)

結局、上記数式(10)から(12)は、上記数式7から9で復元された基礎階層イメージO’が前記基礎階層イメージに対する予測イメージPに代えられることが分かる。もちろん、上記数式(10)から(12)の3番目項にも補間自体を省略したり、演算量が相対的に少ないバイリニアフィルタによる補間を適用したりすることができる。 Eventually, Equations (10) to (12) show that the base layer image O ′ restored by Equations 7 to 9 is replaced with the predicted image P B for the base layer image. Of course, the interpolation itself can be omitted for the third term of the above formulas (10) to (12), or the interpolation by the bilinear filter having a relatively small amount of calculation can be applied.

上記数式(11)にはPが2つあるが、本発明によれば、その2つは完全に同じ値ではない。1番目Pを生成するための動き補償過程では推定された動きベクトルをそのまま使用するが、2番目P及びPを生成するための動き補償過程では前記推定された動きベクトルよりも低い精度の動きベクトルを使用することができる。または、演算量が少なくかかるフィルタ(例えば、バイリニアフィルタ)を適用することができる。 Although there are two P B in the above formula (11), according to the present invention, the two are not exactly the same value. Although it accepts the motion vector estimated in the motion compensation process to generate a first P B, 2 th P B and lower accuracy than the motion vectors in the motion compensation process is the estimation for generating a P F Motion vectors can be used. Alternatively, a filter that requires a small amount of calculation (for example, a bilinear filter) can be applied.

[第5実施形態]
PFGSでは両方の復元された参照フレームを使用して現在フレームを復元するため、両参照フレームの画質の低下が現在フレームに累積反映されるドリフト現象が発生する。これを減少させるために使われるのがleaky予測であるが、これは両参照フレームから得た予測イメージと基礎階層から得た予測イメージ間の加重合で生成された予測イメージを用いる方法である。
[Fifth Embodiment]
In PFGS, both restored reference frames are used to restore the current frame, so that a drift phenomenon occurs in which the degradation of the image quality of both reference frames is cumulatively reflected in the current frame. Leaky prediction is used to reduce this, and this is a method using a prediction image generated by polymerization between prediction images obtained from both reference frames and prediction images obtained from the base layer.

既存のPFGSで使用するleaky予測によれば、FGS階層でコーディングされる値は下記数式(13)で表される。   According to leaky prediction used in the existing PFGS, a value coded in the FGS layer is expressed by the following equation (13).

△=O−[αP+(1−α)P] ・・・(13) Δ = O− [αP F + (1−α) P B ] (13)

この式を第5実施形態によって整理すれば、下記数式(14)で表される。   If this formula is arranged by the fifth embodiment, it is expressed by the following formula (14).

△=O−P−α(P−P) ・・・(14) △ = O-P B -α ( P F -P B) ··· (14)

数式(14)によれば、上記数式(11)で単に予測間の差分に加重因子(α)を適用するだけで良いことが分かる。したがって、本発明はleaky予測にも適用し得る。すなわち、(P−P)に補間自体を省略したり、バイリニアフィルタによる補間を適用したりしてその結果にαを掛ければ良い。 According to the equation (14), it can be understood from the equation (11) that the weighting factor (α) may be simply applied to the difference between predictions. Therefore, the present invention can also be applied to leaky prediction. That is, the interpolation itself may be omitted from (P F −P B ) or the bilinear filter may be applied, and the result may be multiplied by α.

図4は、本発明の第1実施形態によるビデオエンコーダ100の構成を示すブロック図である。図1ないし図3の説明では動きベクトル探索の単位であるブロックを基準にしたが、以下では前記ブロックが含まれるフレーム単位で説明する。表現の統一のために、前記ブロックの識別子はフレームを表す「F」文字を添字で示した。例えば、Rというブロックを含むフレームはFRBで表される。もちろん、以下でもプライム(’)表示は量子化/逆量子化を経て復元されたデータであることを示す。 FIG. 4 is a block diagram showing a configuration of the video encoder 100 according to the first embodiment of the present invention. The description of FIGS. 1 to 3 is based on a block which is a unit of motion vector search. However, the following description will be made on a frame basis including the block. In order to unify the expression, the identifier of the block is indicated by a subscript “F” character representing a frame. For example, a frame including a block of R B is represented by F RB. Of course, in the following, the prime (') display indicates data restored through quantization / inverse quantization.

入力される現在フレームFは、動きベクトル探索部105、差分器115、及び差分計算部170で入力される。 The input current frame FO is input by the motion vector search unit 105, the difference unit 115, and the difference calculation unit 170.

動きベクトル探索部105は、周辺フレームを参照して現在フレームに対する動きベクトル探索を行うことによって動きベクトルMVを求める。このように参照される周辺フレームを「参照フレーム」という。一般に、このような動きベクトル探索のためにブロックマッチングアルゴリズムが広く使われている。すなわち、与えられたブロックを参照フレームの特定探索領域内でピクセルまたはサブピクセル(1/2ピクセル、1/4ピクセルなど)単位に動かしながら、そのエラーが最低になる場合の変位を動きベクトルとして推定するものである。動きベクトル探索のために固定されたブロックを用いることもできるが、階層的可変サイズブロックマッチング法(HVSBM)による階層的な方法を用いることもできる。   The motion vector search unit 105 obtains a motion vector MV by performing a motion vector search for the current frame with reference to surrounding frames. The peripheral frame referred to in this way is referred to as a “reference frame”. In general, a block matching algorithm is widely used for such motion vector search. That is, while moving a given block in units of pixels or sub-pixels (1/2 pixel, 1/4 pixel, etc.) within a specific search region of the reference frame, the displacement when the error is minimized is estimated as a motion vector. To do. Although a fixed block can be used for motion vector search, a hierarchical method based on a hierarchical variable size block matching method (HVSBM) can also be used.

仮に前記動きベクトル探索過程がサブピクセル単位で行われれば、参照フレームはアップサンプリングないし補間されなければならない。1/2ピクセル単位で行われる場合は2倍のアップサンプリングないし補間が必要であり、1/4ピクセル単位で行われる場合は4倍のアップサンプリングないし補間が必要である。   If the motion vector search process is performed in units of subpixels, the reference frame must be upsampled or interpolated. When it is performed in units of 1/2 pixel, double upsampling or interpolation is required, and when it is performed in units of 1/4 pixel, upsampling or interpolation is required 4 times.

ところが、エンコーダ100が開ループコーデック状になっていれば、前記参照フレームではオリジナル周辺フレームF,Fをそのまま用いるが、閉ループコーデック状になっていれば、前記参照フレームでは復元された基礎階層の周辺フレームFMB’,FNB’を用いるようになる。以下では閉ループコーデックを中心に説明するが、本発明はこれに限定されない。 However, if the encoder 100 is in the open-loop codec like, the reference original peripheral frame F M in the frame, the F N is used as it is, if turned closed loop codec shape, reconstructed base layer in the reference frame Peripheral frames F MB ′ and F NB ′ are used. Although the following description will focus on a closed loop codec, the present invention is not limited to this.

動きベクトル探索部105で求めた動きベクトルMVは、動き補償部110に提供される。動き補償部110は前記動きベクトルMVを用いて前記参照フレームFMB’,FNB’を動き補償し、前記現在フレームに対する予測イメージFPBを生成する。両方向参照が使われる場合、前記予測イメージは動き補償された参照フレームの平均で計算できる。そして、単方向参照が使われる場合、前記予測イメージは動き補償された参照フレームと同じものであり得る。以下では動きベクトル探索及び動き補償において両方向参照を使う場合を説明するが、単方向参照についても本発明が適用できるのは当業者には自明である。 The motion vector MV obtained by the motion vector search unit 105 is provided to the motion compensation unit 110. The motion compensation unit 110 performs motion compensation on the reference frames F MB ′ and F NB ′ using the motion vector MV, and generates a predicted image FPB for the current frame. If bi-directional reference is used, the predicted image can be calculated by averaging motion compensated reference frames. And if unidirectional reference is used, the predicted image may be the same as the motion compensated reference frame. In the following, the case of using a bi-directional reference in motion vector search and motion compensation will be described.

そして、差分器115は、前記現在フレームから前記予測イメージを差し引いて計算される残差信号FRBを変換部120に提供する。 The differentiator 115 provides a residual signal F RB which is calculated by subtracting the predicted image from the current frame to the converter 120.

変換部120は前記残差信号FRBに対して空間的変換を行い、変換係数FRB を生成する。このような空間的変換方法としては、DCT、ウェーブレット変換などが使われる。DCTを使用する場合、前記変換係数はDCT係数になり、ウェーブレット変換を使用する場合、前記変換係数はウェーブレット係数になる。 The transform unit 120 performs a spatial transform on the residual signal F RB to generate a transform coefficient F RB T. As such a spatial transformation method, DCT, wavelet transformation or the like is used. When using DCT, the transform coefficient is a DCT coefficient, and when using wavelet transform, the transform coefficient is a wavelet coefficient.

量子化部125は、前記変換係数を量子化する。前記量子化は、任意の実数値で表される前記変換係数を不連続的な値で表す過程を意味する。例えば、量子化部125は、任意の実数値で表される前記変換係数を所定の量子化ステップで割って、その結果を整数値に四捨五入する方法で量子化を行うことができる。前記量子化ステップは、基礎階層に適用されるもので、一般にFGS階層に比べてその値が大きい。   The quantization unit 125 quantizes the transform coefficient. The quantization means a process of expressing the transform coefficient represented by an arbitrary real value as a discontinuous value. For example, the quantization unit 125 can perform quantization by dividing the transform coefficient represented by an arbitrary real value by a predetermined quantization step and rounding the result to an integer value. The quantization step is applied to the base layer and generally has a larger value than the FGS layer.

量子化部125によって量子化された結果、すなわち量子化係数FRB は、エントロピー符号化部140及び逆量子化部130に提供される。 The result of quantization by the quantization unit 125, that is, the quantization coefficient F RB Q is provided to the entropy encoding unit 140 and the inverse quantization unit 130.

逆量子化部130は、前記量子化係数を逆量子化する。このような逆量子化過程は、量子化過程で使われたものと同じ量子化ステップを用いて、量子化過程で生成されたインデックスからそれにマッチングされる値を復元する過程である。   The inverse quantization unit 130 inversely quantizes the quantization coefficient. Such an inverse quantization process is a process of restoring a value matched with an index generated in the quantization process using the same quantization step as that used in the quantization process.

逆変換部135は、前記逆量子化された結果を受信して逆変換を行う。このような逆変換は、変換部120の変換過程の逆過程で行われ、具体的には逆DCT変換、逆ウェーブレット変換などが使われる。加算器140は、前記逆変換された結果と前記動き補償部110の動き補償過程で使われた予測イメージFPBを加算することによって、現在フレームの復元イメージF’を生成する。 The inverse transform unit 135 receives the inversely quantized result and performs inverse transform. Such an inverse transform is performed in the inverse process of the transform process of the transform unit 120, and specifically, an inverse DCT transform, an inverse wavelet transform, or the like is used. The adder 140 adds the result of the inverse transformation and the predicted image FPB used in the motion compensation process of the motion compensation unit 110 to generate a restored image F O ′ of the current frame.

バッファ145は、加算器140から提供される結果を格納する。したがって、バッファ145には現在フレームの復元イメージF’だけでなく、予め復元された基礎階層の参照フレームFMB’,FNB’も格納することができる。 The buffer 145 stores the result provided from the adder 140. Therefore, the buffer 145 can store not only the restored image F O ′ of the current frame but also the reference frames F MB ′ and F NB ′ of the base layer restored in advance.

動きベクトル変更部155は、前記動きベクトルMVを受信して動きベクトルの精度を変更する。例えば、前記動きベクトルMVの精度が1/4ピクセル単位であれば、前記動きベクトルMVは小数位の値として、0、0.25、0.5、及び0.75のうち1つを有することができる。本発明の実施形態によれば、FGS階層での動き補償時には基礎階層で求めた高い精度の動きベクトルの高い精度をそのまま維持しなくても性能には大きい差がないということは上述した通りである。したがって、動きベクトル変更部155は、前記1/4ピクセル単位の動きベクトルを1/2ピクセル単位、ピクセル単位などより低い精度の動きベクトルMVに変更する。このような変更過程は、元の動きベクトルで変更される精度単位を超える部分を切り捨てたり、四捨五入したりする簡単な方法で行われる。 The motion vector changing unit 155 receives the motion vector MV and changes the accuracy of the motion vector. For example, if the accuracy of the motion vector MV is 1/4 pixel unit, the motion vector MV has one of 0, 0.25, 0.5, and 0.75 as a decimal value. Can do. As described above, according to the embodiment of the present invention, there is no significant difference in performance even if the high accuracy of the high-precision motion vector obtained in the base layer is not maintained at the time of motion compensation in the FGS layer. is there. Accordingly, the motion vector changing unit 155 changes the 1/4 pixel unit motion vector to a motion vector MV 1 with a lower accuracy such as 1/2 pixel unit or pixel unit. Such a change process is performed by a simple method of truncating or rounding a portion exceeding the accuracy unit changed by the original motion vector.

バッファ165は、FGS階層の参照フレームを一時格納する。詳細に示していないが、FGS階層の参照フレームとしてはFGS階層の復元されたフレームFMF’,FNF’が用いられたり、現在フレーム周辺のオリジナルフレームが用いられたりする。 The buffer 165 temporarily stores the reference frame of the FGS layer. Although not shown in detail, as the reference frame of the FGS layer, the restored frames F MF ′ and F NF ′ of the FGS layer are used, or original frames around the current frame are used.

動き補償部160は、前記変更された動きベクトルMVを用いて、バッファ145から提供される基礎階層の復元された参照フレームFMB’,FNB’及びバッファ165から提供されるFGS階層の参照フレームFMF’,FNF’を動き補償し、その結果mc(FMB’),mc(FNB’),mc(FMF’),mc(FNF’)を差分計算部170に提供する。ここで、FMF’はFGS階層の順方向参照フレーム、FNF’はFGS階層の逆方向参照フレーム、FMB’は基礎階層の順方向参照フレーム、FNB’は基礎階層の逆方向参照フレームをそれぞれ表す。 The motion compensation unit 160 uses the changed motion vector MV 1 to restore the reference frames F MB ′ and F NB ′ of the base layer provided from the buffer 145 and the reference of the FGS layer provided from the buffer 165. The frames F MF ′ and F NF ′ are motion-compensated, and as a result, the mc (F MB ′), mc (F NB ′), mc (F MF ′), and mc (F NF ′) are provided to the difference calculation unit 170. . Here, F MF ′ is a forward reference frame in the FGS layer, F NF ′ is a backward reference frame in the FGS layer, F MB ′ is a forward reference frame in the base layer, and F NB ′ is a backward reference frame in the base layer. Respectively.

動き補償部160の動き補償のために補間が必要な場合に、動きベクトル探索部105や動き補償部110で使われた補間フィルタと異なる形態の補間フィルタを使用することができる。例えば、前記動き補償時に1/2ピクセル単位の動きベクトルMVが使われる場合に、前記補間のためにH.264の6タップフィルタの代わりに、演算量が少ないバイリニアフィルタを使用することもでき、それでもその後動き補償されたフレーム間の階層間の差分が求められるため圧縮効率にはそれほど大きい影響を与えない。 When interpolation is necessary for motion compensation of the motion compensation unit 160, an interpolation filter of a form different from the interpolation filter used in the motion vector search unit 105 or the motion compensation unit 110 can be used. For example, when a motion vector MV 1 in units of 1/2 pixel is used during the motion compensation, H.264 is used for the interpolation. Instead of the H.264 6-tap filter, a bilinear filter with a small amount of calculation can be used. However, since the difference between the layers between the frames after motion compensation is obtained, the compression efficiency is not greatly affected.

差分計算部170は、前記動き補償されたFGS階層の参照フレームmc(FMF’),mc(FNF’)と前記動き補償された基礎階層の参照フレームmc(FMB’),mc(FNB’)との差分を求める。すなわち、△(=mc(FMF’)−mc(FMB’))、及び△(=mc(FNF’)−mc(FNB’))を求める。もちろん、単方向参照である場合には1つの差分だけ求めることができる。 The difference calculation unit 170 performs the motion-compensated FGS layer reference frames mc (F MF ′) and mc (F NF ′) and the motion-compensated base layer reference frames mc (F MB ′) and mc (F Find the difference from NB '). That, △ M (= mc (F MF ') -mc (F MB')), and △ N (= mc (F NF ') -mc (F NB')) determined. Of course, in the case of unidirectional reference, only one difference can be obtained.

そして、差分計算部170は、前記差分△,△の平均を求め、前記現在フレームFから前記復元イメージF’及び前記差分の平均を差し引く。もちろん、単方向参照である場合には前記平均を求める過程を必要としない。 Then, the difference calculation unit 170, the difference △ M, △ Average look of N, the current from the frame F O subtracting the mean of the restored image F O 'and the differential. Of course, in the case of unidirectional reference, the process of obtaining the average is not required.

差分計算部170から差し引かれた結果Fは変換部175によって空間的変換F され、量子化部180を経て量子化され、量子化された結果F はエントロピー符号化部150に伝達される。量子化部180で使われる量子化ステップは、一般に量子化部125で使われる量子化ステップに比べて小さい値が使われる。 The result F Δ subtracted from the difference calculation unit 170 is spatially transformed F Δ T by the transformation unit 175, quantized through the quantization unit 180, and the quantized result F Δ Q is transmitted to the entropy coding unit 150. Is done. The quantization step used in the quantization unit 180 generally has a smaller value than the quantization step used in the quantization unit 125.

エントロピー符号化部150は、動きベクトル探索部105で推定された動きベクトルMVと、量子化部125から提供されるFRB と、量子化部180から提供されるF を無損失符号化してビットストリームを生成する。このような無損失符号化方法としては、ハフマン符号化、算術符号化、可変長符号化、その他多様な方法が用いられる。 The entropy encoding unit 150 losslessly encodes the motion vector MV estimated by the motion vector search unit 105, the F RB Q provided from the quantization unit 125, and the F Δ Q provided from the quantization unit 180. To generate a bitstream. As such a lossless coding method, Huffman coding, arithmetic coding, variable length coding, and other various methods are used.

一方、本発明の第2実施形態によるビデオエンコーダの構成も図4と同様に示すことができる。ただし、第2実施形態では階層間の差分を求める前に各階層別に予測フレームを先に計算するという点だけ差がある。すなわち、差分計算部170の動作だけ差がある。   On the other hand, the configuration of the video encoder according to the second embodiment of the present invention can also be shown as in FIG. However, in the second embodiment, there is a difference in that a prediction frame is calculated first for each layer before obtaining a difference between layers. That is, there is a difference only in the operation of the difference calculation unit 170.

第2実施形態による場合、差分計算部170は、前記動き補償されたFGS階層の参照フレームmc(FMF’),mc(FNF’)からFGS階層の予測フレームFPFを生成し、前記動き補償された基礎階層の参照フレームmc(FMB’),mc(FNB’)から基礎階層の予測フレームFBFを生成する。予測フレームを生成する過程は、2つの動き補償された参照フレームを平均することによって簡単に求めることができる。もちろん、単方向参照である場合には動き補償されたフレームがそのまま予測フレームになる。 If according to the second embodiment, the difference calculation unit 170, the motion compensated FGS layer reference frames mc (F MF ') to produce a predicted frame F PF of FGS layer from, mc (F NF'), the motion A base layer prediction frame F BF is generated from the compensated base layer reference frames mc (F MB ′) and mc (F NB ′). The process of generating a prediction frame can be easily determined by averaging two motion compensated reference frames. Of course, in the case of unidirectional reference, the motion-compensated frame becomes the prediction frame as it is.

そして、差分計算部170は、予測フレームFPF,FPBから階層間の差分FPF−FPBを求め、前記現在フレームFから前記復元イメージF’及び前記差分FPF−FPBを差し引く。 Then, the difference calculation unit 170, predicted frame F PF, obtains the difference F PF -F PB between hierarchy from F PB, subtracting the restored image F O 'and the difference F PF -F PB the current from the frame F O .

図5は、本発明の第3実施形態によるビデオエンコーダ300の構成を示すブロック図である。前記第1実施形態と第2実施形態では動き補償を先に行った後、イメージ間の差分を求めたが、第3実施形態ではこの順序を変えて、参照イメージの階層間の差分を先に計算した後、動き補償を行う。図4と重複する説明を避けるために相違する部分を中心に説明する。   FIG. 5 is a block diagram showing a configuration of a video encoder 300 according to the third embodiment of the present invention. In the first embodiment and the second embodiment, after performing motion compensation first, the difference between images is obtained. However, in the third embodiment, this order is changed, and the difference between the layers of the reference image is determined first. After the calculation, motion compensation is performed. In order to avoid an overlapping description with FIG.

差分器390は、バッファ365から提供されるFGS階層の参照フレームFMF’,FNF’から、バッファ345から提供される基礎階層の復元された参照フレームFMB’,FNB’を差し引き、その結果FMF’−FMB’,FNF’−FNB’を動き補償部360に提供する。もちろん、単方向参照の場合には1つの差分だけ存在する。 The subtractor 390 subtracts the base layer restored reference frames F MB ′ and F NB ′ provided from the buffer 345 from the reference frames F MF ′ and F NF ′ of the FGS layer provided from the buffer 365, and The results F MF ′ −F MB ′ and F NF ′ −F NB ′ are provided to the motion compensation unit 360. Of course, there is only one difference in the case of unidirectional reference.

動き補償部360は、動きベクトル変更部355から提供される変更された動きベクトルMVを用いて、差分器390から提供される階層間参照フレームの差分FMF’−FMB’,FNF’−FNB’を動き補償する。前記動き補償時に1/2ピクセル単位の動きベクトルMVが使われる場合、前記補間のためにH.264の6タップフィルタの代わりに、演算量が少ないバイリニアフィルタが使われ、それでも圧縮効率にはそれほど大きい影響は与えない。 The motion compensation unit 360 uses the changed motion vector MV 1 provided from the motion vector change unit 355 and uses the difference F MF ′ −F MB ′, F NF ′ of the inter-layer reference frame provided from the differentiator 390. -F NB 'is motion compensated. When a motion vector MV 1 in units of 1/2 pixel is used during the motion compensation, H.264 is used for the interpolation. Instead of the H.264 6-tap filter, a bilinear filter with a small amount of calculation is used, and the compression efficiency is not so much affected.

差分計算部370は、動き補償された差分mc(FMF’−FMB’),mc(FNF’−FNB’)の平均を求め、前記現在フレームFから前記復元イメージF’及び前記差分の平均を差し引く。もちろん、単方向参照である場合には前記平均を求める過程を必要としない。 The difference calculation unit 370 calculates an average of the motion-compensated differences mc (F MF ′ −F MB ′) and mc (F NF ′ −F NB ′), and calculates the restored image F O ′ from the current frame F O and Subtract the average of the differences. Of course, in the case of unidirectional reference, the process of obtaining the average is not required.

図6及び図7は、本発明の第4実施形態によるビデオエンコーダ400,600の構成を示すブロック図である。第4実施形態と前記第1ないし第3実施形態との差は、単に差分計算部で現在フレームFから基礎階層の復元されたフレームF’ではなく、基礎階層の予測フレームFPBが差し引かれるという点である。 6 and 7 are block diagrams showing the configuration of the video encoders 400 and 600 according to the fourth embodiment of the present invention. The difference between the fourth embodiment and the first to third embodiments are simply the current frame F O from reconstructed frame F O 'rather than the base layer by the difference calculation section, predicted frame F PB of the base layer is subtracted It is a point.

図6は図4(第1実施形態)に対応し、図7は図5(第3実施形態)に対応する。図6を参照すれば、差分計算部470には図4の現在フレームFで基礎階層の復元されたイメージF’の代わりに、基礎階層の参照イメージFPBが動き補償部410から提供されるものと示されている。したがって、差分計算部470は、現在フレームFから前記予測イメージFPB及び階層間の差分△,△の平均を差し引くことによってFを求める。 6 corresponds to FIG. 4 (first embodiment), and FIG. 7 corresponds to FIG. 5 (third embodiment). Referring to FIG. 6, the difference calculation unit 470 is provided with a reference image FPB of the base layer from the motion compensation unit 410 instead of the image F O ′ of the base layer restored in the current frame F O of FIG. Is shown. Therefore, the difference calculation unit 470 calculates the F by subtracting the average of the difference △ M,N between the predicted image F PB and hierarchy currently from the frame F O.

同様に、図7において差分計算部670は、現在フレームFから前記予測イメージFPB及び動き補償された差分mc(FMF’−FMB’),mc(FNF’−FNB’)の平均を差し引くことによってFを求める。 Similarly, the difference calculation unit 670 in FIG. 7, the predicted current from the frame F O image F PB and motion compensated differential mc (F MF '-F MB' ), mc of (F NF '-F NB') Find F Δ by subtracting the average.

一方、第2実施形態に対応する第4実施形態は図示していないが、図6の構成図と同じ構成を有する。ただし、差分計算部470の動作で多少の差がある。第2実施形態に対応する第4実施形態において差分計算部470は、前記動き補償されたFGS階層の参照フレームmc(FMF’),mc(FNF’)からFGS階層の予測フレームFPFを生成し、前記動き補償された基礎階層の参照フレームmc(FMB’),mc(FNB’)から基礎階層の予測フレームFBFを生成する。そして、差分計算部170は、予測フレームFPF,FPBから階層間の差分FPF−FPBを求め、前記現在フレームFから前記復元イメージF’及び前記差分FPF−FPBを差し引くことによってFを求める。 On the other hand, the fourth embodiment corresponding to the second embodiment is not shown, but has the same configuration as the configuration diagram of FIG. However, there are some differences in the operation of the difference calculation unit 470. In the fourth embodiment corresponding to the second embodiment, the difference calculation unit 470 calculates the FGS layer predicted frame F PF from the motion-compensated FGS layer reference frames mc (F MF ′) and mc (F NF ′). The base layer prediction frame F BF is generated from the motion compensated base layer reference frames mc (F MB ′) and mc (F NB ′). Then, the difference calculation unit 170, predicted frame F PF, obtains the difference F PF -F PB between hierarchy from F PB, subtracting the restored image F O 'and the difference F PF -F PB the current from the frame F O determine the F by.

仮に、ここにleaky予測(第5実施形態)を適用すれば、差分計算部170は、前記階層間の差分FPF−FPBに加重因子(α)を掛け、前記現在フレームFから前記復元イメージF’及び前記掛けた結果α×(FPF−FPB)を差し引くことによってFを求める。 If, by applying the herein leaky prediction (fifth exemplary embodiment), the difference calculation unit 170, the multiplying weighting factor to the difference F PF -F PB between layers (alpha), the said recovery current from the frame F O F Δ is obtained by subtracting the image F O ′ and the multiplied result α × (F PF −F PB ).

図8は、本発明の第1実施形態によるビデオデコーダ700の構成を示すブロック図である。   FIG. 8 is a block diagram showing a configuration of the video decoder 700 according to the first embodiment of the present invention.

エントロピー復号化部701は、入力されたビットストリームに対して無損失復号化を行い、基礎階層のテクスチャデータと、FGS階層のテクスチャデータと、動きベクトルとを抽出する。無損失復号化は、エンコーダ段での無損失符号化過程の逆に進行される過程である。   The entropy decoding unit 701 performs lossless decoding on the input bitstream, and extracts base layer texture data, FGS layer texture data, and motion vectors. Lossless decoding is a process that is performed in reverse of the lossless encoding process in the encoder stage.

前記抽出された基礎階層のテクスチャデータFPB は、逆量子化部705に提供され、前記抽出されたFGS階層のテクスチャデータF は、逆量子化部1045に提供され、動きベクトルMVは、動き補償部720及び動きベクトル変更部730に提供される。 The extracted base layer texture data F PB Q is provided to an inverse quantization unit 705, the extracted FGS layer texture data F Δ Q is provided to an inverse quantization unit 1045, and a motion vector MV is The motion compensation unit 720 and the motion vector change unit 730 are provided.

逆量子化部705は、エントロピー復号化部701から出力される基礎階層のテクスチャデータFPB を逆量子化する。このような逆量子化過程は量子化過程で使われたものと同じ量子化テーブルを用いて、量子化過程で生成されたインデックスからそれにマッチングされる値を復元する過程である。 The inverse quantization unit 705 inversely quantizes the base layer texture data F PB Q output from the entropy decoding unit 701. Such an inverse quantization process is a process of restoring a value matched with an index generated in the quantization process using the same quantization table used in the quantization process.

逆変換部710は、前記逆量子化された結果に対して逆変換を行う。このような逆変換はエンコーダ段の変換過程を逆に行い、具体的に、逆DCT変換、逆ウェーブレット変換などが使われる。   The inverse transform unit 710 performs inverse transform on the inversely quantized result. Such inverse transformation reverses the conversion process of the encoder stage, and specifically, inverse DCT transformation, inverse wavelet transformation or the like is used.

前記逆変換結果、復元された残差信号FRB’は加算器715に提供される。 As a result of the inverse transformation, the restored residual signal F RB ′ is provided to the adder 715.

動き補償部720は、抽出された動きベクトルMVによって予め復元され、バッファ725に格納された基礎階層の復元された参照フレームFMB’,FNB’を動き補償することによって予測イメージFPBを生成し、これを加算器715に提供する。 The motion compensation unit 720 generates a prediction image FPB by performing motion compensation on the reference frames F MB ′ and F NB ′ restored in advance using the extracted motion vector MV and stored in the buffer 725. This is provided to the adder 715.

両方向予測の場合、予測イメージFPBは動き補償された参照フレームFMB’,FNB’の平均で計算でき、単方向予測の場合は、動き補償された参照フレームがそのまま予測イメージFPBになり得る。 In the case of bi-directional prediction, the prediction image F PB can be calculated by the average of the motion-compensated reference frames F MB ′ and F NB ′. In the case of uni-directional prediction, the motion-compensated reference frame becomes the prediction image F PB as it is. obtain.

加算器715は、入力されたFRB’及びFPBを加算することによって基礎階層の復元されたイメージF’を出力し、バッファ725は前記復元されたイメージF’を格納する。 The adder 715 outputs the restored image F O ′ of the base layer by adding the input F RB ′ and FP B , and the buffer 725 stores the restored image F O ′.

一方、逆量子化部745はFGS階層のテクスチャデータF を逆量子化し、逆変換部750は前記逆量子化された結果F ’に対して逆変換を行うことによって、復元されたF(F’)を求めてフレーム復元部755に提供する。 Meanwhile, the inverse quantization unit 745 inversely quantizes the texture data F Q of FGS layer, by the inverse transform unit 750 performs inverse transform on the inversely quantized result F T ', it was restored F Δ (F Δ ′) is obtained and provided to the frame restoration unit 755.

動きベクトル変更部730は、前記抽出された動きベクトルMVを受信して動きベクトルの精度を下げる。例えば、前記動きベクトルMVの精度が1/4ピクセル単位であれば、前記動きベクトルMVは小数位の値として、0、0.25、0.5、及び0.75のうち1つを有することができる。動きベクトル変更部155は、前記1/4ピクセル単位の動きベクトルを1/2ピクセル単位、ピクセル単位などより低い精度の動きベクトルMVに変更する。 The motion vector changing unit 730 receives the extracted motion vector MV and reduces the accuracy of the motion vector. For example, if the accuracy of the motion vector MV is 1/4 pixel unit, the motion vector MV has one of 0, 0.25, 0.5, and 0.75 as a decimal value. Can do. The motion vector changing unit 155 changes the motion vector in ¼ pixel units to a motion vector MV 1 having a lower accuracy than ½ pixel unit, pixel unit, or the like.

動き補償部735は、前記変更された動きベクトルMVを用いて、バッファ725から提供される基礎階層の復元された参照フレームFMB’,FNB’及びバッファ740から提供されるFGS階層の参照フレームFMF’,FNF’を動き補償し、その結果mc(FMB’),mc(FNB’),mc(FMF’),mc(FNF’)をフレーム復元部755に提供する。 The motion compensation unit 735 uses the changed motion vector MV 1 to restore the reference frames F MB ′ and F NB ′ of the base layer provided from the buffer 725 and the reference of the FGS layer provided from the buffer 740. The frames F MF ′ and F NF ′ are motion-compensated, and as a result, mc (F MB ′), mc (F NB ′), mc (F MF ′), mc (F NF ′) are provided to the frame restoration unit 755. .

前記動き補償時に1/2ピクセル単位の動きベクトルMVが使われる場合に、前記補間のためにH.264の6タップフィルタの代わりに、演算量が少ないバイリニアフィルタが使われ、それでも圧縮効率にそれほど大きい影響は与えない。 When the motion vector MV 1 in units of 1/2 pixel is used at the time of the motion compensation, H.264 is used for the interpolation. Instead of the H.264 6-tap filter, a bilinear filter with a small amount of calculation is used, and it still does not have a great influence on the compression efficiency.

フレーム復元部755は、前記動き補償されたFGS階層の参照フレームmc(FMF’),mc(FNF’)と、前記動き補償された基礎階層の参照フレームmc(FMB’),mc(FNB’)との差分を求める。すなわち、△(=mc(FMF’)−mc(FMB’))、及び△(=mc(FNF’)−mc(FNB’))を求める。もちろん、単方向参照である場合には1つの差分だけ求められる。 The frame restoration unit 755 includes the motion-compensated FGS layer reference frames mc (F MF ′) and mc (F NF ′) and the motion-compensated base layer reference frames mc (F MB ′) and mc ( The difference from F NB ′) is obtained. That, △ M (= mc (F MF ') -mc (F MB')), and △ N (= mc (F NF ') -mc (F NB')) determined. Of course, in the case of unidirectional reference, only one difference is obtained.

そして、フレーム復元部755は前記差分△,△の平均を求め、前記F’と、基礎階層の復元されたイメージF’と、前記差分の平均とを加算する。その結果、FGS階層の復元されたイメージFOF’が生成される。もちろん単方向参照である場合には前記平均を求める過程を必要としない。 The frame restoration unit 755 obtains an average of the difference △ M,N, the F 'and reconstructed image F O base layer' and adds the average of the difference. As a result, a restored image F OF ′ of the FGS hierarchy is generated. Of course, in the case of unidirectional reference, the process of obtaining the average is not required.

バッファ740は復元されたイメージFOF’を格納する。もちろん、バッファ740には予め復元されたイメージFMF’,FBF’も格納され得る。 Buffer 740 stores the restored image F OF '. Of course, the image F MF ′, F BF ′ restored in advance can also be stored in the buffer 740.

一方、本発明の第2実施形態によるビデオデコーダの構成も図8と同様に示すことができる。ただし、第2実施形態では階層間の差分を求める前に各階層別に予測フレームを先に計算するという点だけ差がある。すなわち、フレーム復元部755の動作だけ差がある。   On the other hand, the configuration of the video decoder according to the second embodiment of the present invention can also be shown as in FIG. However, in the second embodiment, there is a difference in that a prediction frame is calculated first for each layer before obtaining a difference between layers. That is, there is a difference only in the operation of the frame restoration unit 755.

第2実施形態による場合、フレーム復元部755は前記動き補償されたFGS階層の参照フレームmc(FMF’),mc(FNF’)からFGS階層の予測フレームFPFを生成し、前記動き補償された基礎階層の参照フレームmc(FMB’),mc(FNB’)から基礎階層の予測フレームFBFを生成する。予測フレームを生成する過程は2つの動き補償された参照フレームを平均することによって簡単に求められる。もちろん、単方向参照である場合には動き補償されたフレームがそのまま予測フレームになる。 If according to the second embodiment, a frame restoration unit 755 generates a predicted frame F PF of the reference frame mc (F MF ') of the motion compensated FGS layer FGS layer from, mc (F NF'), the motion compensation The base layer prediction frame F BF is generated from the base layer reference frames mc (F MB ′) and mc (F NB ′). The process of generating a prediction frame is easily determined by averaging two motion compensated reference frames. Of course, in the case of unidirectional reference, the motion-compensated frame becomes the prediction frame as it is.

そして、フレーム復元部755は予測フレームFPF,FPBから階層間の差分FPF−FPBを求め、前記F’と、前記基礎階層の復元イメージF’と、前記差分FPF−FPBとを加算する。 Then, the frame restoration unit 755 obtains a difference F PF -F PB between layers from the prediction frames F PF and F PB , and calculates the F Δ ′, the restored image F O ′ of the base layer, and the difference F PF -F. Add PB .

図9は、本発明の第3実施形態によるビデオデコーダ900の構成を示すブロック図である。前記第1実施形態と第2実施形態によるビデオデコーダでは動き補償を先に行った後、イメージ間の差分を求めたが、第3実施形態ではこの順序を変えて参照イメージの階層間の差分を先に計算した後、動き補償を行う。図4と重複する説明を避けるために相違する部分を中心に説明する。   FIG. 9 is a block diagram showing a configuration of a video decoder 900 according to the third embodiment of the present invention. In the video decoders according to the first and second embodiments, after performing motion compensation, the difference between the images is obtained. In the third embodiment, the difference between the layers of the reference image is changed by changing the order. After the calculation, motion compensation is performed. In order to avoid an overlapping description with FIG.

差分器960はバッファ940から提供されるFGS階層の参照フレームFMF’,FNF’から、バッファ925から提供される基礎階層の復元された参照フレームFMB’,FNB’を差し引き、その結果FMF’−FMB’,FNF’−FNB’を動き補償部935に提供する。もちろん、単方向参照の場合には1つの差分だけ存在する。 The subtractor 960 subtracts the base layer restored reference frames F MB ′ and F NB ′ provided from the buffer 925 from the FGS layer reference frames F MF ′ and F NF ′ provided from the buffer 940, and the result F MF ′ −F MB ′ and F NF ′ −F NB ′ are provided to the motion compensation unit 935. Of course, there is only one difference in the case of unidirectional reference.

動き補償部935は動きベクトル変更部930から提供される、変更された動きベクトルMVを用いて差分器390から提供される階層間参照フレームの差分FMF’−FMB’,FNF’−FNB’を動き補償する。前記動き補償時に1/2ピクセル単位の動きベクトルMVが使われる場合、前記補間のためにH.264の6タップフィルタの代わりに、演算量が少ないバイリニアフィルタが使われ、それでも圧縮効率にそれほど大きい影響は与えない。 The motion compensation unit 935 provides the difference F MF ′ −F MB ′, F NF ′ − of the inter-layer reference frame provided from the differentiator 390 using the changed motion vector MV 1 provided from the motion vector change unit 930. F NB 'is motion compensated. When a motion vector MV 1 in units of 1/2 pixel is used during the motion compensation, H.264 is used for the interpolation. Instead of the H.264 6-tap filter, a bilinear filter with a small amount of calculation is used, and it still does not have a great influence on the compression efficiency.

フレーム復元部955は動き補償された差分mc(FMF’−FMB’),mc(FNF’−FNB’)の平均を求め、逆変換部950から提供されるF’と、基礎階層の復元イメージF’と、前記差分の平均とを加算する。もちろん単方向参照である場合には前記平均を求める過程を必要としない。 The frame restoration unit 955 obtains the average of the motion-compensated differences mc (F MF ′ −F MB ′) and mc (F NF ′ −F NB ′), and F Δ ′ provided from the inverse transform unit 950 and the basis The restored image F O ′ of the hierarchy is added to the average of the differences. Of course, in the case of unidirectional reference, the process of obtaining the average is not required.

図10ないし図11は、本発明の第4実施形態によるビデオデコーダ1000,1200の構成を示すブロック図である。   10 to 11 are block diagrams showing configurations of video decoders 1000 and 1200 according to the fourth embodiment of the present invention.

第4実施形態のビデオデコーダと前記第1ないし第3実施形態のビデオデコーダとの差は、単にフレーム復元部の加算過程で基礎階層の復元されたフレームF’の代わりに、基礎階層の予測フレームFPBが使われるという点でだけである。 The difference between the video decoder of the fourth embodiment and the video decoders of the first to third embodiments is that the prediction of the base layer is simply performed instead of the frame F O ′ of the base layer restored in the addition process of the frame restoration unit. Only in that the frame FPB is used.

図10は図8(第1実施形態)に対応し、図11は図9(第3実施形態)に対応する。図10を参照すれば、フレーム復元部1055には図8の基礎階層の復元されたイメージF’の代わりに、基礎階層の参照イメージFPBが動き補償部1020から提供されるものと示されている。したがって、フレーム復元部1055は逆変換部1050から提供されるF’と、前記予測イメージFPBと、階層間の差分△,△の平均とを加算することによって、FGS階層の復元されたイメージFOF’を求めることができる。 10 corresponds to FIG. 8 (first embodiment), and FIG. 11 corresponds to FIG. 9 (third embodiment). Referring to FIG. 10, the frame restoration unit 1055 indicates that the base layer reference image FPB is provided from the motion compensation unit 1020 instead of the base layer restored image F O ′ of FIG. 8. ing. Accordingly, the frame restoration unit 1055 restores the FGS layer by adding F Δ 'provided from the inverse transformation unit 1050, the predicted image F PB, and the average of the differences Δ M and Δ N between layers. Image F OF 'can be obtained.

同様に、図11において、フレーム復元部1255は逆変換部1250から提供されるF’と、動き補償部1220から提供される予測イメージFPBと、動き補償された差分mc(FMF’−FMB’),mc(FNF’−FNB’)の平均とを加算することによって、FGS階層の復元されたイメージFOF’を求めることができる。 Similarly, in FIG. 11, the frame recovery unit 1255 F provided from the inverse transformation unit 1250 'and the prediction image F PB is provided from the motion compensation unit 1220, a motion-compensated difference mc (F MF' - The restored image F OF ′ of the FGS hierarchy can be obtained by adding the average of F MB ′) and mc (F NF ′ −F NB ′).

一方、第2実施形態に対応する第4実施形態は図示していないが、図8の構成図と同じ構成を有する。ただし、フレーム復元部1255の動作で多少の差があるだけである。第2実施形態に対応する第4実施形態で、フレーム復元部1255は動き補償されたFGS階層の参照フレームmc(FMF’),mc(FNF’)からFGS階層の予測フレームFPFを生成し、動き補償された基礎階層の参照フレームmc(FMB’),mc(FNB’)から基礎階層の予測フレームFBFを生成する。そして、フレーム復元部1255は予測フレームFPF,FPBから階層間の差分FPF−FPBを求め、逆変換部1250から提供されるF’と、動き補償部1220から提供される予測イメージFPBと、予測フレーム間の差分FPF−FPBとを加算することによって、FGS階層の復元されたイメージFOF’を求めることができる。 On the other hand, the fourth embodiment corresponding to the second embodiment is not shown, but has the same configuration as the configuration diagram of FIG. However, there is only a slight difference in the operation of the frame restoration unit 1255. In the fourth embodiment corresponding to the second embodiment, generates a predicted frame F PF of FGS layer frame restoration unit 1255 reference frame mc of the motion compensated FGS layer (F MF ') from, mc (F NF') Then, the base layer predicted frame F BF is generated from the motion compensated base layer reference frames mc (F MB ′) and mc (F NB ′). Then, the frame restoration unit 1255 obtains a difference F PF −F PB between layers from the prediction frames F PF and F PB, and F Δ ′ provided from the inverse conversion unit 1250 and the prediction image provided from the motion compensation unit 1220. and F PB, by adding the difference F PF -F PB between a predicted frame, it is possible to obtain an image F oF 'restored the FGS layer.

仮に、ここにleaky予測(第5実施形態)を適用すれば、フレーム復元部1255は前記階層間の差分FPF−FPBに加重因子(α)を掛け、前記F’と、前記復元イメージF’と、前記掛けられた結果α×(FPF−FPB)とを加算することによってFOF’を求める。 If leaky prediction (fifth embodiment) is applied here, the frame restoration unit 1255 multiplies the difference F PF -F PB between the layers by a weighting factor (α), and the F Δ ′ and the restored image F OF ′ is obtained by adding F O ′ and the multiplied result α × (F PF −F PB ).

図12は、本発明の一実施形態によるビデオエンコーダ100,300,400,600、またはビデオデコーダ700,900,1000,1200を実現するためのシステムの構成図である。前記システムは、例えばTV、セットトップボックス、デスクトップ、ラップトップコンピュータ、パームトップコンピュータ、PDA、ビデオまたはイメージ格納装置(例えば、VCR、DVRなど)を示す。また、前記システムは前記装置を組み合わせたもの、または前記装置が他の装置の一部分として含まれたものであり得る。前記システムは少なくとも1つ以上のビデオソース1310、1つ以上の入出力装置1320、プロセッサ1340、メモリ1350、そしてディスプレイ装置1330を含んで構成され得る。   FIG. 12 is a configuration diagram of a system for realizing the video encoder 100, 300, 400, 600 or the video decoder 700, 900, 1000, 1200 according to an embodiment of the present invention. The system represents, for example, a TV, set-top box, desktop, laptop computer, palmtop computer, PDA, video or image storage device (eg, VCR, DVR, etc.). The system may be a combination of the devices, or the device may be included as part of another device. The system may be configured to include at least one or more video sources 1310, one or more input / output devices 1320, a processor 1340, a memory 1350, and a display device 1330.

ビデオソース1310は、TV受信機、VCR、または他のビデオ格納装置を示す。また、前記ソース1310は、インターネット、WAN、LAN、地上波放送システム、ケーブルネットワーク、衛星通信ネットワーク、無線ネットワーク、電話ネットワークなどを用いてサーバーからビデオを受信するための1つ以上のネットワーク連結を示す。また、前記ソースは前記ネットワークを組み合わせたもの、または前記ネットワークが他のネットワークの一部分として含まれたものを示す。   Video source 1310 represents a TV receiver, VCR, or other video storage device. Also, the source 1310 indicates one or more network connections for receiving video from a server using the Internet, WAN, LAN, terrestrial broadcasting system, cable network, satellite communication network, wireless network, telephone network, etc. . In addition, the source indicates a combination of the networks, or the network included as a part of another network.

入出力装置1320、プロセッサ1340、そしてメモリ1350は通信媒体1360を介して通信する。前記通信媒体1360には通信バス、通信ネットワーク、または1つ以上の内部連結回路を示す。前記ソース1310から受信される入力ビデオデータは、メモリ1350に格納された1つ以上のソフトウェアプログラムによってプロセッサ1340で処理され得、ディスプレイ装置1330に提供される出力ビデオを生成するためにプロセッサ1340で実行され得る。   The input / output device 1320, the processor 1340, and the memory 1350 communicate via a communication medium 1360. The communication medium 1360 represents a communication bus, a communication network, or one or more internal connection circuits. Input video data received from the source 1310 may be processed by the processor 1340 by one or more software programs stored in the memory 1350 and executed by the processor 1340 to generate output video provided to the display device 1330. Can be done.

特に、メモリ1350に格納されたソフトウェアプログラムは、本発明による方法を行うウェーブレット変換に基づいた拡張性のあるコーデックを含むことができる。前記エンコーダまたは前記コーデックは、メモリ1350に格納されたり、CD−ROMやフロッピー(登録商標)ディスクといった格納媒体で読み取られたり、各種ネットワークを介して所定のサーバーからダウンロードしたものであり得る。   In particular, the software program stored in the memory 1350 can include a scalable codec based on wavelet transforms that perform the method according to the invention. The encoder or the codec may be stored in the memory 1350, read by a storage medium such as a CD-ROM or a floppy (registered trademark) disk, or downloaded from a predetermined server via various networks.

以上、添付する図面を参照して本発明の実施形態を説明したが、本発明の属する技術分野における通常の知識を有する者は本発明がその技術的思想や必須的な特徴を変更せずに他の具体的な形態によって実施できることを理解することができる。したがって前述した実施形態はすべての面で例示的なものであって、限定的なものではないことを理解しなければならない。   The embodiments of the present invention have been described above with reference to the accompanying drawings. However, those skilled in the art to which the present invention pertains have ordinary skill in the art without changing the technical idea or essential features. It can be understood that it can be implemented in other specific forms. Accordingly, it should be understood that the above-described embodiments are illustrative in all aspects and not limiting.

従来のFGS技術を説明する図面である。It is drawing explaining the conventional FGS technique. 従来のPFGS技術を説明する図面である。1 is a diagram illustrating a conventional PFGS technique. 本発明の第1実施形態による高速PFGS方法を説明する図面である。1 is a diagram illustrating a high-speed PFGS method according to a first embodiment of the present invention. 本発明の第1実施形態によるビデオエンコーダの構成を示すブロック図である。It is a block diagram which shows the structure of the video encoder by 1st Embodiment of this invention. 本発明の第3実施形態によるビデオエンコーダの構成を示すブロック図である。It is a block diagram which shows the structure of the video encoder by 3rd Embodiment of this invention. 本発明の第4実施形態によるビデオエンコーダの構成を示すブロック図である。It is a block diagram which shows the structure of the video encoder by 4th Embodiment of this invention. 本発明の第4実施形態によるビデオエンコーダの構成を示すブロック図である。It is a block diagram which shows the structure of the video encoder by 4th Embodiment of this invention. 本発明の第1実施形態によるビデオデコーダの構成を示すブロック図である。It is a block diagram which shows the structure of the video decoder by 1st Embodiment of this invention. 本発明の第3実施形態によるビデオデコーダの構成を示すブロック図である。It is a block diagram which shows the structure of the video decoder by 3rd Embodiment of this invention. 本発明の第4実施形態によるビデオデコーダの構成を示すブロック図である。It is a block diagram which shows the structure of the video decoder by 4th Embodiment of this invention. 本発明の第4実施形態によるビデオデコーダの構成を示すブロック図である。It is a block diagram which shows the structure of the video decoder by 4th Embodiment of this invention. 本発明の一実施形態によるビデオエンコーダまたはビデオデコーダを実現するためのシステムの構成図である。1 is a configuration diagram of a system for realizing a video encoder or a video decoder according to an embodiment of the present invention.

符号の説明Explanation of symbols

100、300、400、600 ビデオエンコーダ
700、900、1000、1200 ビデオデコーダ
105 動きベクトル探索部
110、160 動き補償部
120 変換部
125 量子化部
130 逆量子化部
135 逆変換部
150 エントロピー符号化部
155 動きベクトル変更部
170 差分計算部
175 変換部
180 量子化部
701 エントロピー復号化部
705、745 逆量子化部
710、750 逆変換部
720、735 動き補償部
730 動きベクトル変更部
755 フレーム復元部
100, 300, 400, 600 Video encoder 700, 900, 1000, 1200 Video decoder 105 Motion vector search unit 110, 160 Motion compensation unit 120 Conversion unit 125 Quantization unit 130 Inverse quantization unit 135 Inverse conversion unit 150 Entropy encoding unit 155 Motion vector change unit 170 Difference calculation unit 175 Conversion unit 180 Quantization unit 701 Entropy decoding unit 705, 745 Inverse quantization unit 710, 750 Inverse conversion unit 720, 735 Motion compensation unit 730 Motion vector change unit 755 Frame restoration unit

Claims (50)

所定の精度で推定された動きベクトルを用いて現在フレームに対する予測イメージを求めるステップと、
前記現在フレームと前記予測イメージ間の残差を量子化した後、逆量子化することによって現在フレームの復元イメージを生成するステップと、
前記推定された動きベクトルを用いてFGS階層の参照フレームと基礎階層の参照フレームを動き補償するステップと、
前記動き補償されたFGS階層の参照フレームと前記動き補償された基礎階層の参照フレームとの差分を求めるステップと、
前記現在フレームから前記復元イメージ及び前記差分を差し引くステップと、
前記差し引き結果を符号化するステップと、
を含むことを特徴とするFGS基盤のビデオエンコーディング方法。
Obtaining a predicted image for the current frame using a motion vector estimated with a predetermined accuracy;
Generating a restored image of the current frame by quantizing a residual between the current frame and the predicted image and then inverse-quantizing;
Motion-compensating a reference frame of the FGS layer and a reference frame of the base layer using the estimated motion vector;
Obtaining a difference between the reference frame of the motion compensated FGS layer and the reference frame of the motion compensated base layer;
Subtracting the restored image and the difference from the current frame;
Encoding the subtraction result;
A video encoding method based on FGS.
前記推定された動きベクトルを用いてFGS階層の参照フレームと基礎階層の参照フレームを動き補償するステップで用いられる動きベクトルは、前記推定された動きベクトルよりも低い精度を有することを特徴とする請求項1に記載のFGS基盤のビデオエンコーディング方法。   The motion vector used in the step of motion compensation of the reference frame of the FGS layer and the reference frame of the base layer using the estimated motion vector has lower accuracy than the estimated motion vector. Item 4. The FGS-based video encoding method according to Item 1. 前記求めた差分は、FGS階層の順方向参照フレームと基礎階層の順方向参照フレームとの第1差分と、FGS階層の逆方向参照フレームと基礎階層の逆方向参照フレームとの第2差分の平均であることを特徴とする請求項1に記載のFGS基盤のビデオエンコーディング方法。   The obtained difference is an average of the first difference between the forward reference frame in the FGS layer and the forward reference frame in the base layer, and the second difference between the reverse reference frame in the FGS layer and the reverse reference frame in the base layer. The FGS-based video encoding method according to claim 1, wherein: 前記動き補償のために補間が必要な場合に前記現在フレームに対する予測イメージを求めるために使われる補間フィルタと異なる形態の補間フィルタが使われることを特徴とする請求項2に記載のFGS基盤のビデオエンコーディング方法。   3. The FGS-based video according to claim 2, wherein an interpolation filter having a different form from an interpolation filter used for obtaining a prediction image for the current frame is used when interpolation is necessary for the motion compensation. Encoding method. 前記差し引き結果を符号化するステップは、
前記差し引き結果を変換することによって変換係数を生成するステップと、
前記変換係数を量子化して量子化係数を生成するステップと、
前記量子化係数を無損失符号化するステップと、
を含むことを特徴とする請求項1に記載のFGS基盤のビデオエンコーディング方法。
The step of encoding the subtraction result includes:
Generating a conversion coefficient by converting the subtraction result;
Quantizing the transform coefficient to generate a quantized coefficient;
Lossless encoding the quantized coefficients;
The FGS-based video encoding method according to claim 1, further comprising:
前記現在フレームに対する予測イメージを求めるステップは、
前記現在フレーム及び少なくとも1つ以上の基礎階層の復元されたフレームを参照フレームとして動きベクトルを推定するステップと、
前記推定された動きベクトルによって前記参照フレームを動き補償するステップと、
前記動き補償された参照フレームを平均することによって前記予測イメージを求めるステップと、
を含むことを特徴とする請求項1に記載のFGS基盤のビデオエンコーディング方法。
Obtaining a predicted image for the current frame;
Estimating a motion vector using the current frame and the restored frame of at least one base layer as a reference frame;
Motion compensating the reference frame with the estimated motion vector;
Determining the predicted image by averaging the motion compensated reference frames;
The FGS-based video encoding method according to claim 1, further comprising:
前記現在フレームに対する予測イメージを求めるステップは、
前記現在フレーム及び前記現在フレーム周辺のオリジナルフレームを参照フレームとして動きベクトルを推定するステップと、
前記推定された動きベクトルによって前記参照フレームを動き補償するステップと、
前記動き補償された参照フレームを平均することによって前記予測イメージを求めるステップと、
を含むことを特徴とする請求項1に記載のFGS基盤のビデオエンコーディング方法。
Obtaining a predicted image for the current frame;
Estimating a motion vector using the current frame and an original frame around the current frame as a reference frame;
Motion compensating the reference frame with the estimated motion vector;
Determining the predicted image by averaging the motion compensated reference frames;
The FGS-based video encoding method according to claim 1, further comprising:
前記FGS階層の参照フレームは現在フレーム周辺のオリジナルフレームであり、前記基礎階層の参照フレームは基礎階層で復元された周辺フレームであることを特徴とする請求項1に記載のFGS基盤のビデオエンコーディング方法。   The FGS-based video encoding method according to claim 1, wherein the reference frame of the FGS layer is an original frame around the current frame, and the reference frame of the base layer is a peripheral frame restored in the base layer. . 前記FGS階層の参照フレームはFGS階層で復元された周辺フレームであり、前記基礎階層の参照フレームは基礎階層で復元された周辺フレームであることを特徴とする請求項1に記載のFGS基盤のビデオエンコーディング方法。   The FGS-based video of claim 1, wherein the reference frame of the FGS layer is a peripheral frame restored in the FGS layer, and the reference frame of the base layer is a peripheral frame restored in the base layer. Encoding method. 前記残差を量子化するのに使われる量子化ステップの大きさよりも前記変換係数を量子化するのに使われる量子化ステップの大きさが小さいことを特徴とする請求項5に記載のFGS基盤のビデオエンコーディング方法。   6. The FGS base according to claim 5, wherein the magnitude of the quantization step used to quantize the transform coefficient is smaller than the magnitude of the quantization step used to quantize the residual. Video encoding method. 所定の精度で推定された動きベクトルを用いて現在フレームに対する予測イメージを求めるステップと、
前記現在フレームと前記予測イメージ間の残差を量子化した後、逆量子化することによって現在フレームの復元イメージを生成するステップと、
前記推定された動きベクトルを用いてFGS階層の参照フレーム及び基礎階層の参照フレームを動き補償することによって、FGS階層の予測フレーム及び基礎階層の予測フレームを生成するステップと、
前記FGS階層の予測フレームと前記基礎階層の予測フレームとの差分を求めるステップと、
前記現在フレームから前記復元イメージ及び前記差分を差し引くステップと、
前記差し引き結果を符号化するステップと、
を含むことを特徴とするFGS基盤のビデオエンコーディング方法。
Obtaining a predicted image for the current frame using a motion vector estimated with a predetermined accuracy;
Generating a restored image of the current frame by quantizing a residual between the current frame and the predicted image and then inverse-quantizing;
Generating an FGS layer prediction frame and a base layer prediction frame by performing motion compensation on an FGS layer reference frame and a base layer reference frame using the estimated motion vector;
Obtaining a difference between the predicted frame of the FGS layer and the predicted frame of the base layer;
Subtracting the restored image and the difference from the current frame;
Encoding the subtraction result;
A video encoding method based on FGS.
前記推定された動きベクトルを用いてFGS階層の参照フレーム及び基礎階層の参照フレームを動き補償することによって、FGS階層の予測フレーム及び基礎階層の予測フレームを生成するステップで用いられる動きベクトルは、前記推定された動きベクトルよりも低い精度を有することを特徴とする請求項11に記載のFGS基盤のビデオエンコーディング方法。   The motion vector used in the step of generating the prediction frame of the FGS layer and the prediction frame of the base layer by performing motion compensation on the reference frame of the FGS layer and the reference frame of the base layer using the estimated motion vector, The method of claim 11, wherein the FGS-based video encoding method has a lower accuracy than the estimated motion vector. 前記FGS階層の予測フレームは前記動き補償されたFGS階層の参照フレームの平均であり、前記基礎階層の予測フレームは前記動き補償された基礎階層の参照フレームの平均であることを特徴とする請求項11に記載のFGS基盤のビデオエンコーディング方法。   The FGS layer prediction frame is an average of the motion compensated FGS layer reference frames, and the base layer prediction frame is an average of the motion compensated base layer reference frames. The FGS-based video encoding method according to claim 11. 前記動き補償のために補間が必要な場合に前記現在フレームに対する予測イメージを求めるステップで使われる補間フィルタと異なる形態の補間フィルタが使われることを特徴とする請求項12に記載のFGS基盤のビデオエンコーディング方法。   13. The FGS-based video according to claim 12, wherein an interpolation filter having a different form from the interpolation filter used in the step of obtaining a prediction image for the current frame is used when interpolation is required for the motion compensation. Encoding method. 前記差し引き結果を符号化するステップは、
前記差し引き結果を変換することによって変換係数を生成するステップと、
前記変換係数を量子化して量子化係数を生成するステップと、
前記量子化係数を無損失符号化するステップと、
を含むことを特徴とする請求項11に記載のFGS基盤のビデオエンコーディング方法。
The step of encoding the subtraction result includes:
Generating a conversion coefficient by converting the subtraction result;
Quantizing the transform coefficient to generate a quantized coefficient;
Lossless encoding the quantized coefficients;
The FGS-based video encoding method according to claim 11, further comprising:
前記残差を量子化するのに使われる量子化ステップの大きさよりも、前記変換係数を量子化するのに使われる量子化ステップの大きさが小さいことを特徴とする請求項15に記載のFGS基盤のビデオエンコーディング方法。   The FGS according to claim 15, wherein the magnitude of the quantization step used to quantize the transform coefficient is smaller than the magnitude of the quantization step used to quantize the residual. Base video encoding method. 所定の精度で推定された動きベクトルを用いて現在フレームに対する予測イメージを求めるステップと、
前記現在フレームと前記予測イメージ間の残差を量子化した後、逆量子化することによって現在フレームの復元イメージを生成するステップと、
FGS階層の参照フレームと基礎階層の参照フレームとの差分を求めるステップと、
前記推定された動きベクトルを用いて前記差分を動き補償するステップと、
前記現在フレームから前記復元イメージ及び前記動き補償された結果を差し引くステップと、
前記差し引き結果を符号化するステップと、
を含むことを特徴とするFGS基盤のビデオエンコーディング方法。
Obtaining a predicted image for the current frame using a motion vector estimated with a predetermined accuracy;
Generating a restored image of the current frame by quantizing a residual between the current frame and the predicted image and then inverse-quantizing;
Obtaining a difference between the reference frame of the FGS layer and the reference frame of the base layer;
Motion compensating the difference using the estimated motion vector;
Subtracting the restored image and the motion compensated result from the current frame;
Encoding the subtraction result;
A video encoding method based on FGS.
前記動き補償するステップで用いられる動きベクトルは、前記推定された動きベクトルよりも低い精度を有することを特徴とする請求項17に記載のFGS基盤のビデオエンコーディング方法。   The method of claim 17, wherein a motion vector used in the motion compensation step has a lower accuracy than the estimated motion vector. 前記差し引かれる動き補償された結果は、前記動き補償するステップで動き補償された差分の平均であることを特徴とする請求項17に記載のFGS基盤のビデオエンコーディング方法。   The method of claim 17, wherein the subtracted motion compensated result is an average of the motion compensated differences in the motion compensation step. 前記動き補償のために補間が必要な場合に前記現在フレームに対する予測イメージを求めるステップで使われる補間フィルタと異なる形態の補間フィルタが使われることを特徴とする請求項18に記載のFGS基盤のビデオエンコーディング方法。   19. The FGS-based video of claim 18, wherein an interpolation filter having a different form from the interpolation filter used in the step of obtaining a prediction image for the current frame is used when interpolation is required for the motion compensation. Encoding method. 前記差し引き結果を符号化するステップは、
前記差し引き結果を変換することによって変換係数を生成するステップと、
前記変換係数を量子化して量子化係数を生成するステップと、
前記量子化係数を無損失符号化するステップと、
を含むことを特徴とする請求項17に記載のFGS基盤のビデオエンコーディング方法。
The step of encoding the subtraction result includes:
Generating a conversion coefficient by converting the subtraction result;
Quantizing the transform coefficient to generate a quantized coefficient;
Lossless encoding the quantized coefficients;
The FGS-based video encoding method according to claim 17, further comprising:
前記残差を量子化するのに使われる量子化ステップの大きさよりも、前記変換係数を量子化するのに使われる量子化ステップの大きさが小さいことを特徴とする請求項21に記載のFGS基盤のビデオエンコーディング方法。   The FGS of claim 21, wherein the magnitude of the quantization step used to quantize the transform coefficient is smaller than the magnitude of the quantization step used to quantize the residual. Base video encoding method. 所定の精度で推定された動きベクトルを用いて現在フレームに対する予測イメージを求めるステップと、
前記動きベクトルよりも低い精度の動きベクトルによってFGS階層の参照フレームと基礎階層の参照フレームを動き補償するステップと、
前記動き補償されたFGS階層の参照フレームと前記動き補償された基礎階層の参照フレームとの差分を求めるステップと、
前記現在フレームから前記予測イメージ及び前記差分を差し引くステップと、
前記差し引き結果を符号化するステップと、
を含むことを特徴とするFGS基盤のビデオエンコーディング方法。
Obtaining a predicted image for the current frame using a motion vector estimated with a predetermined accuracy;
Motion-compensating the reference frame of the FGS layer and the reference frame of the base layer with a motion vector having a lower accuracy than the motion vector;
Obtaining a difference between the reference frame of the motion compensated FGS layer and the reference frame of the motion compensated base layer;
Subtracting the predicted image and the difference from the current frame;
Encoding the subtraction result;
A video encoding method based on FGS.
所定の精度で推定された動きベクトルを用いて現在フレームに対する予測イメージを求めるステップと、
前記動きベクトルよりも低い精度の動きベクトルによってFGS階層の参照フレーム及び基礎階層の参照フレームを動き補償することによって、FGS階層の予測フレーム及び基礎階層の予測フレームを生成するステップと、
前記FGS階層の予測フレームと前記基礎階層の予測フレームとの差分を求めるステップと、
前記現在フレームから前記予測イメージ及び前記差分を差し引くステップと、
前記差し引き結果を符号化するステップと、
を含むことを特徴とするFGS基盤のビデオエンコーディング方法。
Obtaining a predicted image for the current frame using a motion vector estimated with a predetermined accuracy;
Generating a FGS layer predicted frame and a base layer predicted frame by motion compensating the FGS layer reference frame and the base layer reference frame with a motion vector having a lower accuracy than the motion vector;
Obtaining a difference between the predicted frame of the FGS layer and the predicted frame of the base layer;
Subtracting the predicted image and the difference from the current frame;
Encoding the subtraction result;
A video encoding method based on FGS.
前記求めた差分に加重因子(α)を掛けるステップをさらに含むことを特徴とする請求項24に記載のFGS基盤のビデオエンコーディング方法。   The method of claim 24, further comprising multiplying the obtained difference by a weighting factor (α). 所定の精度で推定された動きベクトルを用いて現在フレームに対する予測イメージを求めるステップと、
FGS階層の参照フレームと基礎階層の参照フレームとの差分を求めるステップと、
前記動きベクトルよりも低い精度の動きベクトルによって前記差分を動き補償するステップと、
前記現在フレームから前記復元イメージ及び前記動き補償された結果を差し引くステップと、
前記差し引き結果を符号化するステップと、
を含むことを特徴とするFGS基盤のビデオエンコーディング方法。
Obtaining a predicted image for the current frame using a motion vector estimated with a predetermined accuracy;
Obtaining a difference between the reference frame of the FGS layer and the reference frame of the base layer;
Motion-compensating the difference with a motion vector that is less accurate than the motion vector;
Subtracting the restored image and the motion compensated result from the current frame;
Encoding the subtraction result;
A video encoding method based on FGS.
入力されたビットストリームから基礎階層のテクスチャデータと、FGS階層のテクスチャデータと、動きベクトルとを抽出するステップと、
前記基礎階層のテクスチャデータから基礎階層フレームを復元するステップと、
前記動きベクトルを用いてFGS階層の参照フレームと基礎階層の参照フレームを動き補償するステップと、
前記動き補償されたFGS階層の参照フレームと前記動き補償された基礎階層の参照フレームとの差分を求めるステップと、
前記基礎階層フレーム、前記FGS階層のテクスチャデータ、及び前記差分を加算するステップと、
を含むことを特徴とするFGS基盤のビデオデコーディング方法。
Extracting base layer texture data, FGS layer texture data, and motion vectors from the input bitstream;
Restoring a base layer frame from the base layer texture data;
Using the motion vector to perform motion compensation of a reference frame of an FGS layer and a reference frame of a base layer;
Obtaining a difference between the reference frame of the motion compensated FGS layer and the reference frame of the motion compensated base layer;
Adding the base layer frame, the texture data of the FGS layer, and the difference;
An FGS-based video decoding method comprising:
前記動き補償ステップで用いられる動きベクトルは、前記抽出された動きベクトルよりも低い精度を有することを特徴とする請求項27に記載のFGS基盤のビデオデコーディング方法。   The method of claim 27, wherein the motion vector used in the motion compensation step has a lower accuracy than the extracted motion vector. 前記差分は、FGS階層の順方向参照フレームと基礎階層の順方向参照フレームとの第1差分と、FGS階層の逆方向参照フレームと基礎階層の逆方向参照フレームとの第2差分の平均であることを特徴とする請求項27に記載のFGS基盤のビデオデコーディング方法。   The difference is an average of the first difference between the forward reference frame in the FGS layer and the forward reference frame in the base layer, and the second difference between the reverse reference frame in the FGS layer and the reverse reference frame in the base layer. 28. The FGS-based video decoding method according to claim 27. 前記動き補償のために補間が必要な場合に前記基礎階層フレームを復元するステップで使われる補間フィルタと異なる形態の補間フィルタが使われることを特徴とする請求項28に記載のFGS基盤のビデオデコーディング方法。   29. The FGS-based video data according to claim 28, wherein an interpolation filter having a different form from the interpolation filter used in the step of restoring the base layer frame is used when interpolation is required for the motion compensation. Coding method. 前記加算されるFGS階層のテクスチャデータは、前記抽出されたFGS階層のテクスチャデータに対して逆量子化過程及び逆変換過程を行った結果であることを特徴とする請求項27に記載のFGS基盤のビデオデコーディング方法。   The FGS base according to claim 27, wherein the texture data of the FGS layer to be added is a result of performing an inverse quantization process and an inverse transform process on the extracted texture data of the FGS layer. Video decoding method. 前記基礎階層フレームを復元するステップは、
前記基礎階層のテクスチャ情報を逆量子化するステップと、
前記逆量子化結果を逆変換するステップと、
前記動きベクトルを用いて先に復元された基礎階層の参照フレームから予測イメージを生成するステップと、
前記予測イメージと前記逆変換結果を加算するステップと、
を含むことを特徴とする請求項31に記載のFGS基盤のビデオデコーディング方法。
Restoring the base layer frame comprises:
Dequantizing the base layer texture information;
Inverse transforming the inverse quantization result;
Generating a predicted image from a reference frame of a base layer previously restored using the motion vector;
Adding the prediction image and the inverse transformation result;
32. The FGS-based video decoding method according to claim 31, further comprising:
前記基礎階層フレームを復元するステップの逆量子化で使われる量子化ステップの大きさよりも、前記FGS階層のテクスチャデータに対して適用される逆量子化で使われる量子化ステップの大きさが小さいことを特徴とする請求項32に記載のFGS基盤のビデオデコーディング方法。   The size of the quantization step used in the inverse quantization applied to the texture data of the FGS layer is smaller than the size of the quantization step used in the inverse quantization of the step of restoring the base layer frame. 33. The FGS-based video decoding method according to claim 32, wherein: 入力されたビットストリームから基礎階層のテクスチャデータと、FGS階層のテクスチャデータと、動きベクトルとを抽出するステップと、
前記基礎階層のテクスチャデータから基礎階層フレームを復元するステップと、
前記動きベクトルを用いてFGS階層の参照フレーム及び基礎階層の参照フレームを動き補償することによって、FGS階層の予測フレーム及び基礎階層の予測フレームを生成するステップと、
前記FGS階層の予測フレームと前記基礎階層の予測フレームとの差分を求めるステップと、
前記テクスチャデータ、前記復元された基礎階層フレーム及び前記差分を加算するステップと、
を含むことを特徴とするFGS基盤のビデオデコーディング方法。
Extracting base layer texture data, FGS layer texture data, and motion vectors from the input bitstream;
Restoring a base layer frame from the base layer texture data;
Generating a FGS layer prediction frame and a base layer prediction frame by motion-compensating an FGS layer reference frame and a base layer reference frame using the motion vector;
Obtaining a difference between the predicted frame of the FGS layer and the predicted frame of the base layer;
Adding the texture data, the restored base layer frame and the difference;
An FGS-based video decoding method comprising:
前記動き補償で用いられる動きベクトルは、前記抽出された動きベクトルよりも低い精度を有することを特徴とする請求項34に記載のFGS基盤のビデオデコーディング方法。   The method of claim 34, wherein the motion vector used in the motion compensation has a lower accuracy than the extracted motion vector. 前記動き補償のために補間が必要な場合に前記基礎階層フレームを復元するステップで使われる補間フィルタと異なる形態の補間フィルタが使われることを特徴とする請求項35に記載のFGS基盤のビデオデコーディング方法。   The FGS-based video data according to claim 35, wherein an interpolation filter having a different form from the interpolation filter used in the step of restoring the base layer frame is used when interpolation is required for the motion compensation. Coding method. 前記加算されるFGS階層のテクスチャデータは、前記抽出されたFGS階層のテクスチャデータに対して逆量子化過程及び逆変換過程を行った結果であることを特徴とする請求項34に記載のFGS基盤のビデオデコーディング方法。   The FGS base according to claim 34, wherein the texture data of the FGS layer to be added is a result of performing an inverse quantization process and an inverse transform process on the extracted texture data of the FGS layer. Video decoding method. 入力されたビットストリームから基礎階層のテクスチャデータと、FGS階層のテクスチャデータと、動きベクトルとを抽出するステップと、
前記基礎階層のテクスチャデータから基礎階層フレームを復元するステップと、
FGS階層の参照フレームと基礎階層の参照フレームとの差分を求めるステップと、
前記動きベクトルを用いて前記差分を動き補償するステップと、
前記FGS階層のテクスチャデータ、前記復元された基礎階層フレーム、及び前記動き補償された結果を加算するステップと、
を含むことを特徴とするFGS基盤のビデオデコーディング方法。
Extracting base layer texture data, FGS layer texture data, and motion vectors from the input bitstream;
Restoring a base layer frame from the base layer texture data;
Obtaining a difference between the reference frame of the FGS layer and the reference frame of the base layer;
Motion compensating the difference using the motion vector;
Adding the FGS layer texture data, the restored base layer frame, and the motion compensated result;
An FGS-based video decoding method comprising:
前記加算される動き補償された結果は、前記動き補償された差分の平均であることを特徴とする請求項38に記載のFGS基盤のビデオデコーディング方法。   The method of claim 38, wherein the added motion compensated result is an average of the motion compensated differences. 前記差分を動き補償するステップで用いられる動きベクトルは、前記抽出された動きベクトルよりも低い精度を有することを特徴とする請求項38に記載のFGS基盤のビデオデコーディング方法。   The FGS-based video decoding method of claim 38, wherein a motion vector used in the motion compensation of the difference has a lower accuracy than the extracted motion vector. 前記動き補償のために補間が必要な場合に前記基礎階層フレームを復元するステップで使われる補間フィルタと異なる形態の補間フィルタが使われることを特徴とする請求項40に記載のFGS基盤のビデオデコーディング方法。   The FGS-based video data according to claim 40, wherein an interpolation filter having a different form from the interpolation filter used in the step of restoring the base layer frame is used when interpolation is necessary for the motion compensation. Coding method. 前記加算されるFGS階層のテクスチャデータは、前記抽出されたFGS階層のテクスチャデータに対して逆量子化過程及び逆変換過程を行った結果であることを特徴とする請求項38に記載のFGS基盤のビデオデコーディング方法。   The FGS base according to claim 38, wherein the texture data of the added FGS layer is a result of performing an inverse quantization process and an inverse transform process on the extracted texture data of the FGS layer. Video decoding method. 入力されたビットストリームから基礎階層のテクスチャデータと、FGS階層のテクスチャデータと、動きベクトルとを抽出するステップと、
前記抽出された動きベクトルを用いて前記基礎階層のテクスチャデータから基礎階層フレームの予測イメージを復元するステップと、
前記動きベクトルよりも低い精度の動きベクトルによってFGS階層の参照フレームと基礎階層の参照フレームを動き補償するステップと、
前記動き補償されたFGS階層の参照フレームと前記動き補償された基礎階層の参照フレームとの差分を求めるステップと、
前記FGS階層のテクスチャデータ、前記予測イメージ、及び前記差分を加算するステップと、
を含むことを特徴とするFGS基盤のビデオデコーディング方法。
Extracting base layer texture data, FGS layer texture data, and motion vectors from the input bitstream;
Restoring the predicted image of the base layer frame from the texture data of the base layer using the extracted motion vector;
Motion-compensating the reference frame of the FGS layer and the reference frame of the base layer with a motion vector having a lower accuracy than the motion vector;
Obtaining a difference between the reference frame of the motion compensated FGS layer and the reference frame of the motion compensated base layer;
Adding the FGS layer texture data, the predicted image, and the difference;
An FGS-based video decoding method comprising:
入力されたビットストリームから基礎階層のテクスチャデータと、FGS階層のテクスチャデータと、動きベクトルとを抽出するステップと、
前記抽出された動きベクトルを用いて前記基礎階層のテクスチャデータから基礎階層フレームの予測イメージを復元するステップと、
前記動きベクトルよりも低い精度の動きベクトルによってFGS階層の参照フレーム及び基礎階層の参照フレームを動き補償することによって、FGS階層の予測フレーム及び基礎階層の予測フレームを生成するステップと、
前記FGS階層の予測フレームと前記基礎階層の予測フレームとの差分を求めるステップと、
前記FGS階層のテクスチャデータ、前記予測イメージ、及び前記差分を加算するステップと、
を含むことを特徴とするFGS基盤のビデオデコーディング方法。
Extracting base layer texture data, FGS layer texture data, and motion vectors from the input bitstream;
Restoring the predicted image of the base layer frame from the texture data of the base layer using the extracted motion vector;
Generating a FGS layer predicted frame and a base layer predicted frame by motion compensating the FGS layer reference frame and the base layer reference frame with a motion vector having a lower accuracy than the motion vector;
Obtaining a difference between the predicted frame of the FGS layer and the predicted frame of the base layer;
Adding the FGS layer texture data, the predicted image, and the difference;
An FGS-based video decoding method comprising:
前記求めた差分に加重因子(α)を掛けるステップをさらに含むことを特徴とする請求項44に記載のFGS基盤のビデオデコーディング方法。   45. The FGS-based video decoding method according to claim 44, further comprising a step of multiplying the obtained difference by a weighting factor ([alpha]). 入力されたビットストリームから基礎階層のテクスチャデータと、FGS階層のテクスチャデータと、動きベクトルとを抽出するステップと、
前記抽出された動きベクトルを用いて前記基礎階層のテクスチャデータから基礎階層フレームの予測イメージを復元するステップと、
FGS階層の参照フレームと基礎階層の参照フレームとの差分を求めるステップと、
前記動きベクトルよりも低い精度の動きベクトルによって前記差分を動き補償するステップと、
前記FGS階層のテクスチャデータ、前記予測イメージ、及び前記差分を加算するステップと、
を含むことを特徴とするFGS基盤のビデオデコーディング方法。
Extracting base layer texture data, FGS layer texture data, and motion vectors from the input bitstream;
Restoring the predicted image of the base layer frame from the texture data of the base layer using the extracted motion vector;
Obtaining a difference between the reference frame of the FGS layer and the reference frame of the base layer;
Motion-compensating the difference with a motion vector that is less accurate than the motion vector;
Adding the FGS layer texture data, the predicted image, and the difference;
An FGS-based video decoding method comprising:
所定の精度で推定された動きベクトルを用いて現在フレームに対する予測イメージを求める手段と、
前記現在フレームと前記予測イメージ間の残差を量子化した後、逆量子化することによって現在フレームの復元イメージを生成する手段と、
前記推定された動きベクトルを用いてFGS階層の参照フレーム及び基礎階層の参照フレームを動き補償することによってFGS階層の予測フレーム及び基礎階層の予測フレームを生成する手段と、
前記FGS階層の予測フレームと前記基礎階層の予測フレームとの差分を求める手段と、
前記現在フレームから前記復元イメージ及び前記差分を差し引く手段と、
前記差し引き結果を符号化する手段と、
を含むことを特徴とするFGS基盤のビデオエンコーダ。
Means for obtaining a predicted image for the current frame using a motion vector estimated with a predetermined accuracy;
Means for generating a reconstructed image of the current frame by dequantizing the residual between the current frame and the predicted image and then dequantizing;
Means for generating a prediction frame of the FGS layer and a prediction frame of the base layer by performing motion compensation on the reference frame of the FGS layer and the reference frame of the base layer using the estimated motion vector;
Means for obtaining a difference between the prediction frame of the FGS layer and the prediction frame of the base layer;
Means for subtracting the restored image and the difference from the current frame;
Means for encoding the subtraction result;
A video encoder based on FGS, comprising:
前記FGS階層の予測フレーム及び基礎階層の予測フレームを生成する手段で用いられる動きベクトルは、前記推定された動きベクトルよりも低い精度を有することを特徴とする請求項47に記載のFGS基盤のビデオエンコーダ。   The FGS-based video of claim 47, wherein a motion vector used in the means for generating the FGS layer prediction frame and the base layer prediction frame has lower accuracy than the estimated motion vector. Encoder. 入力されたビットストリームから基礎階層のテクスチャデータと、FGS階層のテクスチャデータと、動きベクトルとを抽出する手段と、
前記基礎階層のテクスチャデータから基礎階層フレームを復元する手段と、
前記動きベクトルを用いてFGS階層の参照フレーム及び基礎階層の参照フレームを動き補償することによって、FGS階層の予測フレーム及び基礎階層の予測フレームを生成する手段と、
前記FGS階層の予測フレームと前記基礎階層の予測フレームとの差分を求める手段と、
前記テクスチャデータ、前記復元された基礎階層フレーム及び前記差分を加算する手段と、
を含むことを特徴とするFGS基盤のビデオデコーダ。
Means for extracting texture data of the base layer, texture data of the FGS layer, and a motion vector from the input bitstream;
Means for restoring a base layer frame from the base layer texture data;
Means for generating a FGS layer prediction frame and a base layer prediction frame by motion-compensating an FGS layer reference frame and a base layer reference frame using the motion vector;
Means for obtaining a difference between the prediction frame of the FGS layer and the prediction frame of the base layer;
Means for adding the texture data, the restored base layer frame and the difference;
A video decoder based on FGS.
前記動き補償で用いられる動きベクトルは、前記抽出された動きベクトルよりも低い精度を有することを特徴とする請求項49に記載のFGS基盤のビデオデコーダ。   50. The FGS-based video decoder of claim 49, wherein a motion vector used in the motion compensation has a lower accuracy than the extracted motion vector.
JP2008508745A 2005-04-29 2006-04-20 Video coding method and apparatus for providing high-speed FGS Pending JP2008539646A (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US67592105P 2005-04-29 2005-04-29
KR1020050052428A KR100703778B1 (en) 2005-04-29 2005-06-17 Method and apparatus for coding video supporting fast FGS
PCT/KR2006/001471 WO2006118383A1 (en) 2005-04-29 2006-04-20 Video coding method and apparatus supporting fast fine granular scalability

Publications (1)

Publication Number Publication Date
JP2008539646A true JP2008539646A (en) 2008-11-13

Family

ID=37308152

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008508745A Pending JP2008539646A (en) 2005-04-29 2006-04-20 Video coding method and apparatus for providing high-speed FGS

Country Status (6)

Country Link
EP (1) EP1878261A1 (en)
JP (1) JP2008539646A (en)
AU (1) AU2006241637A1 (en)
CA (1) CA2609648A1 (en)
RU (1) RU2340115C1 (en)
WO (1) WO2006118383A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011077721A (en) * 2009-09-29 2011-04-14 Victor Co Of Japan Ltd Image encoding device, image decoding device, image encoding method, and image decoding method

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
BRPI0813122A2 (en) 2007-07-02 2015-08-04 Nippon Telegraph & Telephone Encoding method and scalable video decoding method, apparatus and programs therefor, and storage media for storing programs
KR101624649B1 (en) * 2009-08-14 2016-05-26 삼성전자주식회사 Method and apparatus for video encoding considering hierarchical coded block pattern, and method and apparatus for video decoding considering hierarchical coded block pattern
ES2604202T3 (en) 2011-03-10 2017-03-03 Nippon Telegraph And Telephone Corporation Quantification control device and procedure, and quantification control program
RU2607998C9 (en) * 2012-03-28 2017-07-07 ДжейВиСи КЕНВУД КОРПОРЕЙШН Picture coding device, picture coding method, and picture coding program, and picture decoding device, picture decoding method, and picture decoding program
GB2501535A (en) * 2012-04-26 2013-10-30 Sony Corp Chrominance Processing in High Efficiency Video Codecs
CN104685881B (en) 2012-09-28 2018-05-15 夏普株式会社 Picture decoding apparatus, picture coding device and picture decoding method
CN114071156A (en) * 2021-11-16 2022-02-18 广东博华超高清创新中心有限公司 DVS data generation method based on AVS motion estimation coding

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6614936B1 (en) * 1999-12-03 2003-09-02 Microsoft Corporation System and method for robust video coding using progressive fine-granularity scalable (PFGS) coding

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011077721A (en) * 2009-09-29 2011-04-14 Victor Co Of Japan Ltd Image encoding device, image decoding device, image encoding method, and image decoding method

Also Published As

Publication number Publication date
AU2006241637A1 (en) 2006-11-09
CA2609648A1 (en) 2006-11-09
WO2006118383A1 (en) 2006-11-09
RU2340115C1 (en) 2008-11-27
EP1878261A1 (en) 2008-01-16

Similar Documents

Publication Publication Date Title
KR100703778B1 (en) Method and apparatus for coding video supporting fast FGS
KR100703788B1 (en) Video encoding method, video decoding method, video encoder, and video decoder, which use smoothing prediction
KR100763182B1 (en) Method and apparatus for coding video using weighted prediction based on multi-layer
KR100746011B1 (en) Method for enhancing performance of residual prediction, video encoder, and video decoder using it
RU2341035C1 (en) Video signal coding and decoding procedure based on weighted prediction and related device for implementation thereof
KR100714696B1 (en) Method and apparatus for coding video using weighted prediction based on multi-layer
KR100763194B1 (en) Intra base prediction method satisfying single loop decoding condition, video coding method and apparatus using the prediction method
US20060120448A1 (en) Method and apparatus for encoding/decoding multi-layer video using DCT upsampling
KR100714689B1 (en) Method for multi-layer based scalable video coding and decoding, and apparatus for the same
KR100703760B1 (en) Video encoding/decoding method using motion prediction between temporal levels and apparatus thereof
KR100763179B1 (en) Method for compressing/Reconstructing motion vector of unsynchronized picture and apparatus thereof
KR20060135992A (en) Method and apparatus for coding video using weighted prediction based on multi-layer
KR20020090239A (en) Improved prediction structures for enhancement layer in fine granular scalability video coding
KR20070101088A (en) Multi-layer based video encoding method and apparatus thereof
JP2008539646A (en) Video coding method and apparatus for providing high-speed FGS
KR100703746B1 (en) Video coding method and apparatus for predicting effectively unsynchronized frame
US20070014356A1 (en) Video coding method and apparatus for reducing mismatch between encoder and decoder
KR100818921B1 (en) Motion vector compression method, video encoder and video decoder using the method
JP2005160084A (en) Apparatus and method for processing video for implementing snr (signal to noise ratio) scalability
KR100703751B1 (en) Method and apparatus for encoding and decoding referencing virtual area image
WO2006132509A1 (en) Multilayer-based video encoding method, decoding method, video encoder, and video decoder using smoothing prediction
WO2007024106A1 (en) Method for enhancing performance of residual prediction and video encoder and decoder using the same
WO2007027012A1 (en) Video coding method and apparatus for reducing mismatch between encoder and decoder

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110308

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110802