JP5529537B2 - Method and apparatus for multi-path video encoding and decoding - Google Patents

Method and apparatus for multi-path video encoding and decoding Download PDF

Info

Publication number
JP5529537B2
JP5529537B2 JP2009529167A JP2009529167A JP5529537B2 JP 5529537 B2 JP5529537 B2 JP 5529537B2 JP 2009529167 A JP2009529167 A JP 2009529167A JP 2009529167 A JP2009529167 A JP 2009529167A JP 5529537 B2 JP5529537 B2 JP 5529537B2
Authority
JP
Japan
Prior art keywords
path
motion
video
coding
residual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009529167A
Other languages
Japanese (ja)
Other versions
JP2010504689A (en
Inventor
ベイベイ ワン
ペン イン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thomson Licensing SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Publication of JP2010504689A publication Critical patent/JP2010504689A/en
Application granted granted Critical
Publication of JP5529537B2 publication Critical patent/JP5529537B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/583Motion compensation with overlapping blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/43Hardware specially adapted for motion estimation or compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/63Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using sub-band based transform, e.g. wavelets
    • H04N19/635Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using sub-band based transform, e.g. wavelets characterised by filter definition or implementation details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/86Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving reduction of coding artifacts, e.g. of blockiness
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/97Matching pursuit coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

[関連出願の表示]
本出願は、2006年9月22日に出願され、「複数経路ビデオ符号化及び復号化のための方法及び装置(METHOD AND APPARATUS FOR MULTIPLE PASS VIDEO CODING AND DECODING)」と題されたPCT国際出願第PCT/US2006/037139号の利益を請求し、このPCT国際出願第PCT/US2006/037139号は、本出願に含めるものとする。
[Display related applications]
This application is filed on Sep. 22, 2006, and is entitled “METHOD AND APPARATUS FOR MULTIPLE PASS VIDEO VIDEO CODING AND DECODING”. The benefit of PCT / US2006 / 037139 is claimed, and this PCT International Application No. PCT / US2006 / 037139 is included in this application.

本発明は、ビデオ符号化及び復号化に関し、特に、複数経路ビデオ符号化及び復号化のための方法及び装置に関する。   The present invention relates to video encoding and decoding, and more particularly to a method and apparatus for multi-path video encoding and decoding.

現在では、国際標準化機構/国際電気標準会議(ISO/IEC)ムービング・ピクチャー・エクスパーツ・グループ−4(MPEG−4)第10部高度ビデオ符号化(AVC)規格/国際電気通信連合電気通信部門(ITU−T)H.264規格(これ以降、「MPEG4/H.264規格」又は単純に「H.264規格」と呼ぶ)が、最も有力且つ最新のビデオ符号化規格である。全ての別のビデオ符号化規格と同様にH.264規格は、ブロックに基づいた動き補償及び離散コサイン変換(DCT)のような変換符号化を使用する。DCTがビデオ符号化に効率的であり、且つブロードキャスト高精細テレビ(HDTV)のようなハイエンドアプリケーションに適していることは、周知である。しかしながら、DCTアルゴリズムは、専用ビデオ携帯電話等の非常に低いビットレートを必要とするアプリケーションには、適していない。非常に低いビットレートでは、DCT変換は、デブロッキングフィルタを使用してもブロッキングアーティファクトを取り入れてしまう。なぜなら、非常に少しの係数だけが非常に低いビットレートで符号化され、各係数は、非常に粗い量子化ステップを有する傾向があるからである。   Currently, International Organization for Standardization / International Electrotechnical Commission (ISO / IEC) Moving Picture Experts Group-4 (MPEG-4) Part 10 Advanced Video Coding (AVC) Standard / International Telecommunication Union Telecommunication Division (ITU-T) H. The H.264 standard (hereinafter referred to as “MPEG4 / H.264 standard” or simply “H.264 standard”) is the most powerful and latest video coding standard. As with all other video coding standards, H.264. The H.264 standard uses block-based motion compensation and transform coding such as discrete cosine transform (DCT). It is well known that DCT is efficient for video coding and is suitable for high end applications such as broadcast high definition television (HDTV). However, the DCT algorithm is not suitable for applications that require very low bit rates, such as dedicated video cell phones. At very low bit rates, the DCT transform introduces blocking artifacts even when using a deblocking filter. This is because only very few coefficients are encoded at a very low bit rate, and each coefficient tends to have a very coarse quantization step.

マッチング追跡(matching pursuits)(MP)は、貪欲(greedy)アルゴリズムであり、関数の冗長辞書から選択される波形の線形範囲に任意の信号を分解する。これらの波形は、信号構成・構造に最も一致するように選択される。   Matching pursuits (MP) is a greedy algorithm that decomposes an arbitrary signal into a linear range of waveforms selected from a redundant dictionary of functions. These waveforms are selected to best match the signal configuration / structure.

ここで、1−D個の信号f(t)を有し、過完備(over−complete)辞書セットGからの基底ベクトルを使用してこの信号を分解したいと仮定する。個々の辞書関数は、以下のように表わすことができる。   Now suppose that we have 1-D signals f (t) and we want to decompose this signal using basis vectors from an over-complete dictionary set G. Individual dictionary functions can be expressed as follows:

Figure 0005529537
Figure 0005529537

ここで、γは、特定の辞書要素に関連付けられた添え字のパラメータである。分解は、γを選択することにより始まり、以下のように内積の絶対値を最大化する。   Here, γ is a subscript parameter associated with a specific dictionary element. The decomposition begins by selecting γ and maximizes the absolute value of the inner product as follows:

Figure 0005529537
Figure 0005529537

その後、残差信号が以下のように計算される。   The residual signal is then calculated as follows:

Figure 0005529537
Figure 0005529537

その後、この残差信号は、元の信号と同じように展開される。このような処置は、決められた数の展開係数が生成されるか、残差のための幾つかのエネルギ閾値に達するまで反復して続けられる。各段階nにおいて、辞書関数γnが生成される。全M段階の後、信号は、以下のように辞書の線形関数により近似され獲得する。 This residual signal is then developed in the same way as the original signal. Such a procedure continues iteratively until a determined number of expansion factors are generated or several energy thresholds for the residual are reached. At each stage n, a dictionary function γ n is generated. After all M stages, the signal is approximated and acquired by a linear function of the dictionary as follows:

Figure 0005529537
Figure 0005529537

nサンプルの信号のマッチング追跡分解の複雑性は、k・N・d・nlog2nのオーダであることがわかっている。ここで、dは、変換を考慮しない辞書のサイズに依存しており、Nは、選択した展開係数の数であり、定数kは、辞書関数を選択する方策に依存している。高度な過完備辞書を与えると、マッチング追跡は、H.264規格において使用される8×8及び4×4DCT整数変換よりもより計算量を消費し、複雑性は、O(nlog2n)として定義される。 It has been found that the complexity of the matching tracking decomposition of an n-sample signal is on the order of k · N · d · nlog 2 n. Here, d is dependent on the size of the dictionary that does not consider conversion, N is the number of selected expansion coefficients, and the constant k depends on the policy for selecting the dictionary function. Given an advanced overcomplete dictionary, matching tracking It is more computationally intensive than the 8 × 8 and 4 × 4 DCT integer transforms used in the H.264 standard, and the complexity is defined as O (nlog 2 n).

通常では、マッチング追跡アルゴリズムは、任意の1組の冗長基底形状に対応している。ガボール(Gabor)関数の過完備基底を使用して信号を展開することが提案されている。2−Dガボール辞書は、非常に冗長性があり、各形状は、符号化された残差画像における整数ピクセル位置に存在してもよい。マッチング追跡は、より大きな辞書セットを有し且つ各符号化された基底関数は、残差信号における構造に良く一致するので、フレームに基づいたガボール辞書は、人為的なブロック構造を含んでいない。   Usually, the matching tracking algorithm corresponds to an arbitrary set of redundant base shapes. It has been proposed to develop the signal using an overcomplete basis of the Gabor function. The 2-D Gabor dictionary is very redundant and each shape may be at an integer pixel location in the encoded residual image. Matching tracking has a larger dictionary set and each encoded basis function matches well with the structure in the residual signal, so the frame-based Gabor dictionary does not contain an artificial block structure.

ガボール冗長辞書セットが、マッチング追跡アルゴリズムを使用する提案されたビデオ符号化システム(これ以降、「従来のガボールに基づいたマッチング追跡ビデオ符号化手法」と呼ぶ)について、マッチング追跡に基づいた非常に低いビットレートビデオ符号化のために採用された。提案されたシステムは、非常に低いビットレート画像符号化のためのシミュレーションモデル、又は略して「SIM3」と称される低いビットレートハイブリッドDCTシステムのフレームワークに基づいており、DCT残差符号器が、マッチング追跡符号器と置き換えられる。この符号器は、マッチング追跡を使用し、動き残差画像を辞書切り離し可能な2−Dガボール関数に分解する。提案されたシステムは、低いビットレートにおいて低い動きシーケンスを十分実行することを示した。   Gabor Redundant Dictionary Set is very low based on matching tracking for the proposed video coding system using matching tracking algorithm (hereinafter referred to as “the traditional matching tracking video coding method based on Gabor”) Adopted for bit rate video coding. The proposed system is based on a simulation model for very low bit rate image coding, or a framework of a low bit rate hybrid DCT system, referred to as “SIM3” for short, with a DCT residual encoder , Replaced with a matching tracking encoder. This encoder uses matching tracking and decomposes motion residual images into 2-D Gabor functions that can be lexicographically separated. The proposed system has been shown to perform well with low motion sequences at low bit rates.

滑らかな16×16サイン二乗窓(sin−squared window)が、従来のガボールに基づいたマッチング追跡ビデオ符号化手法における8×8パーティションのための予測画像に適用された。従来のガボールに基づいたマッチング追跡ビデオ符号化手法におけるマッチング追跡ビデオコーデックは、ITU−TH.263コーデックに基づいている。しかしながら、H.264規格は、輝度動き補償のために、4×4程度の小ささであってもよい小さなブロックサイズを有する可変ブロックサイズ動き補償を可能にする。さらに、H.264規格は、大部分の別の顕著な従来のビデオ符号化技術のような8×8ではなく、ベースラインプロファイル及びメインプロファイルのために4×4DCTのような変換に主に基づいている。イントラ符号化のための方向空間予測は、予測信号の質を向上させる。全てのこれら強調された特徴・構成は、H.264規格をより効率的にするが、マッチング追跡をH.264規格に適用するときに、より複雑にされた状況を取り扱うことを要求する。滑らかな16×16サイン二乗窓は、以下のように示される。   A smooth 16 × 16 sine-squared window was applied to the predicted image for the 8 × 8 partition in the traditional Gabor-based matching tracking video coding approach. The matching tracking video codec in the conventional tracking tracking video coding method based on Gabor is ITU-TH. Based on H.263 codec. However, H.C. The H.264 standard allows variable block size motion compensation with a small block size that may be as small as 4 × 4 for luminance motion compensation. Further, H.C. The H.264 standard is primarily based on transforms such as 4x4 DCT for the baseline and main profiles, rather than 8x8 as most other prominent conventional video coding techniques. Directional space prediction for intra coding improves the quality of the predicted signal. All these highlighted features / configurations are H.264 standard is more efficient, but matching tracking is It requires handling more complex situations when applying to the H.264 standard. A smooth 16 × 16 sine square window is shown as follows:

Figure 0005529537
Figure 0005529537

ハイブリッド符号化方式(これ以降、「従来のハイブリッド符号化方式」と呼ぶ)により、動き推定のためのH.264規格により導入される特徴・構成の一部から恩恵を受け且つ空間領域における変換を置き換えることが提案された。予測エラーは、適切に設計された2次元異方性冗長辞書により信号を分解するマッチング追跡アルゴリズムを使用して符号化される。さらに、迅速なアトム検索技術が導入された。しかしながら、提案された従来のハイブリッド符号化方式は、当該提案された従来のハイブリッド符号化方式が1経路方式又は2経路方式を使用するかどうかを扱っていない。さらに、提案された従来のハイブリッド符号化方式は、動き推定部がH.264規格に対応しているが、任意のデブロッキングフィルタが符号化方式に使用されるかどうか、又は任意の他の方法が、非常に低いビットレートにおいて予測画像により生ずるブロッキングアーティファクトを平滑化するのに使用されるかどうかを扱っていない。   A hybrid coding scheme (hereinafter referred to as “conventional hybrid coding scheme”) is used for H.264 for motion estimation. It was proposed to benefit from some of the features and structures introduced by the H.264 standard and to replace the transformation in the spatial domain. Prediction errors are encoded using a matching tracking algorithm that decomposes the signal with an appropriately designed two-dimensional anisotropic redundancy dictionary. In addition, rapid atom search technology was introduced. However, the proposed conventional hybrid coding scheme does not deal with whether the proposed conventional hybrid coding scheme uses a one-path scheme or a two-path scheme. Further, in the proposed conventional hybrid coding system, the motion estimation unit is H.264. H.264 standard, but whether any deblocking filter is used for the encoding scheme, or any other method smooths the blocking artifacts caused by the predicted image at very low bit rates. Does not deal with whether or not used.

従来技術の上記及び別の欠点及び不利益は、本発明により解消される。本発明は、複数経路ビデオ符号化及び復号化のための方法及び装置に関する。   The above and other disadvantages and disadvantages of the prior art are overcome by the present invention. The present invention relates to a method and apparatus for multi-path video encoding and decoding.

本発明のある形態によれば、複数経路ビデオ符号化方式を使用してビデオ信号データを符号化するビデオ符号器が提供される。ビデオ符号器は、動き推定器及び分解モジュールを含んでいる。動き推定器は、ビデオ信号データに動き推定を実行し、第1の符号化経路におけるビデオ信号データに対応する動き残差を獲得する。分解モジュールは、動き推定器と信号通信可能であり、後の符号化経路において動き残差を分解する。   According to one aspect of the present invention, a video encoder is provided for encoding video signal data using a multi-path video encoding scheme. The video encoder includes a motion estimator and a decomposition module. The motion estimator performs motion estimation on the video signal data and obtains a motion residual corresponding to the video signal data in the first coding path. The decomposition module is in signal communication with the motion estimator and decomposes the motion residual in a later coding path.

本発明の別の形態によれば、複数経路ビデオ符号化方式を使用してビデオ信号データを符号化する方法が提供される。当該方法は、ビデオ信号データに動き推定を実行し、第1の符号化経路におけるビデオ信号データに対応する動き残差を獲得するステップと、後の符号化経路において動き残差を分解するステップとを含んでいる。   In accordance with another aspect of the present invention, a method for encoding video signal data using a multi-path video encoding scheme is provided. The method performs motion estimation on the video signal data to obtain a motion residual corresponding to the video signal data in the first coding path, and decomposes the motion residual in a later coding path. Is included.

本発明の別の形態によれば、ビデオビットストリームを復号化するビデオ復号器が提供される。ビデオ復号器は、エントロピ復号器、アトム(atom)復号器、逆変換器、動き補償器、デブロッキングフィルタ、及び結合器を含んでいる。エントロピ復号器は、ビデオビットストリームを復号し、解凍されたビデオビットストリームを獲得する。アトム復号器は、エントロピ復号器と信号通信可能であり、解凍されたビットストリームに対応する解凍されたアトムを復号し、復号化されたアトムを獲得する。逆変換器は、アトム復号器と信号通信可能であり、逆変換を復号化されたアトムに適用し、再構成された残差画像を形成する。動き補償器は、エントロピ復号器と信号通信可能であり、解凍されたビットストリームに対応する動きベクトルを使用して動き補償を実行し、再構成された予測画像を形成する。デブロッキングフィルタは、動き補償器と信号通信可能であり、再構成された予測画像にデブロッキングフィルタリングを実行し、再構成された予測画像を平滑化する。結合器は、逆変換器及びオーバラップブロック動き補償器と信号通信可能であり、再構成された予測画像と残差画像とを組み合わせ、再構成画像を獲得する。   According to another aspect of the invention, a video decoder is provided for decoding a video bitstream. The video decoder includes an entropy decoder, an atom decoder, an inverse transformer, a motion compensator, a deblocking filter, and a combiner. The entropy decoder decodes the video bitstream and obtains a decompressed video bitstream. The atom decoder is capable of signal communication with the entropy decoder, decodes the decompressed atom corresponding to the decompressed bitstream, and obtains the decrypted atom. The inverse transformer is capable of signal communication with the atom decoder and applies the inverse transform to the decoded atom to form a reconstructed residual image. The motion compensator is in signal communication with the entropy decoder and performs motion compensation using a motion vector corresponding to the decompressed bitstream to form a reconstructed predicted image. The deblocking filter is capable of signal communication with the motion compensator, performs deblocking filtering on the reconstructed prediction image, and smoothes the reconstructed prediction image. The combiner is in signal communication with the inverse transformer and the overlap block motion compensator, and combines the reconstructed predicted image and the residual image to obtain a reconstructed image.

本発明の別の形態によれば、ビデオビットストリームを復号化する方法が提供される。当該方法は、ビデオビットストリームを復号化し、解凍されたビデオビットストリームを獲得するステップと、解凍されたビットストリームに対応する解凍されたアトムを復号化し、復号化されたアトムを獲得するステップと、逆変換を復号化されたアトムに適用し、再構成された残差画像を形成するステップと、解凍されたビットストリームに対応する動きベクトルを使用して動き補償を実行し、再構成された予測画像を形成するステップと、再構成された予測画像にデブロッキングフィルタリングを実行し、再構成された予測画像を平滑化するステップと、再構成された予測画像及び残差画像を組み合わせ、再構成画像を獲得するステップとを含んでいる。   According to another aspect of the present invention, a method for decoding a video bitstream is provided. The method decodes a video bitstream and obtains a decompressed video bitstream; decodes a decompressed atom corresponding to the decompressed bitstream and obtains a decoded atom; Applying the inverse transform to the decoded atom to form a reconstructed residual image, and performing motion compensation using the motion vector corresponding to the decompressed bitstream to reconstructed prediction A step of forming an image, a step of performing deblocking filtering on the reconstructed prediction image, smoothing the reconstructed prediction image, and a reconstructed image by combining the reconstructed prediction image and the residual image. And obtaining a step.

本発明の上記及び別の形態、特徴・構成、及び利点は、典型的な実施形態の以下の発明を実施するための形態から明らかとなり、発明を実施するための形態は、添付図面を参照しつつ読まれるべきである。
本発明は、以下の典型的な図面により、より良く理解される。
The above and other aspects, features, configurations, and advantages of the present invention will become apparent from the following detailed description of exemplary embodiments of the present invention, and the detailed description of the present invention will be made with reference to the accompanying drawings. Should be read while.
The invention is better understood with reference to the following exemplary drawings.

本発明の原理の実施形態に従い、本発明の原理が適用される2経路H.264規格に基づいたマッチング追跡符号器/復号器(CODEC)における典型的な符号器の典型的な第1の経路についての図である。In accordance with an embodiment of the principles of the present invention, a two-path H.E. 2 is a diagram of an exemplary first path of an exemplary encoder in a matching tracking encoder / decoder (CODEC) based on the H.264 standard. 本発明の原理の実施形態に従い、本発明の原理が適用される2経路H.264規格に基づいたマッチング追跡符号器/復号器(CODEC)における典型的な符号器の典型的な第2の経路についての図である。In accordance with an embodiment of the principles of the present invention, a two-path H.E. 2 is a diagram of an exemplary second path of an exemplary encoder in a matching tracking encoder / decoder (CODEC) based on the H.264 standard. 本発明の原理の実施形態に従い本発明の原理が適用される2経路H.264規格に基づいたマッチング追跡符号器/復号器(CODEC)における典型的な復号器についての図である。In accordance with an embodiment of the principles of the present invention, two paths H. 2 is a diagram of an exemplary decoder in a matching tracking encoder / decoder (CODEC) based on the H.264 standard. 本発明の原理の実施形態に従い入力ビデオ列を符号化する典型的な方法のための図である。FIG. 4 is a diagram for an exemplary method for encoding an input video stream in accordance with an embodiment of the present principles. 本発明の原理の実施形態に従い入力ビデオ列を復号化する典型的な方法のための図である。FIG. 4 is a diagram for an exemplary method for decoding an input video stream in accordance with an embodiment of the present principles.

本発明は、複数経路ビデオ符号化及び復号化のための方法及び装置に関する。有利なように、本発明は、例えば、非常に低いビットレート用途におけるH.264規格に使用されるDCT変換により導入されるブロッキングアーティファクトを修正する。さらに、本発明は、単に低いビットレート用途に制限されず、本発明の範囲を維持しつつ、別の(大きな)ビットレートにも使用されてもよい。   The present invention relates to a method and apparatus for multi-path video encoding and decoding. Advantageously, the present invention is useful for H.264 in very low bit rate applications, for example. Corrects blocking artifacts introduced by the DCT transform used in the H.264 standard. Furthermore, the present invention is not limited to just low bit rate applications, but may be used for other (large) bit rates while maintaining the scope of the present invention.

本明細書は、本発明の原理を説明している。当業者は、ここには明確に説明又は示されていないが、本発明の原理を実施し、本発明の精神及び範囲内に含まれる様々な変形・変更を行うことができる。   This specification illustrates the principles of the invention. Those skilled in the art may practice the principles of the present invention and make various modifications and changes that fall within the spirit and scope of the invention, although not explicitly described or shown herein.

ここに列挙される全ての例及び条件付きの説明は、教育的な目的であり、読者が、技術を促進するのに発明者により寄与された本発明の原理及び概念を理解する助けとなり、このような特定の列挙された例及び状態に限定されないと解釈されるべきである。   All examples and conditional explanations listed here are for educational purposes and help the reader understand the principles and concepts of the present invention contributed by the inventor to promote technology. It should be construed that the invention is not limited to such specific recited examples and conditions.

さらに、本発明の原理、形態、実施形態、及びこれらの特定の例を列挙するここでの全ての説明は、これらの構造的な均等物及び機能的な均等物を包含することを目的としている。さらに、このような均等物は、現在公知の均等物及び将来に開発される均等物、つまり、構造に関係なく同一の機能を実行するように開発された任意の要素を含む。   Furthermore, all descriptions herein which enumerate the principles, forms, embodiments and specific examples of the present invention are intended to encompass these structural and functional equivalents. . In addition, such equivalents include presently known equivalents and equivalents developed in the future, ie, any element developed to perform the same function regardless of structure.

よって、例えば、ここで与えられたブロック図は、本発明の原理を実施する例示的な回路の概念図を示していることが、当業者により認識されるであろう。同様に、任意のフローチャート、フロー図、状態遷移図、及び疑似コード等は、コンピュータ可読媒体に実質的に表されており、コンピュータ又はプロセッサが明確に示されているかどうかにかかわらず、コンピュータ又はプロセッサにより実行される様々な処理を示している。   Thus, for example, it will be appreciated by those skilled in the art that the block diagrams provided herein show conceptual diagrams of exemplary circuits that implement the principles of the invention. Similarly, any flowcharts, flow diagrams, state transition diagrams, pseudocode, etc. are substantially represented on a computer-readable medium, whether or not the computer or processor is explicitly shown. The various processes performed by are shown.

図面に示した様々な要素の機能は、専用ハードウェア及び適切なソフトウェアと組み合わさったソフトウェアを実行可能なハードウェアの使用により与えられてもよい。プロセッサにより与えられると、機能は1つの専用プロセッサ、1つの共有されたプロセッサ、又は一部が共有されるかもしれない複数の個々のプロセッサにより与えられてもよい。さらに、用語「プロセッサ」又は「コントローラ」の明確な使用は、ソフトウェアを実行することができるハードウェアを排他的に言及していると解釈されるべきではなく、デジタル信号プロセッサ(「DSP」)ハードウェア、ソフトウェアを記憶しているリードオンリメモリ(「ROM」)、ランダムアクセスメモリ(「RAM」)、及び不揮発性記憶手段を暗に含んでいてもよく、これらだけに限定されない。   The functionality of the various elements shown in the figures may be provided by the use of dedicated hardware and hardware capable of executing software in combination with appropriate software. When provided by a processor, the functionality may be provided by one dedicated processor, one shared processor, or multiple individual processors that may be partially shared. Furthermore, the explicit use of the terms “processor” or “controller” should not be construed to refer exclusively to hardware capable of executing software, but digital signal processor (“DSP”) hardware. Hardware, read only memory (“ROM”) storing software, random access memory (“RAM”), and non-volatile storage means may be implicitly included, but are not limited thereto.

従来の及び/又は特別に形成された別のハードウェアが含まれていてもよい。同様に、図面に示した任意のスイッチは、単に概念的なものである。これらの機能は、プログラムロジックのオペレーション、専用ロジック、プログラム制御と専用ロジックとの相互作用、又は手動により実行されてもよく、特定の技術が、文脈からより詳しく理解されるように、実施者により選択可能である。   Conventional and / or specially configured separate hardware may be included. Similarly, any switches shown in the drawings are merely conceptual. These functions may be performed by program logic operations, dedicated logic, interaction between program control and dedicated logic, or manually, and by the implementer so that the specific technique is more fully understood from the context. Selectable.

特許請求の範囲において、特定の機能を実行する手段として示された任意の要素は、その機能を実行する任意のやり方を含むように意図しており、当該任意のやり方は、例えば、a)その機能を実行する回路素子の組み合わせ、b)任意の形態のソフトウェアを含み、当該任意の形態のソフトウェアは、ファームウェア又はマイクロコード等を含み、上記機能を実行するのにそのソフトウェアを起動する適切な回路と組み合わされる。そのような請求の範囲により画定される本発明は、様々な列挙された手段により提供される機能が組み合わされ、特許請求の範囲が要求する形態に互いに集められることにある。上記機能を提供することができる任意の手段は、ここで示した手段の均等物と考えられる。   In the claims, any element indicated as a means for performing a specified function is intended to include any way of performing that function, for example: a) A combination of circuit elements that perform a function; b) includes any form of software, the software of any form including firmware, microcode, etc., and an appropriate circuit that activates the software to perform the function Combined with. The invention as defined by such claims is such that the functions provided by the various recited means are combined and brought together in the form required by the claims. Any means that can provide the above functionality is considered equivalent to the means shown herein.

本発明の原理によれば、複数経路ビデオ符号化及び復号化方式が提供される。複数経路ビデオ符号化及び復号化方式は、マッチング追跡と共に使用されてもよい。説明に役立つ実施形態において、2経路H.264に基づいた符号化方式がマッチング追跡ビデオ符号化のために開示されている。   In accordance with the principles of the present invention, a multi-path video encoding and decoding scheme is provided. Multi-path video encoding and decoding schemes may be used with matching tracking. In an illustrative embodiment, the two-path H.264. An encoding scheme based on H.264 is disclosed for matching tracking video encoding.

H.264規格は、他のビデオ圧縮規格に類似したブロックに基づいた動き補償及びDCTのような変換を利用する。非常に低いビットレートでは、DCT変換は、デブロッキングフィルタを使用しても、ブロッキングアーティファクトを取り入れる。なぜなら、非常に少しの係数だけが非常に低いビットレートで符号化されることができ、各係数が非常に粗い量子化ステップを有する傾向があるからである。本発明の原理によれば、過完備基底を使用するマッチング追跡が、残差画像を符号化するのに利用される。動き補償及びモード決断部は、H.264規格に対応している。オーバラップブロック動き補償(OBMC)は、予測画像を平滑化するのに利用される。さらに、新しい手法は、マッチング追跡以外の基底を選択するのに提供される。   H. The H.264 standard utilizes motion compensation based on blocks similar to other video compression standards and transforms such as DCT. At very low bit rates, the DCT transform incorporates blocking artifacts even when using a deblocking filter. This is because only very few coefficients can be encoded at a very low bit rate, and each coefficient tends to have a very coarse quantization step. In accordance with the principles of the present invention, matching tracking using overcomplete bases is utilized to encode the residual image. The motion compensation and mode decision unit is H.264. H.264 standard. Overlap block motion compensation (OBMC) is used to smooth the predicted image. In addition, a new approach is provided for selecting bases other than matching tracking.

本発明の原理によれば、ビデオ符号器及び/又は復号器は、OBMCを予測画像に適用し、予測モデルにより生じるブロッキングアーティファクトを低減する。マッチング追跡アルゴリズムは、残差画像を符号化するために使用される。マッチング追跡の利点は、当該マッチング追跡がブロックに基づいておらず、フレームに基づいており、符号化残差の違いにより生じるブロッキングアーティファクトが存在しないことである。   In accordance with the principles of the present invention, the video encoder and / or decoder applies OBMC to the predicted image to reduce blocking artifacts caused by the prediction model. A matching tracking algorithm is used to encode the residual image. The advantage of matching tracking is that the matching tracking is not based on blocks, is based on frames, and there are no blocking artifacts caused by differences in coding residuals.

図1A及び図1Bを参照すると、2経路H.264規格に基づいたマッチング追跡符号器/復号器(CODEC(コーデック))における符号器の典型的な第1の経路部及び第2の経路部が参照符号110及び160により示される。符号器は、参照符号190により示され、復号器部分は、参照符号191により示される。   Referring to FIG. 1A and FIG. Typical first and second path portions of the encoder in a matching tracking encoder / decoder (CODEC) based on the H.264 standard are indicated by reference numerals 110 and 160. The encoder is indicated by reference numeral 190 and the decoder portion is indicated by reference numeral 191.

図1Aを参照すると、第1の経路部110の入力部は、結合器112の非反転入力部、符号器制御モジュール114の入力部、及び動き推定器116の第1の入力部と信号通信可能に接続されている。結合器112の第1の出力部は、バッファ118の第1の入力部と信号通信可能に接続されている。結合器112の第2の出力部は、整数変換/スケーリング/量子化モジュール120の入力部と信号通信可能に接続されている。整数変換/スケーリング/量子化モジュール120の出力部は、スケーリング/逆変換モジュール122の第1の入力部と信号通信可能に接続されている。   Referring to FIG. 1A, the input of the first path unit 110 can be in signal communication with the non-inverting input of the combiner 112, the input of the encoder control module 114, and the first input of the motion estimator 116. It is connected to the. The first output portion of the coupler 112 is connected to the first input portion of the buffer 118 so as to allow signal communication. The second output of the combiner 112 is connected to the input of the integer transform / scaling / quantization module 120 so as to be in signal communication. The output unit of the integer transform / scaling / quantization module 120 is connected to the first input unit of the scaling / inverse transform module 122 so that signal communication is possible.

符号器制御モジュール114の第1の出力部は、フレーム間予測器126の第1の入力部と信号通信可能に接続されている。符号器制御モジュール114の第2の出力部は、動き補償器124の第1の入力部と信号通信可能に接続されている。符号器制御モジュール114の第3の出力部は、動き推定器116の第2の入力部と信号通信可能に接続されている。符号器制御モジュール114の第4の出力部は、スケーリング/逆変換モジュール122の第2の入力部と信号通信可能に接続されている。符号器制御モジュール114の第5の出力部は、バッファ118の第1の入力部と信号通信可能に接続されている。   The first output unit of the encoder control module 114 is connected to the first input unit of the inter-frame predictor 126 so as to allow signal communication. The second output unit of the encoder control module 114 is connected to the first input unit of the motion compensator 124 so as to be capable of signal communication. The third output unit of the encoder control module 114 is connected to the second input unit of the motion estimator 116 so as to be capable of signal communication. The fourth output unit of the encoder control module 114 is connected to the second input unit of the scaling / inverse conversion module 122 so as to allow signal communication. The fifth output unit of the encoder control module 114 is connected to the first input unit of the buffer 118 so as to allow signal communication.

動き推定器116の出力部は、動き補償器124の第2の入力部及びバッファ128の第2の入力部と信号通信可能に接続されている。結合器112の反転入力部は、動き補償器124の出力部との信号通信手段又はフレーム間予測器126の出力部と信号通信可能に選択的に接続される。動き補償器124又はフレーム間予測器126の選択された出力部は、結合器128の第1の入力部と信号通信可能に接続される。スケーリング/逆変換モジュール122の出力部は、結合器128の第2の入力部と信号通信可能に接続されている。結合器128の出力部は、フレーム間予測器126の第2の入力部、動き推定器116の第3の入力部、動き補償器124の入力/出力部と信号通信可能に接続されている。バッファ118の出力部は、第1の経路部110の出力部として利用できる。   The output unit of the motion estimator 116 is connected to the second input unit of the motion compensator 124 and the second input unit of the buffer 128 so as to allow signal communication. The inverting input unit of the combiner 112 is selectively connected to the signal communication means with the output unit of the motion compensator 124 or the output unit of the inter-frame predictor 126 so as to be capable of signal communication. The selected output of the motion compensator 124 or the inter-frame predictor 126 is connected in signal communication with the first input of the combiner 128. The output unit of the scaling / inverse conversion module 122 is connected to the second input unit of the coupler 128 so as to be able to perform signal communication. The output unit of the combiner 128 is connected to the second input unit of the inter-frame predictor 126, the third input unit of the motion estimator 116, and the input / output unit of the motion compensator 124 so as to be capable of signal communication. The output unit of the buffer 118 can be used as the output unit of the first path unit 110.

第1の経路部110に関しては、符号器制御モジュール114、整数変換/スケーリング/量子化モジュール120、バッファ118、及び動き推定器116が符号器190に含まれている。さらに、第1の経路部に関しては、スケーリング/逆変換モジュール122、フレーム間予測器126、及び動き補償器124が復号器部分191に含まれている。   For the first path unit 110, an encoder control module 114, an integer transform / scaling / quantization module 120, a buffer 118, and a motion estimator 116 are included in the encoder 190. Further, for the first path portion, a scaling / inverse transform module 122, an inter-frame predictor 126, and a motion compensator 124 are included in the decoder portion 191.

第1の経路部110の入力部は、入力ビデオ111を受信し、第2の経路部160において使用するために制御データ(例えば、動きベクトル、モード選択、及び予測画像等)をバッファ118に記憶する。   The input unit of the first path unit 110 receives the input video 111 and stores control data (eg, motion vectors, mode selections, predicted images, etc.) in the buffer 118 for use in the second path unit 160. To do.

図1Bを参照すると、第2の経路部160の第1の入力部は、エントロピ符号器166の入力部と信号通信可能に接続されている。第1の入力部は、第1の経路部110から制御データ162(例えば、モード選択等)及び動きベクトル164を受信する。第2の経路部160の第2の入力部は、結合器168の非反転入力部と信号通信可能に接続されている。第2の経路部160の第3の入力部は、オーバラップブロック動き補償(OBMC)/デブロッキングモジュール170の入力部と信号通信可能に接続されている。第2の経路部160の第2の入力部は、入力ビデオ111を受信し、第2の経路部の第3の入力部は、第1の経路部110から予測画像187を受信する。   Referring to FIG. 1B, the first input unit of the second path unit 160 is connected to the input unit of the entropy encoder 166 so as to be capable of signal communication. The first input unit receives control data 162 (for example, mode selection or the like) and motion vector 164 from the first path unit 110. The second input unit of the second path unit 160 is connected to the non-inverting input unit of the coupler 168 so as to allow signal communication. The third input unit of the second path unit 160 is connected to the input unit of the overlap block motion compensation (OBMC) / deblocking module 170 so as to be capable of signal communication. The second input unit of the second path unit 160 receives the input video 111, and the third input unit of the second path unit receives the predicted image 187 from the first path unit 110.

残差172を与える結合器168の出力部は、アトム(atom)探知器174の入力部と信号通信可能に接続されている。符号化された残差178を与えるアトム探知器174の出力部は、アトム符号器176の入力部及び結合器180の第1の非反転入力部と信号通信可能に接続されている。OBMC/デブロッキングモジュール170の出力部は、結合器168の反転入力部及び結合器180の第2の非反転入力部と信号通信可能に接続されている。出力ビデオを与える結合器180の出力部は、参照バッファ182の入力部と信号通信可能に接続されている。アトム符号器176の出力部は、エントロピ符号器166の入力部と信号通信可能に接続されている。エントロピ符号器166の出力部は、第2の経路部160の出力部として利用でき、出力ビットストリームを与える。   An output unit of the combiner 168 that provides the residual 172 is connected to an input unit of an atom detector 174 so as to be capable of signal communication. The output of the atom detector 174 that provides the encoded residual 178 is connected in signal communication with the input of the atom encoder 176 and the first non-inverting input of the combiner 180. The output portion of the OBMC / deblocking module 170 is connected to the inverting input portion of the combiner 168 and the second non-inverting input portion of the combiner 180 so as to be capable of signal communication. An output unit of the combiner 180 that provides output video is connected to an input unit of the reference buffer 182 so as to be capable of signal communication. The output unit of the atom encoder 176 is connected to the input unit of the entropy encoder 166 so that signal communication is possible. The output unit of the entropy encoder 166 can be used as the output unit of the second path unit 160 and provides an output bit stream.

第2の経路部160に関しては、エントロピ符号器は、符号器190に含まれ、結合器168、OBMCモジュール170、アトム探知器174、アトム符号器176、及び参照バッファ182は、復号器部分191に含まれている。   For the second path section 160, the entropy encoder is included in the encoder 190, and the combiner 168, OBMC module 170, atom detector 174, atom encoder 176, and reference buffer 182 are included in the decoder section 191. include.

図2を参照すると、2経路H.264規格に基づいたマッチング追跡符号器/復号器(CODEC(コーデック))内の典型的な復号器は、参照符号200により示される。   Referring to FIG. An exemplary decoder in a matching tracking encoder / decoder (CODEC) based on the H.264 standard is indicated by reference numeral 200.

復号器200の入力部は、エントロピ復号器210の入力部と信号通信可能に接続されている。エントロピ復号器の出力部は、アトム復号器220の入力部及び動き補償器250の入力部と信号通信可能に接続されている。残差を与える逆変換モジュール230の出力部は、結合器270の第1の非反転入力部と信号通信可能に接続されている。動き補償器250の出力部は、OBMC/デブロッキングモジュール260の入力部と信号通信可能に接続されている。OBMC/デブロッキングモジュール260の出力部は、結合器270の第2の非反転入力部と信号通信可能に接続されている。結合器の出力部は、復号器200の出力部として利用できる。   The input unit of the decoder 200 is connected to the input unit of the entropy decoder 210 so that signal communication is possible. The output unit of the entropy decoder is connected to the input unit of the atom decoder 220 and the input unit of the motion compensator 250 so as to be capable of signal communication. The output unit of the inverse transform module 230 that provides the residual is connected to the first non-inverting input unit of the combiner 270 so as to be capable of signal communication. The output unit of the motion compensator 250 is connected to the input unit of the OBMC / deblocking module 260 so that signal communication is possible. The output part of the OBMC / deblocking module 260 is connected to the second non-inverting input part of the coupler 270 so as to allow signal communication. The output unit of the combiner can be used as the output unit of the decoder 200.

H.263コーデックに基づいている従来のガボールに基づいたマッチング追跡ビデオ符号化手法におけるマッチング追跡ビデオコーデックとは異なり、本発明の原理は、ITU−TH.264/AVC符号化システムに適用できる。フレームに基づいた残差符号化の故に、我々は、H.264/AVCコーデックに実装されていないOBMCを予測画像に適用する。   H. Unlike the matching tracking video codec in the conventional tracking tracking video coding method based on Gabor based on the H.263 codec, the principle of the present invention is based on the ITU-TH. It can be applied to H.264 / AVC encoding system. Because of frame-based residual coding, we The OBMC that is not implemented in the H.264 / AVC codec is applied to the predicted image.

本発明の原理に基づく実施形態において、ビデオ符号化方式における第1の経路は、H.264規格に対応している。第1の経路において実際には、符号化は行われない。例えば、モード選択、予測画像、及び動きベクトル等の全ての制御データは、第2の経路のためにバッファに保存される。DCT変換が、レート歪み最適化(RDO)を使用する動き補償及びモード選択のために、第1の経路に適用されている。DCT係数を使用して残差画像を符号化する代わりに、全ての残差画像は、第2の経路のために保存される。本発明の原理に基づく実施形態では、16×16強制(constrained)イントラ符号化又は、H.264規格準拠強制イントラ符号化を適用すること、及び特にイントラ符号化されたマクロブロックとインタ符号化されたマクロブロックとの間の境界部分を処理することが提案される。   In an embodiment based on the principles of the present invention, the first path in the video coding scheme is H.264. H.264 standard. In the first path, no encoding is actually performed. For example, all control data such as mode selections, predicted images, and motion vectors are stored in a buffer for the second path. A DCT transform has been applied to the first path for motion compensation and mode selection using rate distortion optimization (RDO). Instead of encoding the residual image using DCT coefficients, all residual images are saved for the second path. In embodiments based on the principles of the present invention, 16 × 16 constrained intra coding or H.264. It is proposed to apply H.264 standard compliant forced intra coding and in particular to handle the boundary portion between intra-coded and inter-coded macroblocks.

第2の経路において、動きベクトル及び制御データがエントロピ符号化により符号化されてもよい。残差画像は、マッチング追跡により符号化されてもよい。アトム検索及びパラメータ符号化が、例えば、従来のガボールに基づいたマッチング追跡ビデオ符号化手法に基づいて実行されてもよい。再構成画像は、参照フレームのために保存される。   In the second path, the motion vector and the control data may be encoded by entropy encoding. The residual image may be encoded by matching tracking. Atom search and parameter encoding may be performed based on, for example, conventional Gabor based matching tracking video encoding techniques. The reconstructed image is saved for the reference frame.

マッチング追跡ビデオ符号化の利点の1つは、マッチング追跡がブロックに基づいておらず、ブロッキングアーティファクトが存在しないことである。しかしながら、動き予測がブロックに基づいて実行され、不正確であると、この動き予測は、非常に低いビットレートにおいて幾つかのブロッキングアーティファクトを生成する。シミュレーションは、アトムが、動いている輪郭部及び領域に現れることを示し、当該動いている輪郭部及び領域では、動きベクトル(MV)は、あまり正確ではない。動き予測を向上させることにより、アトムが残差をより良く表すことができる。   One advantage of matching tracking video coding is that matching tracking is not block based and there are no blocking artifacts. However, if motion prediction is performed on a block basis and is inaccurate, this motion prediction generates some blocking artifacts at very low bit rates. Simulations show that atoms appear in moving contours and regions, where the motion vector (MV) is not very accurate. By improving motion prediction, atoms can better represent residuals.

動き予測からアーティファクトを除去するために、ある方法は、H.264等を使用すること、又は改良されたデブロッキングフィルタを使用し、予測画像におけるブロックの境界部を平滑化することを含んでいる。別の手法において、オーバラップブロック(OBMC)を使用する平滑化動きモデルが使用される。従来のガボールに基づいたマッチング追跡ビデオ符号化手法では、16×16サイン2乗窓が採用された。N×Nサイン2乗窓は、例えば、従来のハイブリッド符号化方式に従い定義されてもよい。16×16サイン2乗窓は、8×8ブロックのために形成され、16×16ブロックは、4つの8×8ブロックとして処理される。   In order to remove artifacts from motion prediction, one method is described in H.264. H.264 or the like, or using an improved deblocking filter to smooth the block boundaries in the predicted image. In another approach, a smoothed motion model using overlapping blocks (OBMC) is used. The conventional Gabor-based matching tracking video coding technique employs a 16 × 16 sine square window. The N × N sine square window may be defined, for example, according to a conventional hybrid coding scheme. A 16 × 16 sine square window is formed for the 8 × 8 block, and the 16 × 16 block is processed as four 8 × 8 blocks.

しかしながら、H.264規格において、輝度ブロックサイズ16×16、16×8、8×16、8×8サンプルを有するパーティションは、サポートされている。8×8サンプルを有するパーティションが選択される場合、8×8パーティションは、8×4、4×8、又は4×4輝度サンプル及び対応する色度サンプルのパーティションにさらに分割される。ここでは、4つの手法が、より多くのパーティションの種類に対応するために提案される。第1の手法では、4×4パーティションのために8×8サイン二乗窓を使用している。4×4よりも大きい全ての別のパーティションについては、これらパーティションは、幾つかの4×4パーティションに分割される。第2の手法では、8×8以上のパーティションのために16×16サイン二乗窓を使用しているが、この第2の手法は、8×8よりも小さなパーティションには、影響を与えない。第3の手法では、全てのパーティションのために適応可能なOBMCを使用している。上記3つの手法の全ては、OBMCだけを実装しており、デブロッキングフィルタを実装していない。第4の手法では、OBMBとデブロッキングフィルタとを組み合わせている。   However, H.C. In the H.264 standard, partitions having luma block sizes of 16 × 16, 16 × 8, 8 × 16, and 8 × 8 samples are supported. If a partition with 8 × 8 samples is selected, the 8 × 8 partition is further divided into 8 × 4, 4 × 8, or 4 × 4 luminance sample and corresponding chromaticity sample partitions. Here, four approaches are proposed to accommodate more partition types. In the first approach, an 8 × 8 sine square window is used for 4 × 4 partitions. For all other partitions larger than 4x4, these partitions are divided into several 4x4 partitions. The second approach uses a 16 × 16 sine square window for 8 × 8 or larger partitions, but this second approach does not affect partitions smaller than 8 × 8. The third technique uses an adaptive OBMC for all partitions. All of the above three methods implement only OBMC and do not implement a deblocking filter. In the fourth method, OBMB and a deblocking filter are combined.

残差符号化のために実装された従来のガボールに基づいたマッチング追跡ビデオ符号化手法における冗長ガボール辞書セットの他に、我々は、より多くの過完備基底を利用することを提案する。低いビットレートでは、変換動きモデルは、動いているエッジ等の関連のある視覚特徴/構成の自然な動きを正確に表すことができない。よって、残差エラーエネルギの大部分は、これらの領域に位置する。よって、エッジ検出冗長辞書を使用してエラー画像を表すことは、意味がある。離散ウェーブレット変換(例えば、2−D双対木(Dual−Tree)離散ウェーブレット変換(DDWT))は、2−Dガボール辞書が利用されるか、又は幾つかの他のエッジ検出辞書が使用されるよりも少ない冗長性を有する。2−DDDWTは、2−DDWTよりも多くのサブバンド/方向性を有している。各サブバンドは、ある方向を示し、当該各サブバンドは、エッジ検出用である。ノイズシェーピングをした後に、2−DDDWTは、標準的な2−DDWTと比較して、同一の保持された係数を有してより高いPSNRを達成する。よって、2−DDDWTは、エッジ情報を符号化するのにより適している。予測画像にOBMCを適用した後、エラー画像は、滑らかなエッジを有する。パラメトリック過完備2−D辞書が、滑らかなエッジを与えるのに使用されてもよい。   In addition to the redundant Gabor dictionary set in the traditional Gabor-based matching tracking video coding scheme implemented for residual coding, we propose to utilize more overcomplete bases. At low bit rates, the transformed motion model cannot accurately represent the natural motion of relevant visual features / constructions such as moving edges. Therefore, most of the residual error energy is located in these regions. Therefore, it is meaningful to represent an error image using an edge detection redundant dictionary. Discrete wavelet transforms (e.g., 2-D Dual-Tree Discrete Wavelet Transform (DDWT)) are more likely than 2-D Gabor dictionaries are used or some other edge detection dictionaries are used. Has less redundancy. 2-DDDWT has more subbands / directivity than 2-DDWT. Each subband indicates a certain direction, and each subband is for edge detection. After noise shaping, 2-DDDDWT achieves a higher PSNR with the same retained coefficients compared to standard 2-DDWT. Therefore, 2-DDDWT is more suitable for encoding edge information. After applying OBMC to the predicted image, the error image has smooth edges. A parametric overcomplete 2-D dictionary may be used to provide smooth edges.

図3を参照すると、入力ビデオ列を符号化する典型的な方法は、参照符号300により示される。当該方法300は、開始ブロック305を含み、判断ブロック310に進む。判断ブロック310は、現在のフレームがIフレームであるかどうかを判断する。現在のフレームがIフレームであるならば、機能ブロック355に進む。現在のフレームがIフレームでないならば、機能ブロック315に進む。   With reference to FIG. 3, an exemplary method for encoding an input video stream is indicated by reference numeral 300. The method 300 includes a start block 305 and proceeds to decision block 310. Decision block 310 determines whether the current frame is an I frame. If the current frame is an I frame, proceed to function block 355. If the current frame is not an I frame, proceed to function block 315.

機能ブロック355は、H.264規格準拠フレーム符号化を実行し、出力ビットストリームを提供して、終了ブロック370に進む。   The function block 355 includes the H.264 function. H.264 standard compliant frame encoding is performed, an output bitstream is provided, and the process proceeds to end block 370.

機能ブロック315は、H.264規格準拠動き補償を実行し、機能ブロック320に進む。機能ブロック320は、動きベクトル(MV)、制御データ、及び予測ブロックを保存し、判断ブロック325に進む。判断ブロック325は、フレームの最後に達したかどうかを判断する。フレームの最後に達したならば、機能ブロック330に進む。フレームの最後に達していなければ、機能ブロック315に戻る。   The function block 315 is an H.264 function. H.264 standard compliant motion compensation is performed and processing proceeds to function block 320. The function block 320 stores the motion vector (MV), control data, and prediction block, and proceeds to decision block 325. Decision block 325 determines whether the end of the frame has been reached. If the end of the frame has been reached, proceed to function block 330. If the end of the frame has not been reached, return to function block 315.

機能ブロック330は、予測画像にOBMC及び/又はデブロッキングフィルタリングを実行し、機能ブロック335に進む。機能ブロック335は、元の画像及び予測画像から残差画像を獲得して、機能ブロック340に進む。機能ブロック340は、マッチング追跡を使用して、残差を符号化し、機能ブロック345に進む。機能ブロック345は、エントロピ符号化を実行して、出力ビットストリームを与え、終了ブロック370に進む。   The function block 330 performs OBMC and / or deblocking filtering on the predicted image and proceeds to a function block 335. The function block 335 obtains a residual image from the original image and the predicted image and proceeds to the function block 340. The function block 340 encodes the residual using matching tracking and proceeds to a function block 345. The function block 345 performs entropy encoding to provide an output bitstream and proceeds to an end block 370.

図4を参照すると、入力ビデオ列を復号化する典型的な方法が参照符号400により示されている。当該方法400は、開始ブロック400を含み、判断ブロック410に進む。判断ブロック410は、現在のフレームがIフレームであるかどうかを判断する。現在のフレームがIフレームであるならば、機能ブロック435に進む。現在のフレームがIフレームでないならば、機能ブロック415に進む。   Referring to FIG. 4, an exemplary method for decoding an input video sequence is indicated by reference numeral 400. The method 400 includes a start block 400 and proceeds to decision block 410. Decision block 410 determines whether the current frame is an I frame. If the current frame is an I frame, proceed to function block 435. If the current frame is not an I frame, proceed to function block 415.

機能ブロック435は、H.264規格準拠復号化を実行して、再構成画像を提供し、終了ブロック470に進む。   The function block 435 includes H.264. H.264 standard compliant decoding is performed to provide a reconstructed image and processing proceeds to end block 470.

機能ブロック415は、動きベクトル、制御データ、及びマッチング追跡アトムを復号し、機能ブロック420及び機能ブロック425に進む。機能ブロック420は、復号化されたアトムを使用して残差画像を再構成し、機能ブロック430に進む。機能ブロック425は、動きベクトル及び他の制御データを復号化して、OBMC/及び/又はデブロッキングフィルタリングを適用することにより、予測画像を再構成し、機能ブロック430に進む。機能ブロック430は、再構成された残差画像と再構成された予測画像とを組み合わせ、再構成画像を提供し、終了ブロック470に進む。   The function block 415 decodes the motion vector, control data, and matching tracking atom and proceeds to the function block 420 and the function block 425. The function block 420 reconstructs the residual image using the decoded atom and proceeds to a function block 430. The function block 425 reconstructs the predicted image by decoding the motion vectors and other control data and applying OBMC / and / or deblocking filtering and proceeds to a function block 430. The function block 430 combines the reconstructed residual image and the reconstructed predicted image to provide a reconstructed image and proceeds to an end block 470.

本発明の多くの付随する利点/特徴の一部が説明され、これらの一部は、上述されている。例えば、ある利点/特徴は、複数経路ビデオ符号化方式を使用してビデオ信号データを符号化するビデオ符号器であり、当該ビデオ符号器は、動き推定器及び分解モジュールを含んでいる。動き推定器は、ビデオ信号データに動き推定を実行し、第1の符号化経路におけるビデオ信号データに対応する動き残差を獲得する。分解モジュールは、動き推定器と信号通信可能であり、後の符号化経路における動き残差を分解する。   Some of the many attendant advantages / features of the present invention have been described, some of which have been described above. For example, one advantage / feature is a video encoder that encodes video signal data using a multi-path video encoding scheme, where the video encoder includes a motion estimator and a decomposition module. The motion estimator performs motion estimation on the video signal data and obtains a motion residual corresponding to the video signal data in the first coding path. The decomposition module is in signal communication with the motion estimator and decomposes motion residuals in later coding paths.

別の利点/特徴は、上述したようなビデオ符号器であり、複数経路ビデオ符号化方式は、2経路ビデオ符号化方式である。ビデオ符号器は、バッファをさらに含み、当該バッファは、動き推定器及び分解モジュールと信号通信可能であり、第2の符号化経路において使用するために第1の符号化経路において得られた動き残差を記憶する。分解モジュールは、第2の符号化経路における冗長ガボール辞書セットを使用して動き残差を分解する。   Another advantage / feature is the video encoder as described above, and the multi-path video encoding scheme is a two-path video encoding scheme. The video encoder further includes a buffer, wherein the buffer is in signal communication with the motion estimator and the decomposition module and is obtained in the first coding path for use in the second coding path. Remember the difference. The decomposition module decomposes the motion residual using the redundant Gabor dictionary set in the second coding path.

別の利点/特徴は、上述したような2経路ビデオ符号化方式を使用するビデオ符号器であり、動き推定器は、第1の符号化経路において、国際電気通信連合電気通信部門(ITU−T)H.264規格に応じる動き推定及び符号化モード選択を実行する。   Another advantage / feature is a video encoder that uses a two-path video encoding scheme as described above, wherein the motion estimator is in the first encoding path in the International Telecommunication Union Telecommunication Sector (ITU-T). ) H. Motion estimation and coding mode selection according to the H.264 standard are executed.

別の利点/特徴は、上述したような2経路ビデオ符号化方式を使用するビデオ符号器であり、ビデオ符号器は、予測モジュール及びオーバラップブロック動き補償器をさらに含んでいる。予測モジュールは、バッファと信号通信可能であり、第1の符号化経路におけるビデオ信号データに対応する予測画像を形成する。オーバラップブロック動き補償器は、バッファと信号通信可能であり、16×16サイン二乗窓を使用して、予測画像にオーバラップブロック動き補償(OBMC)を実行し、第2の符号化経路における予測画像を平滑化する。バッファは、第2の符号化経路において使用するために第1の経路における予測画像を記憶する。   Another advantage / feature is a video encoder that uses a two-pass video encoding scheme as described above, which further includes a prediction module and an overlap block motion compensator. The prediction module is in signal communication with the buffer and forms a prediction image corresponding to the video signal data in the first coding path. The overlap block motion compensator is in signal communication with the buffer, performs overlap block motion compensation (OBMC) on the predicted image using a 16 × 16 sine square window, and predicts in the second coding path. Smooth the image. The buffer stores the predicted image in the first path for use in the second coding path.

さらに、別の利点/特徴は、上述したような2経路ビデオ符号化方式を使用するビデオ符号器であり、ビデオ符号器は、予測モジュール及びオーバラップブロック動き補償器をさらに含んでいる。予測モジュールは、バッファと信号通信可能であり、第1の符号化経路におけるビデオ信号データに対応する予測画像を形成する。オーバラップブロック動き補償器は、バッファと信号通信可能であり、第2の符号化経路における予測画像の8×8より大きなパーティションだけにオーバラップブロック動き補償(OBMC)を実行する。バッファは、第2の符号化経路において使用するために第1の符号化経路における予測画像を記憶する。   Yet another advantage / feature is a video encoder that uses a two-pass video encoding scheme as described above, the video encoder further including a prediction module and an overlap block motion compensator. The prediction module is in signal communication with the buffer and forms a prediction image corresponding to the video signal data in the first coding path. The overlap block motion compensator is in signal communication with the buffer and performs overlap block motion compensation (OBMC) only on partitions larger than 8 × 8 of the predicted image in the second coding path. The buffer stores a predicted image in the first coding path for use in the second coding path.

さらに、別の利点/特徴は、上述したような2経路ビデオ符号化方式を使用するビデオ符号器であり、ビデオ符号器は、予測モジュール及びオーバラップブロック動き補償器をさらに含んでいる。予測モジュールは、バッファと信号通信可能であり、第1の符号化経路におけるビデオ信号データに対応する予測画像を形成する。オーバラップブロック動き補償器は、バッファと信号通信可能であり、第2の符号化経路における予測画像の4×4パーティションのために8×8サイン二乗窓を使用してオーバラップブロック動き補償(OBMC)を実行する。OBMCが第2の符号化経路において実行されると、予測画像の全てのパーティションは、4×4パーティションに分割される。バッファは、第2の符号化経路において使用するために第1の符号化経路における予測画像を記憶する。   Yet another advantage / feature is a video encoder that uses a two-pass video encoding scheme as described above, the video encoder further including a prediction module and an overlap block motion compensator. The prediction module is in signal communication with the buffer and forms a prediction image corresponding to the video signal data in the first coding path. The overlap block motion compensator is in signal communication with the buffer and uses an 8 × 8 sine square window for the 4 × 4 partition of the predicted image in the second coding path to overlap block motion compensation (OBMC). ). When OBMC is performed in the second coding path, all partitions of the predicted image are divided into 4 × 4 partitions. The buffer stores a predicted image in the first coding path for use in the second coding path.

また、別の利点/特徴は、上述したような2経路ビデオ符号化方式を使用するビデオ符号器であり、ビデオ符号器は、予測モジュール及びオーバラップブロック動き補償器をさらに含んでいる。予測モジュールは、バッファと信号通信可能であり、第1の符号化経路におけるビデオ信号データに対応する予測画像を形成する。オーバラップブロック動き補償器は、バッファと信号通信可能であり、第2の符号化経路における予測画像の全てのパーティションのために適応可能なオーバラップブロック動き補償(OBMC)を実行する。バッファは、第2の符号化経路において使用するために第1の符号化経路における予測画像を記憶する。   Another advantage / feature is a video encoder that uses a two-pass video coding scheme as described above, the video encoder further including a prediction module and an overlap block motion compensator. The prediction module is in signal communication with the buffer and forms a prediction image corresponding to the video signal data in the first coding path. The overlap block motion compensator is in signal communication with the buffer and performs overlap block motion compensation (OBMC) that is adaptive for all partitions of the predicted image in the second coding path. The buffer stores a predicted image in the first coding path for use in the second coding path.

さらに、別の利点/特徴は、上述したような2経路ビデオ符号化方式を使用するビデオ符号器であり、ビデオ符号器は、予測モジュール及びデブロッキングフィルタをさらに含んでいる。予測モジュールは、バッファと信号通信可能であり、第1の符号化経路におけるビデオ信号データに対応する予測画像を形成する。デブロッキングフィルタは、バッファと信号通信可能であり、第2の符号化経路において予測画像にデブロッキングオペレーションを実行する。バッファは、第2の符号化経路において使用するために第1の符号化経路における予測画像を記憶する。   Yet another advantage / feature is a video encoder that uses a two-pass video encoding scheme as described above, the video encoder further including a prediction module and a deblocking filter. The prediction module is in signal communication with the buffer and forms a prediction image corresponding to the video signal data in the first coding path. The deblocking filter is in signal communication with the buffer and performs a deblocking operation on the predicted image in the second coding path. The buffer stores a predicted image in the first coding path for use in the second coding path.

さらに、別の利点/特徴は、上述したような2経路ビデオ符号化方式を使用するビデオ符号器であり、分解モジュールは、双対木ウェーブレット変換を実行し、動き残差を分解する。   Yet another advantage / feature is a video encoder that uses a two-pass video coding scheme as described above, and the decomposition module performs a dual tree wavelet transform to decompose the motion residual.

さらに、別の利点/特徴は、上述したような2経路ビデオ符号化方式及び双対木ウェーブレット変換を使用するビデオ符号器であり、分解モジュールは、ノイズシェーピングを使用し、双対木ウェーブレット変換の係数を選択する。   In addition, another advantage / feature is a video encoder that uses a two-path video coding scheme and a dual tree wavelet transform as described above, where the decomposition module uses noise shaping to determine the coefficients of the dual tree wavelet transform. select.

さらに、別の利点/特徴は、上述したような2経路ビデオ符号化方式を使用するビデオ符号器であり、分解モジュールは、パラメトリック過完備2−D辞書を利用し、第2の符号化経路における動き残差を分解する。   Yet another advantage / feature is a video encoder that uses a two-pass video encoding scheme as described above, where the decomposition module utilizes a parametric overcomplete 2-D dictionary and in the second encoding path. Decompose the motion residual.

さらに、別の利点/特徴は、ビデオビットストリームを復号化するビデオ復号器であり、ビデオ復号器は、エントロピ復号器、アトム復号器、逆変換器、動き補償器、デブロッキングフィルタ、及び結合器を含んでいる。エントロピ復号器は、ビデオビットストリームを復号化し、解凍されたビデオビットストリームを獲得する。アトム復号器は、エントロピ復号器と信号通信可能であり、解凍されたビットストリームに対応する解凍されたアトムを復号化し、復号化されたアトムを獲得する。逆変換器は、アトム復号器と信号通信可能であり、逆変換を復号化されたアトムに適用し、再構成された残差画像を形成する。動き補償器は、エントロピ復号器と信号通信可能であり、解凍されたビットストリームに対応する動きベクトルを使用して動き補償を実行し、再構成された予測画像を形成する。デブロッキングフィルタは、動き補償器と信号通信可能であり、再構成された予測画像にデブロッキングフィルタリングを実行し、再構成された予測画像を平滑化する。結合器は、逆変換器及びオーバラップブロック動き補償器と信号通信可能であり、再構成された予測画像と、残差画像を組み合わせ、再構成画像を獲得する。   Yet another advantage / feature is a video decoder that decodes a video bitstream, the video decoder comprising an entropy decoder, an atom decoder, an inverse transformer, a motion compensator, a deblocking filter, and a combiner Is included. The entropy decoder decodes the video bitstream and obtains a decompressed video bitstream. The atom decoder is capable of signal communication with the entropy decoder, decodes the decompressed atom corresponding to the decompressed bitstream, and obtains the decoded atom. The inverse transformer is capable of signal communication with the atom decoder and applies the inverse transform to the decoded atom to form a reconstructed residual image. The motion compensator is in signal communication with the entropy decoder and performs motion compensation using a motion vector corresponding to the decompressed bitstream to form a reconstructed predicted image. The deblocking filter is capable of signal communication with the motion compensator, performs deblocking filtering on the reconstructed prediction image, and smoothes the reconstructed prediction image. The combiner is in signal communication with the inverse transformer and the overlap block motion compensator, and combines the reconstructed predicted image and the residual image to obtain a reconstructed image.

本発明の上記及び別の特徴/構成及び利点は、ここでの教示内容に基づいて当業者により容易に確認されるであろう。本発明の教示内容は、ハードウェア、ソフトウェア、ファームウェア、専用プロセッサ、又はこれらの組み合わせの様々な形態で実装されてもよい。   These and other features / configurations and advantages of the present invention will be readily ascertainable by one of ordinary skill in the art based on the teachings herein. The teachings of the present invention may be implemented in various forms of hardware, software, firmware, special purpose processors, or combinations thereof.

最も好ましくは、本発明の教示内容は、ハードウェアとソフトウェアとの組み合わせとして実装される。さらに、ソフトウェアは、プログラム記憶ユニットに具体的な形態に実現されたアプリケーションプログラムとして実装されてもよい。アプリケーションプログラムは、任意の適切なアーキテクチャを有する機械にアップロードされ、当該機械により実行されてもよい。好ましくは、上記機械は、1つ以上の中央処理装置(「CPU」)、ランダムアクセスメモリ(「RAM」)、及び入力/出力(「I/O」)インターフェイス等のハードウェアを有するコンピュータプラットフォームに実装される。コンピュータプラットフォームは、オペレーティングシステム及びマイクロ命令コードを含んでいてもよい。ここで説明された様々な処理及び機能は、CPUにより実行されるかもしれないマイクロ命令コードの一部若しくはアプリケーションプログラムの一部、又はこれらの任意の組み合わせであってもよい。さらに、様々な別の周辺装置がコンピュータプラットフォームに接続されてもよく、例えば、当該様々な別の周辺装置は、別のデータ記憶装置及びプリント装置である。   Most preferably, the teachings of the present invention are implemented as a combination of hardware and software. Furthermore, the software may be implemented as an application program realized in a specific form in the program storage unit. The application program may be uploaded to and executed by a machine having any suitable architecture. Preferably, the machine is on a computer platform having hardware such as one or more central processing units (“CPU”), random access memory (“RAM”), and input / output (“I / O”) interfaces. Implemented. The computer platform may include an operating system and microinstruction code. The various processes and functions described herein may be part of microinstruction code or part of an application program that may be executed by the CPU, or any combination thereof. In addition, various other peripheral devices may be connected to the computer platform, for example, the various other peripheral devices may be other data storage devices and printing devices.

好ましくは、添付図面に示された構成システム要素及び方法の一部は、ソフトウェアで実装されるので、システム要素同士又は処理機能ブロック同士の間の実際の接続は、本発明がプログラムされている手法に依存して異なっていてもよい。ここでの教示内容を与えると、当業者は、上記及び類似した本発明の実装又は構成を予想することができるであろう。   Preferably, some of the constituent system elements and methods shown in the accompanying drawings are implemented in software, so that the actual connection between system elements or processing function blocks is the way in which the present invention is programmed. It may be different depending on. Given the teachings herein, one of ordinary skill in the related art will be able to contemplate these and similar implementations or configurations of the present invention.

説明に役立つ実施形態は、ここでは添付図面を参照しつつ説明されたが、本発明は、上記の厳格な実施形態に限定されず、様々な変形及び変更が、本発明の範囲又は精神から逸脱することなく、当業者によりなされてもよい。全てのこのような変形及び変更は、特許請求の範囲に記載された本発明の範囲内に含めるものとする。
[付記1]
複数経路ビデオ符号化方式を使用してビデオ信号データを符号化するビデオ符号器であって、前記ビデオ符号器は、
前記ビデオ信号データに動き推定を実行して、第1の符号化経路における前記ビデオ信号データに対応する動き残差を獲得する動き推定器(116)と、
前記動き推定器と信号通信可能であり、後の符号化経路における前記動き残差を分解する分解モジュール(174)と、
を含む、ビデオ符号器。
[付記2]
前記複数経路ビデオ符号化方式は2経路ビデオ符号化方式であり、前記ビデオ符号器は、バッファ(118)をさらに含み、前記バッファ(118)は、前記動き推定器及び前記分解モジュールと信号通信可能であり、第2の符号化経路において使用するために前記第1の符号化経路において得られた前記動き残差を記憶し、前記分解モジュール(174)は、前記第2の符号化経路における冗長ガボール辞書セットを使用して前記動き残差を分解する、付記1に記載のビデオ符号器。
[付記3]
前記動き推定器(116)は、前記第1の符号化経路において国際電気通信連合電気通信部門(ITU−T)H.264規格に従い動き推定及び符号化モード選択を実行する、付記2に記載のビデオ符号器。
[付記4]
前記バッファと信号通信可能であり、前記第1の符号化経路における前記ビデオ信号データに対応する予測画像を形成する予測モジュール(124、126)と、
前記バッファと信号通信可能であり、16×16サイン二乗窓を使用して前記予測画像にオーバラップブロック動き補償(OBMC)を実行し、前記第2の符号化経路における前記予測画像を平滑化するオーバラップブロック動き補償器(170)と、
をさらに含み、前記バッファは、前記第2の符号化経路において後続する使用のために前記第1の符号化経路における前記予測画像を記憶する、付記2に記載のビデオ符号器。
[付記5]
前記バッファと信号通信可能であり、前記第1の符号化経路における前記ビデオ信号データに対応する予測画像を形成する予測モジュール(124、126)と、
前記バッファと信号通信可能であり、前記第2の符号化経路における前記予測画像の8×8以上のパーティションだけにオーバラップブロック動き補償(OBMC)を実行するオーバラップブロック動き補償器(170)と、
をさらに含み、前記バッファは、前記第2の符号化経路において後続する使用のために前記第1の符号化経路における前記予測画像を記憶する、付記2に記載のビデオ符号器。
[付記6]
前記バッファと信号通信可能であり、前記第1の符号化経路における前記ビデオ信号データに対応する予測画像を形成する予測モジュール(124、126)と、
前記バッファと信号通信可能であり、前記第2の符号化経路における前記予測画像の4×4パーティションのために8×8サイン二乗窓を使用してオーバラップブロック動き補償(OBMC)を実行するオーバラップブロック動き補償器(170)と、
をさらに含み、OBMCが前記第2の符号化経路において実行されると、前記予測画像の全てのパーティションは、4×4パーティションに分割され、前記バッファは、前記第2の符号化経路において後続する使用のために前記第1の符号化経路における前記予測画像を記憶する、付記2に記載のビデオ符号器。
[付記7]
前記バッファと信号通信可能であり、前記第1の符号化経路における前記ビデオ信号データに対応する予測画像を形成する予測モジュール(124、126)と、
前記バッファと信号通信可能であり、前記第2の符号化経路における前記予測画像の全てのパーティションのために適応可能なオーバラップブロック動き補償(OBMC)を実行するオーバラップブロック動き補償器(170)と、
をさらに含み、前記バッファは、前記第2の符号化経路において後続する使用のために前記第1の符号化経路における前記予測画像を記憶する、付記2に記載のビデオ符号器。
[付記8]
前記バッファと信号通信可能であり、前記第1の符号化経路における前記ビデオ信号データに対応する予測画像を形成する予測モジュール(124、126)と、
前記バッファと信号通信可能であり、前記第2の符号化経路における前記予測画像にデブロッキングオペレーションを実行するデブロッキングフィルタ(170)と、
をさらに含み、前記バッファは、前記第2の符号化経路において後続する使用のために前記第1の符号化経路における前記予測画像を記憶する、付記2に記載のビデオ符号器。
[付記9]
前記分解モジュール(174)は、双対木ウェーブレット変換を実行し、前記動き残差を分解する、付記2に記載のビデオ符号器。
[付記10]
前記分解モジュール(174)は、ノイズシェーピングを使用し、前記双対木ウェーブレット変換の係数を選択する、付記9に記載のビデオ符号器。
[付記11]
前記分解モジュール(174)は、パラメトリック過完備2−D辞書を利用し、前記第2の符号化経路における前記動き残差を分解する、付記2に記載のビデオ符号器。
[付記12]
複数経路ビデオ符号化方式を使用してビデオ信号データを符号化する方法であって、
前記ビデオ信号データに動き推定を実行し、第1の符号化経路において前記ビデオ信号データに対応する動き残差を獲得するステップ(315)と、
後の符号化経路において前記動き残差を分解するステップ(340)と、
を含む、方法。
[付記13]
前記複数経路ビデオ符号化方式は、2経路ビデオ符号化方式であり、前記方法は、第2の符号化経路において後続する使用のために前記第1の符号化経路において獲得された前記動き残差を記憶するステップ(320)をさらに含み、前記分解するステップ(340)は、前記第2の符号化経路における冗長ガボール辞書セットを使用して前記動き残差を分解する、付記12に記載の方法。
[付記14]
前記動き推定及び符号化モード選択は前記第1の符号化経路における国際電気通信連合電気通信部門(ITU−T)H.264規格に従い実行される、付記13に記載の方法。
[付記15]
前記第1の符号化経路における前記ビデオ信号データに対応する予測画像を形成するステップ(315)と、
前記第1の符号化経路における前記予測画像を記憶するステップ(320)と、
16×16サイン二乗窓を使用して前記予測画像にオーバラップブロック動き補償(OBMC)を実行し、前記第2の符号化経路における前記予測画像を平滑化するステップ(330)と、
をさらに含む、付記13に記載の方法。
[付記16]
前記第1の符号化経路における前記ビデオ信号データに対応する予測画像を形成するステップ(315)と、
前記第1の符号化経路における前記予測画像を記憶するステップ(320)と、
前記第2の符号化経路における前記予測画像の8×8以上のパーティションだけにオーバラップブロック動き補償(OBMC)を実行するステップ(330)と、
をさらに含む、付記13に記載の方法。
[付記17]
前記第1の符号化経路における前記ビデオ信号データに対応する予測画像を形成するステップ(315)と、
前記第1の符号化経路における前記予測画像を記憶するステップ(320)と、
前記第2の符号化経路における前記予測画像の4×4パーティションのために8×8サイン二乗窓を使用してオーバラップブロック動き補償(OBMC)を実行するステップ(330)と、
をさらに含み、OBMCが前記第2の符号化経路に実行されると、前記予測画像の全てのパーティションは4×4パーティションに分割される、付記13に記載の方法。
[付記18]
前記第1の符号化経路における前記ビデオ信号データに対応する予測画像を形成するステップ(315)と、
前記第1の符号化経路における前記予測画像を記憶するステップ(320)と、
前記第2の符号化経路における前記予測画像の全てのパーティションのために適応可能なオーバラップブロック動き補償(OBMC)を実行するステップ(330)と、
をさらに含む、付記13に記載の方法。
[付記19]
前記第1の符号化経路における前記ビデオ信号データに対応する予測画像を形成するステップ(315)と、
前記第1の符号化経路における前記予測画像を記憶するステップ(320)と、
前記第2の符号化経路における前記予測画像にデブロッキングオペレーションを実行するステップ(330)と、
をさらに含む、付記13に記載の方法。
[付記20]
前記分解するステップ(340)は、双対木ウェーブレット変換を実行し、前記動き残差を分解する、付記13に記載の方法。
[付記21]
前記分解するステップ(340)は、ノイズシェーピングを使用し、前記双対木ウェーブレット変換の係数を選択する、付記20に記載の方法。
[付記22]
前記分解するステップ(340)は、パラメトリック過完備2−D辞書を利用し、前記第2の符号化経路における前記動き残差を分解する、付記13に記載の方法。
[付記23]
ビデオビットストリームを復号化するビデオ復号器であって、
解凍されたビデオストリームを獲得するために前記ビデオビットストリームを復号化するエントロピ復号器(210)と、
前記エントロピ復号器と信号通信可能であり、復号されたアトムを獲得するために、前記解凍されたビットストリームに対応する解凍されたアトムを復号化するアトム復号器(220)と、
前記アトム復号器と信号通信可能であり、再構成された残差画像を形成するために逆変換を前記復号されたアトムに適用する逆変換器(230)と、
前記エントロピ復号器と信号通信可能であり、再構成された予測画像を形成するために、前記解凍されたビットストリームに対応する動きベクトルを使用して動き補償を実行する動き補償器(250)と、
前記動き補償器と信号通信可能であり、前記再構成された予測画像を平滑化するために、前記再構成された予測画像にデブロッキングフィルタリングを実行するデブロッキングフィルタ(260)と、
前記逆変換器及び前記オーバラップブロック動き補償器と信号通信可能であり、再構成画像を獲得するために、前記再構成された予測画像と前記残差画像を組み合わせる結合器(270)と、
を含む、復号器。
[付記24]
ビデオビットストリームを復号化する方法であって、
前記ビットストリームを復号化し、解凍されたビデオビットストリームを獲得するステップ(405)と、
前記解凍されたビットストリームに対応する解凍されたアトムを復号し、復号されたアトムを獲得するステップ(415)と、
前記復号されたアトムに逆変換を適用し、再構成された残差画像を形成するステップ(420)と、
前記解凍されたビットストリームに対応する動きベクトルを使用して動き補償を実行し、再構成された予測画像を形成するステップ(425)と、
前記再構成された予測画像にデブロッキングフィルタリングを実行し、前記再構成された予測画像を平滑化するステップ(425)と、
前記再構成された予測画像及び前記残差画像を組み合わせて再構成画像を獲得するステップ(430)と、
を含む、方法。
While illustrative embodiments have been described herein with reference to the accompanying drawings, the invention is not limited to the precise embodiments described above, and various modifications and changes can be made without departing from the scope or spirit of the invention. It may be made by those skilled in the art without. All such variations and modifications are intended to be included within the scope of the present invention as set forth in the appended claims.
[Appendix 1]
A video encoder that encodes video signal data using a multi-path video encoding scheme, the video encoder comprising:
A motion estimator (116) that performs motion estimation on the video signal data to obtain a motion residual corresponding to the video signal data in a first coding path;
A decomposition module (174) that is in signal communication with the motion estimator and decomposes the motion residual in a later coding path;
Including a video encoder.
[Appendix 2]
The multi-path video encoding scheme is a two-path video encoding scheme, and the video encoder further includes a buffer (118), and the buffer (118) is capable of signal communication with the motion estimator and the decomposition module. And storing the motion residual obtained in the first coding path for use in the second coding path, the decomposition module (174) being a redundant in the second coding path. The video encoder of claim 1, wherein the motion residual is decomposed using a Gabor dictionary set.
[Appendix 3]
The motion estimator (116) is connected to the International Telecommunication Union Telecommunication Division (ITU-T) H.264 in the first coding path. The video encoder according to appendix 2, which performs motion estimation and encoding mode selection according to the H.264 standard.
[Appendix 4]
A prediction module (124, 126) that is in signal communication with the buffer and forms a predicted image corresponding to the video signal data in the first encoding path;
Signal communication with the buffer is performed, and an overlap block motion compensation (OBMC) is performed on the prediction image using a 16 × 16 sine square window, and the prediction image in the second coding path is smoothed. An overlap block motion compensator (170);
The video encoder of claim 2, further comprising: the buffer storing the predicted image in the first coding path for subsequent use in the second coding path.
[Appendix 5]
A prediction module (124, 126) that is in signal communication with the buffer and forms a predicted image corresponding to the video signal data in the first encoding path;
An overlap block motion compensator (170) capable of signal communication with the buffer and performing overlap block motion compensation (OBMC) only on 8 × 8 or more partitions of the predicted image in the second coding path; ,
The video encoder of claim 2, further comprising: the buffer storing the predicted image in the first coding path for subsequent use in the second coding path.
[Appendix 6]
A prediction module (124, 126) that is in signal communication with the buffer and forms a predicted image corresponding to the video signal data in the first encoding path;
Overrun that is in signal communication with the buffer and performs overlap block motion compensation (OBMC) using an 8 × 8 sine square window for 4 × 4 partitions of the predicted image in the second coding path. A wrap block motion compensator (170);
And when OBMC is performed in the second coding path, all partitions of the predicted image are divided into 4 × 4 partitions, and the buffer follows in the second coding path. The video encoder of claim 2, storing the predicted image in the first encoding path for use.
[Appendix 7]
A prediction module (124, 126) that is in signal communication with the buffer and forms a predicted image corresponding to the video signal data in the first encoding path;
Overlapping block motion compensator (170) that is in signal communication with the buffer and that performs adaptive overlapping block motion compensation (OBMC) for all partitions of the predicted image in the second coding path When,
The video encoder of claim 2, further comprising: the buffer storing the predicted image in the first coding path for subsequent use in the second coding path.
[Appendix 8]
A prediction module (124, 126) that is in signal communication with the buffer and forms a predicted image corresponding to the video signal data in the first encoding path;
A deblocking filter (170) that is in signal communication with the buffer and that performs a deblocking operation on the predicted image in the second coding path;
The video encoder of claim 2, further comprising: the buffer storing the predicted image in the first coding path for subsequent use in the second coding path.
[Appendix 9]
The video encoder of claim 2, wherein the decomposition module (174) performs a dual tree wavelet transform to decompose the motion residual.
[Appendix 10]
The video encoder of claim 9, wherein the decomposition module (174) uses noise shaping to select coefficients for the dual-tree wavelet transform.
[Appendix 11]
The video encoder of claim 2, wherein the decomposition module (174) uses a parametric overcomplete 2-D dictionary to decompose the motion residual in the second encoding path.
[Appendix 12]
A method of encoding video signal data using a multipath video encoding scheme, comprising:
Performing motion estimation on the video signal data to obtain a motion residual corresponding to the video signal data in a first coding path (315);
Decomposing the motion residual in a later coding path (340);
Including a method.
[Appendix 13]
The multi-path video coding scheme is a two-path video coding scheme, and the method includes the motion residual acquired in the first coding path for subsequent use in a second coding path. 13. The method of claim 12, further comprising the step of storing (320), wherein the decomposing step (340) decomposes the motion residual using a redundant Gabor dictionary set in the second encoding path. .
[Appendix 14]
The motion estimation and coding mode selection may be performed according to International Telecommunication Union Telecommunication Sector (ITU-T) H.264 in the first coding path. The method according to appendix 13, which is performed according to the H.264 standard.
[Appendix 15]
Forming a predicted image corresponding to the video signal data in the first encoding path (315);
Storing the predicted image in the first encoding path (320);
Performing overlap block motion compensation (OBMC) on the predicted image using a 16 × 16 sine square window to smooth the predicted image in the second coding path (330);
The method according to appendix 13, further comprising:
[Appendix 16]
Forming a predicted image corresponding to the video signal data in the first encoding path (315);
Storing the predicted image in the first encoding path (320);
Performing overlap block motion compensation (OBMC) on only 8 × 8 or more partitions of the predicted image in the second coding path (330);
The method according to appendix 13, further comprising:
[Appendix 17]
Forming a predicted image corresponding to the video signal data in the first encoding path (315);
Storing the predicted image in the first encoding path (320);
Performing overlap block motion compensation (OBMC) using an 8 × 8 sine square window for 4 × 4 partitions of the predicted image in the second coding path;
The method of claim 13, further comprising: when OBMC is performed on the second coding path, all partitions of the predicted image are divided into 4 × 4 partitions.
[Appendix 18]
Forming a predicted image corresponding to the video signal data in the first encoding path (315);
Storing the predicted image in the first encoding path (320);
Performing adaptive block motion compensation (OBMC) adaptive for all partitions of the predicted image in the second coding path (330);
The method according to appendix 13, further comprising:
[Appendix 19]
Forming a predicted image corresponding to the video signal data in the first encoding path (315);
Storing the predicted image in the first encoding path (320);
Performing a deblocking operation on the predicted image in the second coding path (330);
The method according to appendix 13, further comprising:
[Appendix 20]
The method of claim 13, wherein the decomposing step (340) performs a dual tree wavelet transform to decompose the motion residual.
[Appendix 21]
The method of claim 20, wherein the decomposing step (340) uses noise shaping and selects coefficients for the dual-tree wavelet transform.
[Appendix 22]
The method of claim 13, wherein the decomposing step (340) uses a parametric overcomplete 2-D dictionary to decompose the motion residual in the second coding path.
[Appendix 23]
A video decoder for decoding a video bitstream,
An entropy decoder (210) for decoding the video bitstream to obtain a decompressed video stream;
An atom decoder (220) that is in signal communication with the entropy decoder and decodes a decompressed atom corresponding to the decompressed bitstream to obtain a decoded atom;
An inverse transformer (230) that is in signal communication with the atom decoder and applies an inverse transform to the decoded atom to form a reconstructed residual image;
A motion compensator (250) that is in signal communication with the entropy decoder and performs motion compensation using a motion vector corresponding to the decompressed bitstream to form a reconstructed prediction image; ,
A deblocking filter (260) that is in signal communication with the motion compensator and performs deblocking filtering on the reconstructed prediction image to smooth the reconstructed prediction image;
A combiner (270) that is in signal communication with the inverse transformer and the overlap block motion compensator and combines the reconstructed prediction image and the residual image to obtain a reconstructed image;
Including a decoder.
[Appendix 24]
A method for decoding a video bitstream, comprising:
Decoding the bitstream and obtaining a decompressed video bitstream (405);
Decoding a decompressed atom corresponding to the decompressed bitstream to obtain a decrypted atom (415);
Applying an inverse transform to the decoded atom to form a reconstructed residual image (420);
Performing motion compensation using a motion vector corresponding to the decompressed bitstream to form a reconstructed predicted image (425);
Performing deblocking filtering on the reconstructed predicted image and smoothing the reconstructed predicted image (425);
Combining the reconstructed predicted image and the residual image to obtain a reconstructed image (430);
Including a method.

Claims (6)

複数経路を使用してビデオ信号を符号化するビデオ符号器であって、
前記ビデオ信号に動き推定を実行する動き推定器と、
前記ビデオ信号に動き補償を実行する動き補償器と、
第1の経路の残差信号に、DCT変換、スケーリング、および量子化を実行する変換量子化器と、
前記第1の経路の残差信号から予測ビデオ信号を再構成する回路と、
予測画像および制御データを記憶し、かつ、第2の経路の符号器に転送する回路と、
オリジナルのビデオ信号と、前記再構成された予測ビデオ信号との間の差を見つけることにより、第2の経路の残差を計算する加算回路と、
第1の経路からの予測画像に、デブロッキングまたはオーバラップブロック動き補償を実行するフィルタと、
前記動き推定器と信号通信可能であり、前記第2の経路の動き残差を、分解し、線形関数のエッジ検出冗長辞書から選択される波形の展開により表すマッチング追跡符号器と、
を含む、ビデオ符号器。
A video encoder that encodes a video signal using multiple paths,
A motion estimator for performing motion estimation on the video signal ;
A motion compensator for performing motion compensation on the video signal;
A transform quantizer that performs DCT transform, scaling, and quantization on the residual signal of the first path;
A circuit for reconstructing a predicted video signal from the residual signal of the first path;
A circuit for storing the predicted image and control data and transferring to the encoder of the second path;
An adder circuit that calculates a second path residual by finding a difference between the original video signal and the reconstructed predicted video signal;
A filter that performs deblocking or overlap block motion compensation on the predicted image from the first path ;
A matching tracking encoder that is in signal communication with the motion estimator and that represents the motion residual of the second path by decomposing and representing a waveform expansion selected from an edge detection redundancy dictionary of linear functions;
Including a video encoder.
前記複数経路ビデオ符号化方式は2経路ビデオ符号化方式であり、前記ビデオ符号器は、バッファをさらに含み、前記バッファは、前記動き推定器及び前記分解モジュールと信号通信可能であり、第2の符号化経路において後続する使用のために前記第1の符号化経路において得られた前記動き残差を記憶し、前記分解モジュールは、前記第2の符号化経路における冗長ガボール辞書セットを使用して前記動き残差を分解する、請求項1に記載のビデオ符号器。   The multi-path video encoding scheme is a two-path video encoding scheme, the video encoder further includes a buffer, and the buffer is capable of signal communication with the motion estimator and the decomposition module; Storing the motion residual obtained in the first coding path for subsequent use in the coding path, the decomposition module using a redundant Gabor dictionary set in the second coding path; The video encoder of claim 1, wherein the motion residual is decomposed. 前記動き推定器は、前記第1の符号化経路において国際電気通信連合電気通信部門(ITU−T)H.264規格に従い動き推定及び符号化モード選択を実行する、請求項2に記載のビデオ符号器。   The motion estimator is connected to the International Telecommunication Union Telecommunication Sector (ITU-T) H.264 in the first coding path. The video encoder of claim 2, wherein the video encoder performs motion estimation and coding mode selection according to the H.264 standard. 複数経路を使用してビデオ信号を符号化する方法であって、
モード決定および前記ビデオ信号に動き推定を実行するステップと、
前記ビデオ信号に動き補償するステップと、
第1の経路の残差信号に、DCT変換、スケーリング、および量子化を実行するステップと、
前記第1の経路の残差信号から予測ビデオ信号を再構成するステップと、
予測画像および制御データを記憶し、第2の経路の符号器に転送するステップと、
オリジナルのビデオ信号と、前記再構成された予測ビデオ信号との間の差を見つけることにより、第2の経路の残差を計算するステップと、
第1の経路からの予測画像に、デブロッキングフィルタリングまたはオーバラップブロック動き補償を実行するステップと、
後の符号化経路において前記第2の経路の動き残差を、線形関数のエッジ検出冗長辞書から選択される波形の展開として表すステップと、
を含む、方法。
A method of encoding a video signal using multiple paths, comprising:
Performing mode determination and motion estimation on the video signal ;
Motion compensating the video signal;
Performing DCT transform, scaling, and quantization on the residual signal of the first path;
Reconstructing a predicted video signal from the residual signal of the first path;
Storing the predicted image and control data and transferring to the encoder of the second path;
Calculating a second path residual by finding a difference between the original video signal and the reconstructed predicted video signal;
Performing deblocking filtering or overlap block motion compensation on the predicted image from the first path ;
Representing the motion residual of the second path in a later coding path as a development of a waveform selected from an edge detection redundancy dictionary of linear functions;
Including a method.
前記複数経路ビデオ符号化方式は、2経路ビデオ符号化方式であり、前記方法は、第2の符号化経路において後続する使用のために前記第1の符号化経路において獲得された前記動き残差を記憶するステップをさらに含み、前記分解するステップは、前記第2の符号化経路における冗長ガボール辞書セットを使用して前記動き残差を分解する、請求項4に記載の方法。   The multi-path video coding scheme is a two-path video coding scheme, and the method includes the motion residual acquired in the first coding path for subsequent use in a second coding path. 5. The method of claim 4, further comprising: storing the motion residual using a redundant Gabor dictionary set in the second coding path. 前記動き推定及び符号化モード選択は前記第1の符号化経路における国際電気通信連合電気通信部門(ITU−T)H.264規格に従い実行される、請求項5に記載の方法。   The motion estimation and coding mode selection may be performed according to International Telecommunication Union Telecommunication Sector (ITU-T) H.264 in the first coding path. The method of claim 5, wherein the method is performed according to the H.264 standard.
JP2009529167A 2006-09-22 2007-02-15 Method and apparatus for multi-path video encoding and decoding Expired - Fee Related JP5529537B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
USPCT/US2006/037139 2006-09-22
US2006037139 2006-09-22
PCT/US2007/004110 WO2008036112A1 (en) 2006-09-22 2007-02-15 Method and apparatus for multiple pass video coding and decoding

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2012169948A Division JP5639619B2 (en) 2006-09-22 2012-07-31 Method and apparatus for multi-path video encoding and decoding

Publications (2)

Publication Number Publication Date
JP2010504689A JP2010504689A (en) 2010-02-12
JP5529537B2 true JP5529537B2 (en) 2014-06-25

Family

ID=38521211

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2009529167A Expired - Fee Related JP5529537B2 (en) 2006-09-22 2007-02-15 Method and apparatus for multi-path video encoding and decoding
JP2012169948A Expired - Fee Related JP5639619B2 (en) 2006-09-22 2012-07-31 Method and apparatus for multi-path video encoding and decoding

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2012169948A Expired - Fee Related JP5639619B2 (en) 2006-09-22 2012-07-31 Method and apparatus for multi-path video encoding and decoding

Country Status (6)

Country Link
EP (1) EP2070334A1 (en)
JP (2) JP5529537B2 (en)
KR (2) KR20150047639A (en)
CN (2) CN102833544A (en)
BR (1) BRPI0716540A2 (en)
WO (1) WO2008036112A1 (en)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10194175B2 (en) * 2007-02-23 2019-01-29 Xylon Llc Video coding with embedded motion
BR112012017686A2 (en) * 2010-02-11 2016-04-05 Thomson Licensing method for encoding and reconstructing a block of an image sequence
WO2013077650A1 (en) * 2011-11-23 2013-05-30 한국전자통신연구원 Method and apparatus for decoding multi-view video
EP2920969A4 (en) * 2012-11-13 2016-07-13 Intel Corp Video codec architecture for next generation video
JP6336058B2 (en) 2013-10-14 2018-06-06 マイクロソフト テクノロジー ライセンシング,エルエルシー Features of base color index map mode for video and image encoding and decoding
EP3058736B1 (en) 2013-10-14 2019-02-27 Microsoft Technology Licensing, LLC Encoder-side options for intra block copy prediction mode for video and image coding
AU2013403224B2 (en) 2013-10-14 2018-10-18 Microsoft Technology Licensing, Llc Features of intra block copy prediction mode for video and image coding and decoding
KR102258427B1 (en) 2014-01-03 2021-06-01 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 Block vector prediction in video and image coding/decoding
US10390034B2 (en) 2014-01-03 2019-08-20 Microsoft Technology Licensing, Llc Innovations in block vector prediction and estimation of reconstructed sample values within an overlap area
US11284103B2 (en) 2014-01-17 2022-03-22 Microsoft Technology Licensing, Llc Intra block copy prediction with asymmetric partitions and encoder-side search patterns, search ranges and approaches to partitioning
US10542274B2 (en) 2014-02-21 2020-01-21 Microsoft Technology Licensing, Llc Dictionary encoding and decoding of screen content
EP4354856A2 (en) 2014-06-19 2024-04-17 Microsoft Technology Licensing, LLC Unified intra block copy and inter prediction modes
RU2679201C2 (en) 2014-09-30 2019-02-06 МАЙКРОСОФТ ТЕКНОЛОДЖИ ЛАЙСЕНСИНГ, ЭлЭлСи Rules for intra-picture prediction modes when wavefront parallel processing is enabled
EP3308540B1 (en) 2015-06-09 2020-04-15 Microsoft Technology Licensing, LLC Robust encoding/decoding of escape-coded pixels in palette mode
US10986349B2 (en) 2017-12-29 2021-04-20 Microsoft Technology Licensing, Llc Constraints on locations of reference blocks for intra block copy prediction

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5699121A (en) * 1995-09-21 1997-12-16 Regents Of The University Of California Method and apparatus for compression of low bit rate video signals
JP2002315004A (en) * 2001-04-09 2002-10-25 Ntt Docomo Inc Image-encoding method and device, image-decoding method and device, and image processing system
JP4804342B2 (en) * 2003-03-28 2011-11-02 デジタル アクセレレーター コーポレーション Overcomplete basis transform based motion residual frame encoding method and video compression apparatus
US7653133B2 (en) * 2003-06-10 2010-01-26 Rensselaer Polytechnic Institute (Rpi) Overlapped block motion compression for variable size blocks in the context of MCTF scalable video coders
US20060159173A1 (en) * 2003-06-30 2006-07-20 Koninklijke Philips Electronics N.V. Video coding in an overcomplete wavelet domain
CN100469142C (en) * 2003-08-05 2009-03-11 Nxp股份有限公司 Video encoding and decoding methods and corresponding devices
EP1656644B1 (en) * 2003-08-12 2009-12-02 Nxp B.V. Video encoding and decoding methods and corresponding devices
JP4191729B2 (en) * 2005-01-04 2008-12-03 三星電子株式会社 Deblock filtering method considering intra BL mode and multi-layer video encoder / decoder using the method
KR100703744B1 (en) * 2005-01-19 2007-04-05 삼성전자주식회사 Method and apparatus for fine-granularity scalability video encoding and decoding which enable deblock controlling

Also Published As

Publication number Publication date
CN102833544A (en) 2012-12-19
CN101518085A (en) 2009-08-26
JP5639619B2 (en) 2014-12-10
JP2012235520A (en) 2012-11-29
BRPI0716540A2 (en) 2012-12-25
WO2008036112A1 (en) 2008-03-27
KR20090073112A (en) 2009-07-02
KR20150047639A (en) 2015-05-04
EP2070334A1 (en) 2009-06-17
JP2010504689A (en) 2010-02-12

Similar Documents

Publication Publication Date Title
JP5529537B2 (en) Method and apparatus for multi-path video encoding and decoding
JP6120896B2 (en) Method and apparatus for sparsity-based artifact removal filtering for video encoding and decoding
JP5801363B2 (en) Apparatus and method for encoding and decoding, and computer program
CN108028931B (en) Method and apparatus for adaptive inter-frame prediction for video coding and decoding
KR100772391B1 (en) Method for video encoding or decoding based on orthogonal transform and vector quantization, and apparatus thereof
US20070098067A1 (en) Method and apparatus for video encoding/decoding
KR101482896B1 (en) Optimized deblocking filters
US8285064B2 (en) Method for processing images and the corresponding electronic device
JP5908848B2 (en) Method and apparatus for performing constrained transforms for video encoding and decoding with transform selection
KR100694137B1 (en) Apparatus for encoding or decoding motion image, method therefor, and recording medium storing a program to implement thereof
US9571851B2 (en) Inter prediction method and apparatus using adjacent pixels, and image encoding/decoding method and apparatus using same
KR20090095317A (en) Method and apparatus for encoding and decoding image
WO2011064673A1 (en) Method of and apparatus for encoding video frames, method of and apparatus for decoding video frames
CN107211161B (en) Video coding optimization of extended space including last stage processing
JP5746193B2 (en) Efficient adaptive filtering method and apparatus for video encoding and decoding
US20120263225A1 (en) Apparatus and method for encoding moving picture
US8699576B2 (en) Method of and apparatus for estimating motion vector based on sizes of neighboring partitions, encoder, decoding, and decoding method
JP2012231505A (en) Video encoding method enabling highly efficient partial decoding of h.264 and other transform coded information
EP3104615B1 (en) Moving image encoding device and moving image encoding method
JP2004080786A (en) Motion estimating method and device referring to discrete cosine transformation coefficient
US20100040146A1 (en) Method and apparatus for multiple pass video coding and decoding
US8792549B2 (en) Decoder-derived geometric transformations for motion compensated inter prediction
KR101341998B1 (en) Inter Prediction Apparatus of Considering Rotational Motion and Video Encoding/Decoding Method and Apparatus Using Same
KR20080075987A (en) Motion estimation method
George et al. Fast Predictive Coding Method Based on an Enhanced Blocks Motion Estimation.

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120131

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120131

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20120426

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20120508

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120731

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130329

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20130701

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20130708

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130930

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131022

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20140122

RD13 Notification of appointment of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7433

Effective date: 20140123

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20140129

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20140123

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140318

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140417

R150 Certificate of patent or registration of utility model

Ref document number: 5529537

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees